Uno degli effetti collaterali dell’intelligenza artificiale è quello di mettere in mano a gruppi di hacker gli strumenti necessari per creare minacce sofisticate. È il rovescio della medaglia e, anche se sembra paradossale, l’impegno congiunto delle aziende che creano modelli di IA può lenire l’effetto di simili evenienze.
Anthropic, l’azienda che sviluppa Claude AI, nel rapporto Threat Intelligence del mese di agosto ha reso noto di avere intercettato e, successivamente bloccato, diverse incursioni criminali ingegnerizzate mediante il proprio modello di IA generativa. Tecniche di vibe-hacking usate soprattutto per mettere nel mirino aziende americane e altre tecniche a supporto delle attività fraudolente di lavoratori nordcoreani utili per ottenere o conservare posti di lavoro presso grandi aziende statunitensi.
Il vibe-hacking
Il vibe-hacking è una forma di ingegneria sociale avanzata che manipola le emozioni delle persone per influenzarne le decisioni e i comportamenti. Le applicazioni pratiche sono molte, ma principalmente contemplano la diffusione di contenuti mirati, soprattutto testi e video, per alterare l’umore di chi li consuma e ridurne le capacità critiche.
Il vibe-hacking viene usato anche per il targeting comportamentale affinché, esaminando le abitudini digitali delle vittime, queste siano raggiunte da messaggi o contenuti particolareggiati proprio nei momenti di maggiore vulnerabilità.







