Quando un prompt su ChatGPT diventa strumento di propaganda e punto di partenza per un attacco informatico, non siamo più nel campo delle ipotesi: sta già accadendo su scala globale. OpenAI, nel report “Disrupting Malicious Uses of AI: June 2025”, racconta come i suoi modelli di intelligenza artificiale siano stati sfruttati da attori malevoli in tutto il mondo per organizzare truffe, campagne di disinformazione, operazioni di spionaggio e attacchi informatici.

Il documento ricostruisce nel dettaglio una serie di attività individuate e interrotte nei mesi scorsi. Azioni che spaziano dai crimini digitali all’ingegneria sociale avanzata, fino a vere e proprie operazioni di influenza occulta. Curriculum falsi generati in Corea del Nord per ottenere lavori da remoto, campagne filo-Cremlino rilanciate su Telegram, bot filippini che lodano il governo Marcos, malware scritti riga per riga grazie all’IA generativa.

Un salto di qualità nell’abuso dell’intelligenza artificiale, che oggi consente a cybercriminali e regimi autoritari di replicare e amplificare le proprie azioni con la stessa facilità con cui un utente comune scrive una mail o chiede un riassunto.

Tuttavia, se da un lato l’IA potenzia l’efficacia e la scala degli attacchi, dall’altro offre anche nuovi strumenti per contrastarli. Ogni prompt inviato, ogni uso anomalo dei modelli lascia dietro di sé una scia di segnali digitali: pattern d’uso, tracce nei log, anomalie nei comportamenti. Questi indizi diventano preziose fonti di analisi per i team di sicurezza, che possono così identificare minacce emergenti, bloccare account sospetti e rafforzare le difese efficacemente.