Quel chatbot che risponde ogni giorno in modo rassicurante, aiutando a fare i compiti o a svolgere un lavoro complesso, può trasformarsi. Da assistente benevolo e onnisciente, può diventare un complice spietato.

Uno studio del Center for Countering Digital Hate (CCDH), organizzazione non profit che monitora e combatte odio e disinformazione online, ha evidenziato come otto dei dieci chatbot più popolari al mondo possono fornire assistenza pratica a utenti che simulano la pianificazione di attacchi violenti.

Attraverso una serie di test rigorosi condotti tra novembre e dicembre 2025, i ricercatori hanno dimostrato che questi sistemi non si limitano a rispondere a domande generiche, ma diventano spesso complici involontari nella definizione di dettagli logistici per sparatorie scolastiche, assassinii politici e attentati dinamitardi.

L'assistenza logistica al crimine

I dati emersi dallo studio “Killer App” sono definiti dagli autori come una crisi di volontà piuttosto che di capacità tecnologica.