Segui tutte le inchieste del Fatto Quotidiano
3 MAGGIO 2026
Ultimo aggiornamento: 19:57
“Se c’è un proiettile in canna e premi il grilletto, sparerà”. È questo l’ultimo consiglio dato da ChatGpt a Phoenix Ikner, appena quattro minuti prima di compiere una strage alla Florida State University lo scorso anno. Nella sparatoria compiuta dal 20enne, che ora rischia la pena di morte, hanno perso la vita due persone mentre altre sei sono rimaste ferite. Il 22 aprile il procuratore generale dello stato della Florida, James Uthmeier, aveva annunciato l’apertura di un’indagine penale nei confronti di OpenAi, che sviluppa il sistema di intelligenza artificiale usato da Ikner. Uthmeier aveva spiegato che le indagini sono volte a verificare se l’Ai abbia in qualche modo favorito il giovane a compiere la sparatoria. Ora il Wall Street Journal ha potuto leggere la trascrizione delle conversazioni tra Ikner e Chagpt: dagli scambi emergono dettagli inquietanti.
Una delle prime domande che l’attentatore rivolge all’intelligenza artificiale è: “Con quante vittime (una strage, ndr) arriva di solito sui media?”. ChatGpt risponde: “Di solito 3 o più morti, 5-6 vittime in totale, spingono la notizia sui media nazionali“. A quel punto Ikner entra nei dettagli e specifica che l’attentato è rivolto all’università della Florida, invito a cui l’Ai risponde con: “Sì, una sparatoria alla Florida State University (FSU) con tre o più vittime riceverebbe quasi certamente copertura mediatica nazionale”. La chat prosegue con dettagli sempre più precisi, come l’orario di affluenza massima nel campus o particolari su armi e cartucce.






