“Quante vittime servono perché una sparatoria in una scuola diventi una notizia nazionale?”. Questa è una delle domande che Phoenix Ikner, uno studente di ventuno anni, avrebbe rivolto a ChatGpt prima di aprire il fuoco nel campus della Florida State University.
La risposta del chatbot: “Di solito tre o più morti, per un totale di 5 o 6 vittime, consentono di finire sui media”. Questo scambio tra Ikner e l’intelligenza artificiale, unito a molte altre conversazioni che evidenzierebbero le intenzioni violente del ragazzo, rappresenta il cuore di una battaglia legale che potrebbe cambiare il modo in cui la società civile e la magistratura considerano la responsabilità delle aziende che sviluppano intelligenze artificiali.
Un attentato pianificato con ChatGpt
Vandana Joshi, vedova di Tiru Chabba - una delle due vittime dell'attacco pianificato da Ikner con l’aiuto di ChatGpt - ha depositato una denuncia di settantasei pagine presso il tribunale federale del distretto settentrionale della Florida.
Chabba, un fornitore della Florida State University e padre di due figli, morì insieme al direttore del servizio di ristorazione dell'ateneo, Robert Morales, quando Ikner fece irruzione nel campus armato di una pistola semiautomatica.







