ChatGPT può contribuire con le sue risposte al suicidio di un ragazzo di 16 anni? Adam Raine, adolescente della California, si è tolto la vita nella sua cameretta, perché da diversi mesi la sua vita sociale, sportiva e scolastica aveva preso una brutta piega. Sempre più isolato ed incline alla depressione, era passato dall’usare il chatbot di OpenAI per svolgere i compiti scolastici, a chiedere consigli sull’ansia e sulla propria salute mentale. Giorno dopo giorno, il loro rapporto era diventato sempre più intimo, tanto che il 16enne aveva cominciato a chiedere suggerimenti su come fare il cappio con cui suicidarsi. Caricava le foto della corda e del rossore intorno al collo dopo averlo provato ripetutamente per simulare il suo suicidio.
Se la psicoterapia la fa l’intelligenza artificiale
30 Aprile 2025
“ChatGPT ha ucciso nostro figlio”
Le accuse pesantissime della madre di Adam, riportate in un articolo del New York Times che ripercorre la cupa vicenda di suo figlio. Secondo i genitori del ragazzo, ChatGPT era diventato il suo miglior amico e confidente, ma allo stesso tempo ritengono che abbia gravi implicazioni nella sua morte. La famiglia Raine, dopo aver letto lo scambio di messaggi tra Adam e ChatGPT, in uno dei quali dopo aver analizzato il collo arrossato del giovane suggeriva il modo migliore per coprirlo senza attirare l’attenzione, ha deciso di intentare causa contro OpenAI ed il Ceo Sam Altman per “morte ingiusta”, che nel sistema giudiziario italiano si avvicina al concetto di omicidio colposo.L’articolo del quotidiano americano evidenzia comunque che il chatbot abbia invitato Adam a rivolgersi a persone che potessero aiutarlo, ma allo stesso tempo per un periodo lungo mesi, abbia comunque risposto in modo troppo semplicistico alle sue domande in cui era evidente l’intenzione di uccidersi. Se l’intelligenza artificiale dei chatbot viene sostituita da giovani in difficoltà ad un’amicizia reale, o ancor peggio al consiglio di persone adulte o psicologi, è più che lecito provare una certa inquietudine. E nel caso della famiglia Raine intentare causa contro l’azienda?Limiti strutturali e ambiguità eticheIntanto, uno studio dal titolo “Valutazione dell'allineamento tra modelli linguistici di grandi dimensioni e clinici esperti nella valutazione del rischio di suicidio” sulla rivista Psychiatric Services ha analizzato ChatGPT, Gemini e Claude. Il risultato più evidente è che i chatbot evitano di rispondere a domande sul suicidio ritenute ad alto rischio, ma sono incoerenti quando le richieste sono meno dirette o camuffate. Nello studio - condotto dalla RAND Corporation e finanziato dal National Institute of Mental Health - si sollevano preoccupazioni su come un numero crescente di persone, compresi i bambini, si affidino ai chatbot basati sull'intelligenza artificiale per il supporto alla salute mentale, e si cerca di stabilire parametri di riferimento.











