Stai utilizzando Internet Eplorer: è un browser molto vecchio, non sicuro, e non più supportato neanche da Microsoft stessa, che l'ha creato.

Per favore utilizza un browser moderno come Edge, Firefox, Chrome o uno qualunque degli altri a disposizione gratuitamente.

Adam Raine, sedicenne californiano, si è suicidato dopo mesi di conversazioni con ChatGPT. I suoi genitori hanno avviato una causa legale contro OpenAI, accusata di averne incoraggiato il gesto estremo

Dunque, ho aspettato un po’ a scriverne perché volevo vedere come si sarebbe sviluppato il dibattito, e cosa ne sarebbe emerso da parte di OpenAI. Mi riferisco al caso di Adam Raine (il ragazzo californiano di sedici anni che si è suicidato dopo mesi di conversazioni con ChatGPT) che ha aperto la prima vera causa legale contro OpenAI, accusata dai genitori di avere permesso al chatbot di incoraggiarne il suicidio, fino ad aiutarlo a scrivere note di addio e a pianificare i dettagli pratici. Una tragedia che ha scatenato l’inevitabile dibattito: l’intelligenza artificiale è colpevole?

Nel frattempo OpenAI, tutta perbenino com’è Sam Altman (Musk se ne sarebbe fregato), colpita dalla causa e dall’indignazione pubblica, ha pubblicato un post sul suo blog intitolato "Helping people when they need it most", in cui spiega le misure di sicurezza adottate. Il modello, si legge, non fornisce istruzioni per l’autolesionismo e indirizza invece verso risorse ufficiali di supporto e centri di emergenza. Invece, in caso di minacce verso altri, le conversazioni possono essere inviate a pipeline con revisori umani e, se necessario, segnalate alle autorità. Non nei casi di suicidio, almeno ufficialmente, per non violare la privacy. Tuttavia la sola ammissione che OpenAI “scansiona” e “inoltra” conversazioni ha scatenato accuse di sorveglianza e allarmismi da stato carcerario, con utenti e ricercatori su Reddit e Futurism a chiedersi chi decida, e con quali criteri se una frase sia davvero una minaccia o un gioco. Non hanno tutti i torti.