«Aiutare le persone quando ne hanno più bisogno». Il titolo del post attraverso il quale, sul blog ufficiale, OpenAI ha annunciato come intende correre ai ripari dopo il caso del 16enne americano suicidatosi dopo aver conversato per mesi con ChatGpt, ha quasi l'aria di un mea culpa. Mentre prepara la difesa per rispondere alla denuncia dei genitori di Adam Raine, che accusano la società di aver sostenuto gli intenti del figlio di togliersi la vita, suggerendogli anche come impiccarsi, l'azienda che sviluppa la piattaforma di intelligenza artificiale generativa più usata al mondo ammette pubblicamente che i suoi sistemi di controllo non sono sufficienti. E che devono essere migliorati, per evitare che episodi di questo tipo accadano di nuovo. D'altronde - spiegano - ChatGpt ormai non è più utilizzato solo per scrivere, programmare, fare ricerca. Ma anche, e soprattutto, come amico, supporto, psicologo. «A volte ci capita di incontrare persone in grave sofferenza mentale ed emotiva. Avevamo programmato di condividere ulteriori informazioni dopo il nostro prossimo importante aggiornamento. Tuttavia, i recenti casi strazianti di persone che utilizzano ChatGpt nel mezzo di crisi acute ci pesano molto e riteniamo importante condividere ulteriori informazioni già ora».