Imodelli di intelligenza artificiale evolvono a un ritmo esponenziale e vengono impiegati per affrontare problemi e sfide di crescente complessità.

Parallelamente, la loro capacità di instaurare interazioni sempre più strette li rende un fattore di rischio per i soggetti fragili, soprattutto quando queste relazioni assumono una dimensione percepita come personale o confidenziale.

Sam Altman, CEO di OpenAI, ha scritto recentemente sul social X che “il potenziale impatto dei modelli sulla salute mentale è emerso in forma preliminare già nel 2025”. Altman fa riferimento alle numerose cause legali - più di sette finora - che nel corso dell’anno hanno coinvolto la sua azienda, accusata di aver provocato - attraverso ChatGpt - gravi conseguenze sulla salute mentale di alcuni utenti.

Le cause legali e l’allarme sulla salute mentale

Una di queste cause, tra le più note e dibattute, riguarda la morte di Adam Raine, un sedicenne statunitense che si è ucciso dopo aver confidato a ChatGpt i propri pensieri suicidi.