La ciencia revela el peligro de usar la inteligencia artificial como confidente y psicólogo, y los sociólogos y expertos en cibercultura explican por qué la tecnología no puede ni debe sustituir a un profesional de la salud mental
“Un hombre se suicida después de que una IA le invitara a hacerlo”. “Mi hija habló con ChatGPT antes de quitarse la vida”. “Los padres del adolescente que se quitó la vida en EE UU demandan a ChatGPT por ayudarle a “explorar métodos de suicidio”. “Un adolescente se suicida tras enamorarse de un personaje creado con IA”. No son las sinopsis de varios capítulos de la distópica serie Black Mirror, son noticias reales en las que se acusa a la inteligencia artificial de alentar conductas suicidas. Ya sea por motivos de ecoansiedad, frustración amorosa o validación de pensamientos autolesivos, Pierre, Sewell Setzer, Sophie o Adam Raine, respectivamente, se quitaron la vida tras una conversación con chatbots programados con IA.
De los casos documentados, el más preocupante es el de Adam Raine. Era un estadounidense de 16 años que, como tantos otros jóvenes, buscaba compañía y respuestas en internet. Durante meses, mantuvo largas y profundas conversaciones con ChatGPT. Lo usaba como terapeuta para sus problemas. En abril, se quitó la vida, y en agosto, sus padres denunciaron a la empresa OpenAI por no haber detectado a tiempo las señales de alarma. “El chatbot ayudó activamente a Adam a explorar métodos de suicidio y este no puso en marcha ningún protocolo de emergencia, ni siquiera cuando el adolescente verbalizó sus intenciones”, expresan en la demanda ante el Tribunal Supremo de California.








