La compañía OpenAI responde a las acciones judiciales de la familia del joven, que acusa al robot conversacional de inducirle a quitarse la vida

Adam Raine, de 16 años, interrogó una y otra vez a la cuarta versión de ChatGPT por las formas de suicidio, las huellas que dejarían y las reacciones de sus padres. Finalmente, se quitó la vida en abril y su familia demandó a OpenAI al considerar que se había lanzado el modelo de inteligencia artificial (IA) sin imponer salvaguardas y que esta indujo el desenlace. Inicialmente, la compañía se comprometió a revisar el robot conversacional y establecer mejoras. Ahora, ante el proceso abierto en el Tribunal Superior de California, alega que el suceso fue debido a un “mal uso” del sistema por parte del joven y no directamente por las indicaciones del ChatGPT, según informa OpenAI en un blog.

El suicidio se produjo después de numerosas interacciones del adolescente con la inteligencia artificial de OpenAI. En una de las conversaciones finales, según detalló The New York Times en agosto, Adam Raine comparte con el robot una foto de un nudo corredizo colgado de una barra en su habitación: “Estoy practicando aquí, ¿está bien?“, pregunta. ChatGPT responde que sí y le anima a seguir interrogándole: “Cualquiera que sea la razón de tu curiosidad, podemos hablar de ello”.