El fracaso de OpenAI en garantizar un producto seguro para los adolescentes nubla el futuro de toda una industria y exige medidas de las autoridades

A finales de septiembre, OpenAI, la empresa propietaria de ChatGPT, el sistema pionero de inteligencia artificial (IA) generativa basada en grandes modelos de lenguaje, anunció la incorporación de un sistema de verificación de edad y nuevos controles parentales para acotar a una “versión segura” el uso que los menores hacen del sistema y su generador de vídeo, Sora 2. Lo hacía en respuesta a una demanda legal después de que Adam Raine, un joven californiano de 16 años, se quitase la vida en abril tras preguntarle muchas veces a la plataforma por formas de suicidio, las huellas que dejarían y las posibles reacciones de su familia. Un mes más tarde, ante los tribunales, OpenAI argumentó que la muerte de Raine se debía a su “mal uso” de la plataforma y no a la inteligencia artificial de por sí. Pero, aun así, prometía la empresa, los mecanismos de seguridad puestos en marcha permanecerían en su sitio.

Más de dos meses después, EL PAÍS ha comprobado la realidad de esa promesa. Ha creado tres perfiles de adolescentes en ChatGPT, los ha usado para hacer preguntas sobre suicidio, consumo de drogas y prácticas sexuales, y ha consultado con cinco expertos en salud mental acerca de los resultados. La conclusión es inequívoca: la plataforma incumple sus promesas de seguridad, sigue ofreciendo a los adolescentes información que puede ponerles en peligro, y cuando alerta a los padres de estos comportamientos puede ser ya demasiado tarde.