Los gobiernos deben exigir a la red social X que evite la manipulación pornográfica de imágenes gracias a su IA
La inteligencia artificial (IA) puede desvelar las cadenas del ADN, dibujar el mapa completo de los genes, proponer una composición inédita de un fármaco u optimizar un proceso industrial. Pero también incitar y dar instrucciones para un suicidio o desnudar a cualquier persona. La creación audiovisual es una de las habilidades en la que más se han volcado las grandes tecnológicas porque es una de las aplicaciones con mayor demanda y mayor potencial económico frente a usos más restringidos en entornos empresariales. La IA ya es capaz de crear una imagen original empleando únicamente comandos de voz o recrear —a partir de fotografías o secuencias originales— cualquier producto, y su origen resulta indetectable a la percepción humana. Como era de esperar, las webs pornográficas han comenzado a desplegar todo un arsenal de categorías.
La mayoría de las plataformas de IA incluyen limitaciones o salvaguardas para evitar estos usos, pero la creada por el multimillonario Elon Musk, conocida como Grok, nació sin esas cortapisas con la idea de promover el particular concepto de “libertad de expresión sin límites” de su dueño. Su argumento es que no es la herramienta la que comete delitos, sino quien la usa con fines delictivos, y ya lo aplicó al eliminar la moderación de los discursos de odio cuando compró la red X, entonces Twitter. Sin embargo, desde finales del pasado año, el anonimato y la facilidad de uso de Grok desató una avalancha de publicaciones de desnudos e imágenes sexualizadas creadas a partir de la manipulación de imágenes inocuas subidas a X o accesibles a través de cualquier otra red social. Bastaba con pedirle que desnudara a la protagonista de una instantánea (la inmensa mayoría de las víctimas son mujeres).






