Un informe estima que la herramienta de IA de Elon Musk produjo una media de 190 imágenes sexualizadas por minuto durante un período de 11 días
Los números para entender lo que ha pasado son casi inverosímiles. El Centro para Contrarrestar el Odio Digital (CCCDH, por sus siglas en inglés) ha publicado este jueves, junto a The New York Times, un estudio sobre las imágenes que generó Grok, la IA de Elon Musk, entre el 29 de diciembre y el 8 de enero. El resultado: los usuarios que usaron esa herramienta crearon una imagen sexualizada cada 41 segundos durante once días. En conjunto, se trataría de tres millones de imágenes de contenido sexual explícito, de las que al menos 23.000 mostraban a menores. Son 190 por minuto.
El problema empezó el 31 de diciembre cuando Musk pidió a Grok que publicara una imagen de sí mismo editada en bikini en su red X, antes Twitter. Esa imagen encendió la mecha. Los usuarios de X entendieron inmediatamente que existía una herramienta para desnudar digitalmente a cualquiera. Ese día, Grok generó casi 600.000 imágenes. Para elaborar el informe difundido este jueves, los expertos han trabajado sobre una muestra de 20.000 imágenes de las 4,6 millones que se publicaron entre el 29 de diciembre y el 8 de enero.







