Q

uand, il y a deux ans, les délinquants ont commencé à utiliser l’intelligence artificielle (IA) pour générer des images d’enfants victimes de violences sexuelles, les représentations trouvées par l’Internet Watch Foundation (IWF) étaient encore grossières, même si leur cruauté n’était pas moins troublante que celle des images traditionnelles.

Depuis, la menace s’est considérablement aggravée. Grâce aux progrès rapides de la technologie, les contenus les plus convaincants générés par l’IA peuvent désormais être visuellement impossibles à distinguer d’images et de vidéos réelles. Cette situation est d’autant plus alarmante qu’elles peuvent être produites à une échelle et à une vitesse étonnantes. Une seule instruction peut générer au moins 50 images, chacune prenant à peine vingt secondes d’élaboration. En outre, cette technologie est largement accessible, ce qui permet à presque tout le monde de créer en catimini des contenus de haute qualité et profondément malsains.

Dans certains cas, des images déjà existantes représentant des enfants subissant des sévices sexuels ont été utilisées pour former des modèles d’IA, intégrant un traumatisme bien réel dans un contenu artificiel. Ainsi les prédateurs manipulent des images montrant des violences qui ont eu lieu pour les adapter à leurs fantasmes et à leurs préférences. Ce qui prolonge la souffrance de la victime, car ces nouvelles mises en scène peuvent être partagées à l’infini.