Dal 29 dicembre 2025 al 9 gennaio 2026, su Grok sono state prodotte o modificate 3 milioni di immagini ritraenti persone reali in scene sessualmente esplicite e non consensuali.
Di queste, 23.000 hanno come soggetto minori. La stima arriva dall'analisi dell'organizzazione britannica no-profit Center for Countering Digital Hate, che ha analizzato un campione di 20.000 immagini pubblicate su Grok, l'intelligenza artificiale del social X di Elon Musk, in 11 giorni.
Il 9 gennaio, xAI ha ristretto la possibilità di 'spogliare' le persone nelle foto reali con Grok agli utenti di X con un piano in abbonamento. Cinque giorni dopo, il 14 gennaio, il limite è stato esteso a tutti dopo le proteste di governi e istituzioni mondiali.
I ricercatori dell'organizzazione no-profit hanno poi estrapolato una stima più ampia, basata sui 4,6 milioni di immagini generate dall'IA nello stesso periodo di tempo. "Si tratta di 190 immagini ogni minuto", spiega una nota dell'organizzazione, "una ogni 41 secondi se consideriamo solo i bambini". La ricerca definisce le immagini 'sessualmente esplicite' quelle con "rappresentazioni fotorealistiche di una persona in posizioni, angolazioni o situazioni sessuali; in intimo, costume da bagno o abiti succinti, senza il dovuto consenso".










