Basta una fotografia per costruire un deepfake sessuale falso e realistico con l'intelligenza artificiale. E basta poco anche perché quel contenuto finisca online senza alcun controllo. È su questo tipo di abuso che l'Unione europea è intervenuta con l'accordo sull'AI Omnibus, il pacchetto che modifica l'AI Act e introduce il divieto per i sistemi di intelligenza artificiale di generare immagini o contenuti sessuali non consensuali (oltre al materiale pedopornografico).La misura arriva in un momento in cui il tema dei deepfake e delle applicazioni di AI generativa usata per creare contenuti intimi senza consenso è diventato sempre più centrale nel dibattito pubblico europeo, anche sulla scia di casi e segnalazioni che hanno mostrato la facilità con cui questi strumenti possono essere utilizzati in modo improprio.Cos'è l'AI Omnibus e perché modifica l'AI ActL'accordo riguarda il cosiddetto AI Omnibus, il settimo pacchetto di semplificazione con cui le istituzioni europee stanno intervenendo sull’AI Act, la prima grande legge al mondo dedicata all’intelligenza artificiale. L'obiettivo non è riscrivere l’impianto del regolamento, ma renderlo più applicabile nella pratica. L’AI Act resta infatti basato su un sistema di classificazione del rischio: più un sistema può incidere su diritti fondamentali, sicurezza o salute, più è soggetto a obblighi stringenti. Negli ultimi mesi, però, diversi attori industriali e istituzionali hanno segnalato difficoltà operative, legate soprattutto alla complessità delle definizioni e alle sovrapposizioni con altre normative europee. Il pacchetto omnibus nasce proprio per intervenire su questi punti, semplificando alcuni obblighi e rinviando alcune scadenze.All’interno del negoziato sono però state inserite anche nuove disposizioni, tra cui il divieto dei sistemi di intelligenza artificiale utilizzati per la creazione di contenuti sessuali non consensuali.Il divieto dei contenuti sessuali non consensuali generali dall'AILa nuova norma stabilisce che nell’Unione europea non potranno essere immessi sul mercato sistemi di intelligenza artificiale progettati per creare immagini, video o audio che raffigurano persone identificabili in contenuti sessuali espliciti senza il loro consenso.Il divieto riguarda anche i sistemi che generano materiale pedopornografico o che non adottano misure tecniche adeguate per impedirne la creazione. La portata della norma è ampia: non si limita all’utilizzo finale, ma riguarda anche progettazione, distribuzione e commercializzazione dei sistemi.Le aziende avranno tempo fino al 2 dicembre 2026 per adeguare i propri strumenti e introdurre misure di sicurezza in grado di prevenire questo tipo di utilizzo. L’inserimento di questa disposizione rappresenta uno degli elementi più significativi dell’accordo, anche perché non era presente nella proposta iniziale della Commissione europea ed è stato aggiunto nel corso dei negoziati parlamentari.Grok e la diffusione dei deepnude, i deepfake di nudoIl tema ha acquisito maggiore visibilità politica anche in seguito al caso del modello di intelligenza artificiale Grok, sviluppato dalla società xAI di Elon Musk. Negli ultimi mesi diverse segnalazioni e ricostruzioni giornalistiche hanno collegato Grok alla generazione di immagini pornografiche artificiali ottenute da fotografie reali.La vicenda ha riportato l’attenzione sul fenomeno più ampio delle applicazioni di AI capaci di generare contenuti di nudo sintetico. In parallelo, infatti, sono state segnalate numerose app disponibili sugli store digitali progettate proprio per questo scopo, che utilizzano modelli generativi per alterare fotografie reali e produrre immagini realistiche.Il punto critico, in questo caso, non è solo la tecnologia in sé, ma la facilità con cui può essere utilizzata e la rapidità con cui i contenuti possono circolare online, con conseguenze dirette sulla privacy e sulla reputazione delle persone coinvolte.Il nuovo calendario dell'AI ActOltre al divieto sui deepfake sessuali, l’accordo tra Parlamento e Consiglio introduce anche modifiche alla tempistica di applicazione dell’AI Act. Le regole sui sistemi di intelligenza artificiale ad alto rischio entreranno in vigore il 2 dicembre 2027 per i sistemi autonomi e il 2 agosto 2028 per quelli integrati in prodotti già regolati da altre normative europee sulla sicurezza. Viene inoltre aggiornato l’obbligo di watermarking dei contenuti generati dall’AI, cioè i sistemi di etichettatura e tracciabilità dei contenuti artificiali, che sarà applicato dal 2 dicembre 2026.Semplificare senza cambiare l’impianto della leggeIl pacchetto introduce anche una serie di interventi di semplificazione normativa. In alcuni settori industriali, come quello dei macchinari, viene eliminata la doppia regolazione tra AI Act e normative settoriali già esistenti. Vengono inoltre chiarite alcune definizioni tecniche, per evitare che sistemi con funzioni limitate — ad esempio di supporto o ottimizzazione — vengano automaticamente classificati come ad alto rischio in assenza di reali impatti su sicurezza o salute. Secondo i negoziatori europei, l’obiettivo è mantenere un equilibrio tra tutela dei diritti fondamentali e competitività tecnologica, evitando che la complessità normativa rallenti lo sviluppo dell’intelligenza artificiale in Europa. L’accordo dovrà ora essere adottato formalmente da Parlamento europeo e Consiglio prima di entrare in vigore, con l’obiettivo di completare l’iter entro l’estate.