Ameno di un anno dall'adozione dell'AI Act, l'Unione europea sta valutando di mettere in pausa alcune delle sue disposizioni, in seguito a un'intensa attività di lobbying da parte degli Stati Uniti di Donald Trump, di alcuni Stati Ue e del comparto tech.

"Sono in corso discussioni per ritardare di un anno, quindi fino all'agosto 2027, la scadenza legale per i sistemi ad alto rischio" spiegano fonti interne alla Commissione europea.

I sistemi di IA ad alto rischio, su cui Palazzo Berlaymont ha aperto di recente una consultazione pubblica, sono quelli che possono potenzialmente avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali. Un esempio sono i sistemi di IA impiegati per lo screening dei curriculum dalle aziende, che potrebbero violare i diritti umani se impostati in modo discriminatorio, favorendo il reclutamento degli uomini rispetto alle donne.

La legge europea sull'intelligenza artificiale, la prima del mondo in materia, sarà applicabile a due anni dalla sua entrata in vigore, il 2 agosto 2026, ad eccezione di alcune norme. Le pratiche vietate, come il riconoscimento facciale, sono in atto dal 2 febbraio 2025, mentre le regole sui modelli di IA per finalità generali (Gpai), come GPT-4 alla base di ChatGPT, scatteranno il 2 agosto 2025.