Innovazione, semplificazione e regolamentazione ex-ante. Questo è il trilemma che la Commissione Europea si trova ad affrontare nella graduale implementazione dell’Artificial Intelligence Act (AI Act).
Primo quadro normativo al mondo sull’intelligenza artificiale, l’AI Act rappresenta uno dei pilastri dell’agenda politica dell’Unione. È anche uno dei principali motivi d’orgoglio per Palazzo Berlaymont, grazie all’approccio antropocentrico adottato nella regolamentazione, che pone al centro la tutela della privacy, la sicurezza degli utenti e le considerazioni etiche.
In particolare, l’AI Act si basa su un approccio fondato sul rischio per i diritti fondamentali delle persone. Prevede quindi divieti e requisiti più stringenti per i sistemi di intelligenza artificiale classificati come ad alto rischio, come quelli utilizzati per l’identificazione e la categorizzazione biometrica o per la sicurezza delle infrastrutture critiche.
A meno di un anno dalla pubblicazione sulla Gazzetta ufficiale dell’Unione Europea, e prima ancora che alcune delle sue disposizioni principali diventino vincolanti, l’AI Act potrebbe però subire modifiche sostanziali.
È quanto auspicano le big tech americane (e non solo). Alphabet, Meta e Apple, attraverso la lobby CCIA Europe, hanno recentemente esortato l’Unione Europea a sospendere l’attuazione dell’AI Act, avvertendo che un’implementazione affrettata rischia di compromettere le ambizioni europee in materia di intelligenza artificiale.







