Il più famoso tra i casi di allucinazioni che abbiamo letto di recente, è forse quello dell’avvocato sanzionato per aver citato nella sua arringa ben quattro sentenze che però non esistevano: le aveva inventate di sana pianta l’intelligenza artificiale cui si era affidato. Ma il rischio è alto anche nel privato: immaginiamo di chiedere al nostro chatbot preferito informazioni su un farmaco o su un'opportunità di investimento e di ricevere risposte precise, dettagliate, in tono autorevole. Ma false o sbagliate. È il fenomeno delle allucinazioni, ancora oggi il tallone d'Achille di qualsiasi sistema di intelligenza artificiale generativa, anche la più potente. Claude, nella sua recente intervista “concessa” a Walter Veltroni, lo ha ammesso: “Ho lacune enormi e faccio errori”. Ma molte aziende preferiscono non sbandierarlo troppo, magari relegando qualche avvertimento generico nel mezzo di lunghissimi termini e condizioni che nessuno legge. In Italia, l'Autorità garante della concorrenza e del mercato (Agcm) ha deciso che, ora, non basta più.Pochi giorni fa infatti l'Antitrust guidata da Roberto Rustichelli ha chiuso tre istruttorie aperte in contemporanea nei confronti dell’AI cinese DeepSeek, di quella francese Mistral con il suo chatbot Le Chat, e Nova AI, gestita dalla turca Scaleup Yazilim. Le indagini erano partite dalla stessa contestazione: i chatbot non informavano gli utenti in modo chiaro, immediato e comprensibile del fatto che i loro sistemi di intelligenza artificiale possono produrre contenuti inesatti, fuorvianti o del tutto inventati. Quindi, per l’Agcm, si tratta a tutti gli effetti di una potenziale pratica commerciale scorretta ai sensi del Codice del consumo, capace di impedire agli utenti di prendere decisioni consapevoli sull'utilizzo dei servizi. Soprattutto in ambiti delicati come salute, finanza e diritto.Niente multe, ma impegni vincolantiLa mano dell’Antitrust a dire il vero è stata leggera, più volta a prevenire che a punire: nessuna delle tre aziende è stata sanzionata, piuttosto si è preferito arrivare a patti: DeepSeek, Mistral e Nova AI si sono impegnate a proporre rimedi che l'Autorità ha ritenuto sufficienti, ad affrontare le criticità emerse caso per caso. Impegni vincolanti: andranno messi in pratica entro 120 giorni, pena la riapertura del caso e una multa fino a circa 11 milioni di euro.DeepSeek ha accettato il pacchetto più ampio, che prevede la pubblicazione di avvisi in bell’evidenza sul rischio di allucinazioni direttamente nelle interfacce di chat e sul sito web, in italiano; una traduzione integrale in lingua italiana dei disclaimer rilevanti; programmi interni di formazione sulla compliance e infine, un impegno tecnico attivo a investire nella riduzione del tasso di allucinazioni. DeepSeek dovrà anche presentare all'Autorità un rapporto completo sulla conformità entro la scadenza dei 120 giorni.Mistral, per il suo Le Chat, si è impegnata su quattro fronti: l'inserimento di disclaimer direttamente nella chat (con una formula del tipo "Le Chat può commettere errori. Verifica le risposte"); il rafforzamento e la localizzazione in italiano dei propri termini di servizio, con riferimento esplicito alla possibile inaffidabilità degli output; una migliore accessibilità di questi termini lungo tutto il percorso dell'utente (homepage, login, registrazione, pagine degli app store e interfaccia di chat) e la traduzione completa in italiano del sito web e del centro assistenza.Nova AI aveva invece un problema in più: oltre all'assenza di avvertimenti sulle allucinazioni, il suo prodotto nascondeva una caratteristica strutturale: Nova AI è infattiun aggregatore cross-platform che offre un'unica interfaccia per accedere a più modelli sottostanti (ChatGPT, Gemini, Claude, DeepSeek) senza però comunicarlo agli utenti, che potevano credere di interagire con un'unica IA proprietaria. Scaleup si è impegnata così a rendere esplicita la propria natura di aggregatore, dichiarando anche che non elabora né aggrega le risposte dei modelli che utilizza.Perché questa storia ci riguardaA prima vista sembra una vicenda burocratica: tre aziende tech che firmano qualche impegno con un'autorità di regolazione e vanno avanti. Ma la portata di quanto è successo è più significativa.Questa è la prima volta che un regolatore europeo ha ottenuto impegni vincolanti e specifici da aziende di intelligenza artificiale riguardo alla trasparenza sulle allucinazioni, inquadrandola come obbligo di tutela del consumatore. E lo ha fatto contemporaneamente nei confronti di società appartenenti a tre giurisdizioni diverse, Cina, Francia, Turchia, applicando lo stesso standard a tutte: quello secondo cui informare gli utenti del rischio-allucinazioni nel momento in cui lo usano è un obbligo elementare di tutela del consumatore.Del resto lo stesso AI Act dell'Unione europea, all’articolo 13, richiede che i fornitori di modelli di intelligenza artificiale per uso generale forniscano informazioni adeguate sulle capacità e sui limiti dei loro sistemi. L'intervento dell'Antitrust italiana fissa proprio, per la propria volta, qualcosa di simile a dei paletti su cosa significhi "adeguato" nella pratica.
Almeno ditecelo, se sono allucinazioni. L’Antitrust chiede la presenza di avvertimenti “adeguati” nei chatbot per riconoscere l'assurdo
L'Autorità ha messo in guarda 3 piattaforme di intelligenza artificiale generativa. Per ora niente sanzioni, ma con l'impegno ad aumentare la trasparenza sulla possibilità di fare errori






