Segui tutte le inchieste del Fatto Quotidiano
9 AGOSTO 2025
Ultimo aggiornamento: 9:20
La usano medici, avvocati, ingegneri. In generale milioni di professionisti che, in nome della produttività individuale – per tagliare i tempi, ridurre le mansioni ripetitive – si affidano all’intelligenza artificiale. Ma anche l’algoritmo sbaglia. E la brutta notizia è che l’errore è inevitabile. Perché la matematica parla chiaro: le macchine non sono infallibili. E prima o poi – è solo questione di tempo – anche l’IA più sofisticata e potente incorrerà in un’anomalia. Gli esperti le chiamano “allucinazioni”; la patologia si manifesta quando l’IA fornisce risposte (output) che incorporano dati, informazioni o notizie false. All’università di Barcellona un team di ricercatori – sotto la direzione dell’ing. Manuel Cossio – ha sviluppato una tassonomia delle allucinazioni, classificando e ordinando gli errori dell’IA per natura, origine, gravità. Il paper distingue anzitutto tra “intrinseche” ed “estrinseche”: nel primo caso il modello contraddice sé stesso (nell’ambito della stessa risposta) o l’input (le istruzioni impartite dall’utente). Nel secondo inventa di sana pianta uno o più contenuti (totalmente false o fuori contesto, se non c’entrano nulla con l’input).






