La capacità di giudizio dei modelli linguistici come ChatGPT o Gemini è solo apparenza: a dimostrarlo chiaramente è lo studio guidato da Walter Quattrociocchi, dell’Università Sapienza di Roma, e pubblicato sulla rivista dell’Accademia Nazionale degli Stati Uniti Pnas.
Un lavoro che sottolinea i rischi concreti di affidare a questi modelli di Intelligenza Artificiale la delega di fare scelte o prendere decisioni.
“Cosa avviene realmente quando chiediamo a un’IA di eseguire una scelta, ad esempio determinare se una notizia del web sia credibile o è piuttosto una fake news?”, ha detto Quattrociocchi all’ANSA per raccontare il nuovo studio che ha eseguito una serie di test a gran parte dei più importanti modelli linguisti Llm in circolazione, come ChatGPT, Gemini, Llama, Deepseek e Mistral. Un lungo lavoro che ha messo a confronto umani e IA per capire le differenze di ‘ragionamento’ dei due.
“Quello che abbiamo messo qui molto bene in evidenza è che nonostante i risultati, le IA riconosco infatti molto bene le fake news, il meccanismo che utilizzano non si basa però su riscontri reali ma su una mera capacità di simulare i giudizi. In altre parole, i giudizi formulati dagli Llm sono plausibili ma disancorati dalla realtà fattuale”.








