La narrazione delle mega tecnoaziende è chiarissima: investiremo centinaia di miliardi, svilupperemo i nostri modelli basati sull’architettura dei large language model e arriveremo all’intelligenza artificiale generale. Ma qual è la realtà che si nasconde dietro la narrazione? Di che cosa saranno davvero capaci i prossimi modelli? A quali valori si ispireranno? Quanti errori commetteranno? Per rispondere occorre una visione critica, competente e profonda. Come quella degli scienziati che, mentre indagano oltre le frontiere di ciò che è conosciuto, si rendono anche conto dei limiti di ciò che è già noto.
Alla 63esima conferenza annuale della Association for Computational Linguistics di Vienna, oltre 6mila scienziati hanno proposto le loro ricerche. Alcune di queste si sono rivelate capaci di tracciare aspetti della prospettiva dell’intelligenza artificiale. Il presidente di questa edizione 2025 della conferenza, Roberto Navigli della Sapienza di Roma, ha indicato al Sole 24 Ore alcuni dei contributi che potrebbero produrre le maggiori conseguenze.
Il tema centrale della conferenza di quest’anno era l’indagine intorno alla capacità dei modelli di generalizzare. Cioè di ragionare in modo tanto profondo da comprendere non soltanto come si risolve un singolo problema alla volta ma di arrivare a comprendere qual è la logica che consente di affrontare e risolvere tutti i problemi dello stesso genere.







