L’intelligenza artificiale non dovrebbe essere in grado di utilizzare correttamente il linguaggio umano. Eppure – un po’ come il calabrone, che secondo la leggenda non potrebbe volare – lo fa lo stesso. Per lungo tempo, si è infatti pensato che gli algoritmi di deep learning, poiché funzionano su basi statistiche, non sarebbero mai riusciti a gestire la complessità delle parole, che sono ricche di ambiguità e sfumature, il cui significato cambia a seconda del contesto e la cui struttura grammaticale è incredibilmente articolata. La tecnologia, in questo caso, ha superato le aspettative: fin dall’introduzione, attorno al 2016, del deep learning nei sistemi di traduzione automatica e poi con l’avvento dell’architettura transformer alla base dei large language model (LLM), l’IA ha dimostrato di saper maneggiare con successo il linguaggio, traducendo in maniera sempre più accurata, componendo testi coerenti, rispondendo alle nostre domande ecc.
Perché il deep learning riesce là dove si pensava che avrebbe fallito? È quello che sta cercando di scoprire Sebastian Goldt, ricercatore tedesco della Sissa (Scuola internazionale di studi superiori avanzati) di Trieste. Dopo aver vinto nel 2024 un finanziamento del prestigioso ERC (European Research Council), Goldt oggi guida la squadra – 8 persone provenienti da Italia, Germania e Francia – che nei prossimi 5 anni dovrà risolvere il “mistero” dei large language model.







