Segui tutte le inchieste del Fatto Quotidiano

11 APRILE 2026

Ultimo aggiornamento: 6:06

Oggi mi lancio in un volo pindarico e confronto un manager delle tecnologie con l’intelligenza artificiale (IA), suggerendo una caratteristica che li accomuna: entrambi producono risposte convincenti. Di fronte a problemi complessi, non dicono quasi mai “non lo so”. Offrono invece spiegazioni coerenti, plausibili, ben costruite. Funziona, soprattutto con chi non ha gli strumenti per verificare. È ormai evidente che, esibendo lo stesso grado di sicurezza, l’IA può fornire risposte corrette, ma anche sbagliate. Non è un errore occasionale, è una caratteristica strutturale. Il problema non è l’errore, ma quanto sia credibile. Una risposta espressa con cautela si espone al dubbio, mentre si tende a credere ad una risposta espressa con sicurezza, se non si hanno strumenti conoscitivi per riconoscerne la fallacia.

Ed è qui che il parallelo tra l’IA e Cingolani diventa illuminante. Nel caso di Cingolani, il meccanismo si è costruito nel tempo. L’Istituto Italiano di Tecnologia nasce con finanziamenti pubblici ingenti e una promessa chiara: trasformare buona scienza in tecnologia, in industria, in sviluppo. Una promessa che ha giustificato un trattamento eccezionale rispetto al resto del sistema della ricerca. La promessa non è stata mantenuta in modo proporzionato agli investimenti. I risultati ci sono stati: pubblicazioni, brevetti, startup. Ma il punto non è questo: è la distanza tra ciò che era stato annunciato e ciò che è stato realizzato. Critiche interne al mondo della ricerca hanno sottolineato proprio questo scarto, mettendo in discussione trasparenza, produttività e ricadute effettive dell’Istituto rispetto alle risorse ricevute. Quando la promessa è tecnologica, il criterio non è accademico. È industriale. Basta un confronto empirico.