I Large Language Models, per come li conosciamo oggi, non sono affidabili. E potrebbero non esserlo mai. Eppure, la discussione pubblica — tecnica, politica, etica — li tratta come se lo fossero già. Si scrivono linee guida, si evocano rischi sistemici, si proiettano curve di crescita che culminano nella cosiddetta AGI — l’intelligenza artificiale generale — prevista da alcuni per il 2027.
Ma quella data non nasce da un dato. Nasce da un presupposto: che basti aumentare i parametri del modello, la potenza di calcolo e la quantità di dati per ottenere, a un certo punto, qualcosa che oggi ancora non c’è. È una narrativa d’accumulo applicata a un sistema che d’accumulativo non ha nulla.
Nei sistemi complessi, la traiettoria non è garantita. Esistono attriti, soglie critiche, feedback amplificati. L’evoluzione non segue promesse. E l’affidabilità non si ottiene per somma.






