Si chiama «effetto pratfall» ed è stato enunciato nel 1966 dallo psicologo sociale Elliot Aronson: chi è già percepito come competente, viene apprezzato di più se è in grado di ammettere di aver commesso un errore. Bene: qualcuno lo spieghi a ChatGpt e simili. O meglio, lo spieghi a chi progetta e ha buttato nella mischia questi modelli di intelligenza artificiale con la loro notevole proprietà di linguaggio e limiti oggettivi. Uno è, appunto, l’incapacità di riconoscere quando non hanno una risposta chiara o basata su fonti attendibili. Non sono programmati per dire «non lo so», non ammettono il vuoto: sono macchine. Nella continua elaborazione del «next token», ovvero l’elemento successivo della sequenza statisticamente plausibile in base ai precedenti, possono agire in modo poco funzionale. E contraddittorio: lo ha evidenziato uno studio di Google DeepMind e University College London.