Illudersi di conoscere. Pensarsi magari esperti. Peggio: diventare megafono passivo di nozioni che mai nessuno ha davvero imparato, né assimilato. Secondo diversi studi, l’uso dei grandi modelli linguistici (Llm) sta ponendo le basi per una nuova della conoscenza. Almeno di quella che si muove online e principia dai software di intelligenza artificiale. Più che una evoluzione, una degenerazione. Dall’episteme, la tensione ideale a una conoscenza certa, all’Epistemia, un processo dove la conoscenza diventa solo una forma ben scritta di nozioni vuote, ma sintatticamente ineccepibili.
L’IA produce testi in buona forma, ma vuoti
L’IA produce testi. Bei testi. Belle forme. Ma senza conoscere davvero quello di cui parla. E soprattutto senza trasmettere una forma di conoscenza verificata. Ma con le sue belle forme trasmette un’illusione. Un’ambizione. Che si declina in svariate forme. Post sui social. Risposte apparentemente puntuali. Articoli su blog. Persone che all’improvviso diventano esperti di settori di cui fino a poco tempo fa non ne erano nemmeno a conoscenza.
“L’Epistemia è una malattia degenerativa del concetto di conoscenza. Se smettiamo di pretendere la verifica dei fatti e ci accontentiamo della bella forma sintattica, ciò di cui sono capaci i modelli linguistici, perdiamo la capacità di distinguere il mondo reale dalle allucinazioni statistiche (dell’intelligenza artificiale)”. Walter Quattrociocchi ha coniato il concetto di Epistemia. Ordinario alla Sapienza di Roma, è tra i massimi esperti di Data science e Sistemi complessi. Le sue ricerche sono spesso oggetto di dibattito. È stato i primi a raccontare l’inutilità del fact-checking e del debunking come strumento per ripulire il dibattito pubblico dalle fake news. Prima ancora che diventasse evidente. Prima ancora che se ne si prendesse reale contezza.






