Avete mai chiesto a un’intelligenza artificiale cosa ha in mente? O perché ha reagito in un certo modo? Di solito offre una risposta rassicurante e sensata. Ma l’IA si sta davvero guardando dentro, o sta solo recitando la parte di chi lo fa?
Da questa curiosità nasce un esperimento firmato Anthropic, la società di intelligenza artificiale in cui hanno investito miliardi - tra gli altri - Amazon e Google. L’obiettivo dello studio è capire se un modello linguistico può avere una forma di introspezione, cioè la capacità di “sentire” i propri “pensieri” interni [naturalmente, ogni volta che si parla di un’IA che “pensa” o “sente” non si intende un’esperienza paragonabile a quella umana: si tratta di un modo figurato per descrivere processi computazionali complessi, in cui il sistema elabora e monitora i propri stati interni senza alcuna forma di consapevolezza o vissuto soggettivo].
Una scoperta affascinante, che non implica la coscienza
Anthropic commette un peccato originale: non chiarisce subito la distinzione fra introspezione funzionale – la capacità di un sistema di monitorare e descrivere i propri stati interni – e introspezione fenomenologica, cioè la consapevolezza soggettiva di vivere un pensiero.







