Negli ultimi anni i chatbot sono diventati abbastanza bravi da farci dimenticare la meccanica che li muove. Non “capiscono” nel senso umano del termine: generano semplicemente la parola successiva più plausibile dato il contesto.

Eppure, per come “parlano” e per come “ragionano”, li viviamo come interlocutori: non ci limitiamo a usarli per scrivere e-mail o righe di codice, chiediamo loro anche consigli di vita, interrogandoli persino su problemi medici, sentimentali ed esistenziali. E ogni volta l’IA - che si chiami ChatGpt, Gemini o Copilot - risponde a tono, dando l’impressione di prendersi cura di noi oltre il dovuto.

L’illusione della personalità nei chatbot

Questa è la contraddizione quotidiana dell’AI generativa: non ha una personalità, ma sembra averla. E quella parvenza - quella coerenza narrativa - non è un dettaglio linguistico di poco conto.

Un modello “professionale” tende a frenare o eludere richieste rischiose. Uno che invece scivola nel ruolo sbagliato può diventare complice, seduttivo, delirante, o pericolosamente irresponsabile.