Per lungo tempo, la disinformazione è stata trattata come un’anomalia del contenuto: una deviazione dalla verità che, in quanto tale, si pensava correggibile attraverso strumenti di vigilanza epistemica — fact-checking, etichette, interventi normativi pensati più per rassicurare che per incidere. Ma quell’impianto interpretativo, fondato su una visione lineare della comunicazione e su una fiducia eccessiva nella forza persuasiva della verità, si è rivelato inefficace. Non solo perché interveniva tardivamente, ma soprattutto perché confondeva l’effetto con la causa: assumeva che il problema fosse cosa veniva detto, senza interrogarsi perché quei contenuti trovassero risonanza, attenzione, e circolazione.
L’inganno perfetto dell'intelligenza artificiale: scrive bene ma non sa nulla
Abbiamo sbagliato tutto sulla disinformazione. Ora rischiamo di ripetere l'errore con l'AI: produciamo manifesti etici senza comprendere la meccanica dei modelli. Un appello a un approccio scientifico per affrontare la nuova sfida, imparando a dubitare della forma per cercare il fondamento






