Che il fact-checking classico non funzioni ormai è un dato di fatto. Affidare a professionisti dell’informazione il compito di etichettare, contestualizzare e smentire delle notizie o ricostruzioni palesemente false, espone infatti a due limiti strutturali. Il primo è la difficoltà a monitorare in maniera rapida ed efficace la straordinaria mole di contenuti che circolano sui social network. Il secondo, e più importante, riguarda invece la possibilità che un gruppo di persone abbia il potere di stabilire che sia o meno “vero”.Soprattutto in un’epoca polarizzata come la nostra, questo secondo elemento ha spesso trasformato il fact-checking in un boomerang: “Già nel 2015 avevamo dimostrato quanto questo strumento non funzionasse e anzi generasse una reazione opposta a quella desiderata, rafforzando per esempio il legame tra i teorici del complotto e le pagine social più complottiste. Le persone cercano infatti i contenuti che più si adeguano alla loro visione del mondo e ignorano o contrastano quelli che mirano a smentirla”, spiega a Wired Walter Quattrociocchi, direttore del Center of Data Science and Complexity for Society della Sapienza di Roma.Se ci mettiamo nei panni di un teorico del complotto, la dinamica appare ancora più chiara: perché mai dovrei fidarmi di un fact-checker professionista assoldato da una prestigiosa istituzione (come può essere l'agenzia di stampa Reuters), quando il mio scetticismo riguarda proprio l’affidabilità e sincerità di queste stesse istituzioni? Da questo punto di vista, il fact-checking non è più un grossolano tentativo di separare il falso dal vero, ma diventa un metodo per rafforzare la narrazione dominante eliminando quelle alternative.Quando il fact-checking è affidato agli utentiAnche per fronteggiare questi limiti, negli ultimi anni è emerso un modello alternativo, che prevede di affidare agli stessi utenti dei social media il monitoraggio delle informazioni e delle affermazioni che circolano sulla piattaforma. Per quanto sistemi simili siano stati adottati anche da Meta e da TikTok, il più noto è rappresentato dalle Community Notes di X, inizialmente introdotte su Twitter con il nome di Birdwatch.“Le Community Notes sono un sistema collaborativo che permette agli utenti di proporre delle annotazioni testuali in risposta a tweet individuali. Lo scopo di una nota è quindi di aggiungere informazioni contestuali a un tweet, comprese delle fonti aggiuntive a sostegno della nota”, si legge nello studio condotto da Walter Quattrociocchi assieme a un team di ricercatori della Sapienza. Gli utenti che hanno i requisiti per partecipare (account attivo da almeno sei mesi, numero di telefono verificato e altri) svolgono inizialmente solo il ruolo di “rater”, classificando le note inviate dai membri più esperti (“contributor”) in base alla loro utilità.Con il tempo, se le loro valutazioni risultano affidabili, acquisiscono a loro volta la possibilità di proporre note. Queste vengono rese visibili sotto al post solo quando ottengono un livello di consenso considerato trasversale, cioè quando la nota ha ricevuto approvazioni da gruppi che in passato hanno mostrato di non essere sistematicamente d’accordo tra loro. Il meccanismo punta quindi a premiare la convergenza tra posizioni differenti.“Le ricerche mostrano che le note create dalla comunità sono generalmente considerate più affidabili lungo tutto lo spettro politico rispetto alle etichette affidate a fact-checker di terze parti”, si legge ancora nello studio.“I contributor si affidano inoltre frequentemente a fonti di fact-checking tradizionali quando scrivono le note, indicando che i sistemi basati sulla comunità funzionano tramite un meccanismo ibrido invece che come alternative completamente indipendenti”. Infine, “l’esposizione a correzioni redatte dalla comunità ha meno probabilità di innescare disimpegno o reazioni di rigetto rispetto ai singoli avvisi di disinformazione”.Fin qui il meccanismo. Ma le Community Notes funzionano? Possono rappresentare uno strumento per monitorare in maniera affidabile l’informazione – e la disinformazione – che circola sui social network? Per capirlo, gli autori dello studio hanno analizzato l’intero archivio pubblico delle Community Notes rilasciato da X, che copre il periodo compreso tra gennaio 2021 e dicembre 2025. Il dataset comprende oltre 2,2 milioni di note proposte sulla piattaforma, circa 184 milioni di valutazioni espresse dagli utenti e più di 1,3 milioni di account che hanno assegnato almeno un rating.Per le analisi legate alla dimensione politica – cioè quelle in cui è necessario sapere a quale area appartenga l’autore del post che ha ricevuto delle note – i ricercatori hanno poi lavorato su un sottoinsieme specifico: oltre 218mila note riferite a circa 162mila tweet, provenienti da poco più di 39mila profili etichettati come democratici o repubblicani. Incrociando questo campione con il database completo delle valutazioni, hanno poi analizzato oltre 18 milioni di rating attribuiti da circa 730mila utenti.Lo studio mostra come le Community Notes soffrano di gravi limiti in termini di concentrazione, polarizzazione politica e anche potenziale manipolatorio. La maggior parte degli utenti ha fornito solo poche valutazioni alle note, mentre il grosso dell’attività è svolto da un piccolo sottoinsieme. Per la precisione, il 20% dei rater attivi nelle Community Notes è responsabile dell’80% dei voti. Se non bastasse, i rater tendono a concentrare la loro attività, “valutando ripetutamente delle note scritte in risposta ai tweet dello stesso insieme di autori”.Anche la distribuzione politica è problematica. L’insieme dei rater mostra a prima vista una partecipazione bilanciata, ma quando si analizza il 10% dei rater più attivi il quadro cambia e gli utenti “mostrano un comportamento significativamente più polarizzato” e una prevalenza di comportamenti favorevoli ai repubblicani. In generale, “la polarizzazione aumenta all’aumentare dell’attività degli utenti, indicando che quelli più attivi tendono a essere anche politicamente più polarizzati e di conseguenza a fornire rating più soggetti a bias”.Le simulazioni condotte dai ricercatori mostrano che eliminando anche solo poche decine tra gli utenti più attivi, migliaia di note cambiano stato, perdendo per esempio la qualifica di “utile” e quindi non risultando più visibili pubblicamente. Anche solo escludendo una quota minuscola di rater, le decisioni dell’algoritmo risultano quindi sensibilmente diverse, dimostrando come le Community Notes dipendano in modo troppo marcato dal comportamento di una minoranza. Alla luce di tutto ciò, “il sistema è altamente vulnerabile ai pregiudizi dei rater e a una manipolazione strategica, in cui anche un piccolo gruppo di attori malevoli può sopprimere delle informazioni affidabili”.E quindi, le Community Notes non funzionano a causa dell’ambiente politicamente connotato di X, soprattutto tra i power users, o a causa di limitazioni strutturali di questo sistema? “Pensavamo che potesse essere una soluzione efficace, ma dal momento che le note sono portate avanti da una minoranza iperattiva si innescano sempre le stesse dinamiche, che portano al rifiuto di qualunque posizione non sia condivisa all’interno di quel gruppo”, prosegue Quattrociocchi.Dalla Echo Chamber alla Echo PlatformQuesto non vale soltanto per X, ma potenzialmente per qualunque social network, soprattutto in una fase in cui le piattaforme si dividono sempre di più in base all’appartenenza politica, come dimostrato per esempio dalla fuga dei progressisti su Bluesky: “Dalla Echo Chamber si è passati a quella che ho definito Echo Platform: il momento in cui il pregiudizio di conferma (cioè la tendenza a cercare informazioni che confermano le proprie convinzioni, ignorando quelle contrarie, ndA) si espande a tutta la piattaforma, portando gli utenti a cercare social a loro politicamente affini”.Da questo punto di vista, le Community Notes non rappresentano più uno strumento di verifica dell’informazione, ma diventano invece un altro meccanismo per massimizzare l’engagement degli utenti: “X fa intrattenimento e guadagna di più se la popolazione che lo utilizza è molto attiva”, spiega Quattrociocchi. “Il modello di business richiede di trattenere il più possibile gli utenti sulla piattaforma. Se il blocco di utenti diventa più monolitico, aumenta la coesione interna e cresce il tempo speso sulla piattaforma e quindi l’engagement”. E se quella coesione coincide anche con una direzione politica auspicata – come sembra essere proprio il caso di X – ecco che il vantaggio economico e quello ideologico finiscono per sovrapporsi.La situazione non è destinata a migliorare, nel momento in cui dalla polarizzazione politica si passa all’epistemia prodotta dall’intelligenza artificiale: “È la fase successiva, la malattia dell’episteme (la contrapposizione di un sapere certo all’opinione del singolo, ndA) causata dalla diffusione di large language model il cui unico criterio di verifica sta nella coerenza linguistica di una macchina che è però completamente disancorata dalla realtà”.Esiste allora un’alternativa valida ai classici metodi di fact-checking? “Un’alternativa possibile è il pre-bunking, teorizzato da Sander van der Linden dell'Università di Cambridge”, conclude Quattrociocchi. “L’idea è di rendere le persone consapevoli delle dinamiche manipolatorie che incontrano quando sono online. Invece di correggere una falsità dopo che si è diffusa, si prova a spiegare prima come funzionano le tecniche di disinformazione. È una forma di empowerment cognitivo. Le evidenze sperimentali suggeriscono che questo approccio possa funzionare meglio del debunking tradizionale. È un processo ovviamente più lungo e complesso, ma abbiamo visto che le bacchette magiche non esistono”.