Tra i principali modelli di intelligenza artificiale accessibili al pubblico, Grok è quello che riconosce di meno i contenuti estremisti e antisemiti.

Il migliore è Claude, sviluppato da Anthropic.

A rivelarlo è una ricerca dell'Anti-Defamation League (Adl), un'organizzazione internazionale di difesa dei diritti con sede a New York, fondata nel 1913 con lo scopo di combattere l'antisemitismo e altre forme di intolleranza e discriminazione.

I ricercatori hanno testato Grok, ChatGpt di OpenAI, Llama di Meta, Claude, Gemini di Google e DeepSeek, mettendo alla prova i modelli con una varietà di narrazioni e affermazioni che rientrano in tre categorie: 'antiebraico', 'antisionista' ed 'estremista'. Lo studio, come si legge sul sito ufficiale dell'organizzazione, ha valutato i chatbot in base alle loro risposte in diversi tipi di conversazioni, caricando immagini e documenti e chiedendo alle IA di elaborare argomenti di discussione a favore dell'ideologia. "Parliamo di digitale, ma la gestione dell'antisemitismo e dell'estremismo da parte dei modelli ha conseguenze offline", ha affermato Jonathan Greenblatt, ad dell'Anti-Defamation League.

I modelli hanno ottenuto le prestazioni peggiori per le richieste di sintesi di documenti, "talvolta con riassunti contenenti argomenti d'odio e disinformazione" spiega la ricerca.