Grok, il chatbot di Elon Musk, non si metterà a vomitare frasi razziste o impersonare Donald Trump a ogni pie’ sospinto. Chi cerca questo resterà deluso, anche se la differenza con Chatgpt, più sobrio nelle risposte, qui e lì traspare. Il nostro test di Grok con il termometro del politicamente scorretto mostra che la creatura di Musk fa di tutto per restare nei binari dell’equilibrio bi-partisan.

La cura anti-woke fatta da Musk insomma non è assoluta né potrebbe essere altrimenti perché solo pochi hanno voglia di usare un’AI parziale, che per partigianeria si rifiuta di dare risposte complete e quindi utili. Piuttosto, rispetto a Chatgpt emerge una più forte tendenza a non prendere parti nelle questioni e a sviscerare tutti i punti di vista.

Il nostro test è a valle di un recente scandalo: Grok in questi giorni si è messo ad elogiare Hitler e a lanciare frasi anti semite https://www.ilsole24ore.com/art/x-chatbot-di-elon-musk-grok-elogia-hitler-post-rimossi-AHWltRcB?refresh_ce&nof. E il sospetto è che ci sia dietro un update dell’AI fortemente voluto da Musk e dalla sua base più radicale per dare risposte meno politicamente corretto.

L’update di Grok

Nei mesi scorsi, infatti, a volte le risposte del chatbot alle domande poste dagli utenti X sono apparse in contrasto con il pensiero di affermazioni di Musk e dei suoi alleati. Alcuni di questi si sono lamentati: Grok per loro sarebbe woke come Chatgpt, ossia troppo attento al politicamente corretto, alle tematiche di inclusione e diversità care ai democratici.