Giorni difficili per Grok. Il sistema di intelligenza artificiale creato da xAI, società di Elon Musk, e accessibile direttamente su X, si è trovato al centro di una bufera mediatica per aver generato alcune risposte dal contenuto inquietante. Tra il 14 e il 18 maggio 2025, l’assistente virtuale avrebbe generato alcune risposte controverse, parlando senza apparente motivo del cosiddetto “genocidio bianco” in Sudafrica e mettendo in dubbio il numero delle vittime dell’Olocausto. Il caso, documentato da varie testate internazionali, ha costretto xAI a intervenire pubblicamente, attribuendo l'accaduto a una manomissione non autorizzata del sistema.

Tutto è iniziato quando il giornalista Aric Toler ha pubblicato proprio su X diversi screenshot in cui si vedeva chiaramente come Grok inserisse, anche in contesti del tutto estranei, riferimenti a una presunta persecuzione sistematica dei bianchi sudafricani. Questa narrazione, diffusa negli ambienti dell'estrema destra, sostiene falsamente che dalla fine dell'apartheid la minoranza bianca sudafricana sia vittima di una vera e propria campagna di sterminio. La questione ha suscitato particolare eco mediatica anche perché si tratterebbe di una teoria che lo stesso Musk avrebbe sostenuto in passato.