Grok, il chatbot basato su intelligenza artificiale sviluppato da xAI, una delle aziende fondate da Elon Musk, è finito al centro delle polemiche per aver introdotto in modo del tutto inappropriato riferimenti al cosiddetto “genocidio bianco” in Sudafrica.

Le menzioni sono apparse in risposte pubblicate sul social X (ex Twitter), anche in discussioni che non avevano alcuna connessione con il tema.

Una manipolazione interna

Secondo xAI, il comportamento anomalo del chatbot è stato causato da una “modifica non autorizzata” del prompt di sistema, ovvero l’insieme di istruzioni che regola le risposte dell’intelligenza artificiale.

Questo intervento avrebbe compromesso il corretto funzionamento del modello, facendogli reiterare una narrazione controversa e infondata.