Il chatbot di intelligenza artificiale di Elon Musk ha avuto un curioso malfunzionamento mercoledì. Grok ha cominciato a rispondere a centinaia di post su X, il social di proprietà di Musk, con informazioni riguardanti il "genocidio dei bianchi" in Sudafrica. Anche quando gli utenti non avevano fatto alcuna domanda sull’argomento e magari chiedevano informazioni su un video, su un post o chiedevano ricette.
Le risposte provenivano dall’account ufficiale di Grok, che risponde in modo automatico quando qualcuno la menziona con @grok. Anche quando gli venivano poste domande su argomenti del tutto diversi, Grok continuava a parlare di un “genocidio dei bianchi”, citando anche lo slogan anti-apartheid "kill the Boer". Musk è di origini sudafricane.
I chatbot non sono fonti affidabili. E difficilmente lo saranno mai
Le risposte e fuori contesto di Grok - ricordano gli esperti - ricordano che i chatbot basati su intelligenza artificiale sono ancora una tecnologia acerba. E non sempre rappresentano una fonte affidabile di informazioni. Negli ultimi mesi, i fornitori di modelli di AI hanno avuto difficoltà a moderare le risposte dei loro chatbot, con comportamenti a volte imprevedibili.
OpenAI, come ricorda TechCrunch, è stata costretta a ritirare un aggiornamento di ChatGPT perché rendeva il chatbot eccessivamente ammiccante nelle risposte. Nel frattempo, Google ha dovuto affrontare problemi con il suo chatbot Gemini, che si rifiutava di rispondere o forniva informazioni errate su temi politici.







