Anche l'Intelligenza Artificiale soffre di insicurezza: quando si mette in discussione una loro affermazione, i modelli linguistici di grandi dimensioni (Llm) come Gpt4 tendono ad andare in difficoltà e danno risposte meno affidabili.
Lo indica lo studio realizzato dai ricercatori di Google DeepMind e dell'University College di Londra e postato su arXiv, la piattaforma che ospita studi non ancora revisionati dalla comunità scientifica.
Gli Llm sono sistemi di Intelligenza Artificiale con grandi capacità comunicative, ma il loro linguaggio nasce essenzialmente da analisi statistiche relative alla successione corretta delle parole. Poiché vengono utilizzati sempre più diffusamente in tanti settori, dalla finanza alla sanità, è fondamentale che gli Llm abbiano un alto livello di accuratezza e affidabilità. Tuttavia lo studio indica che, in alcuni casi, la loro sicurezza può vacillare.
In particolare, i grandi modelli linguistici perdono sicurezza quando il loro interlocutore risponde a un'affermazione usando contro-argomenti sbagliati, e viceversa acquisiscono fin troppa sicurezza quando trovano conforto. Questa caratteristica è emersa soprattutto con modelli come Gemma 3, GPT4o e o1-preview.






