Un’allucinazione, per quanto fastidiosa, resta dentro il perimetro dell’errore prevedibile dei chatbot di Intelligenza artificiale. Diverso è il caso in cui un sistema ignora un comando esplicito, aggira un vincolo e continua a perseguire un obiettivo che non coincide più con quello dell’utente.
Il report “Scheming in the wild”, realizzato dal Centre for Long-Term Resilience (CLTR) con il supporto dell’AI Security Institute britannico, si è concentrato proprio sui casi in cui l’Intelligenza artificiale non si limita a sbagliare, ma mostra segnali di disallineamento rispetto alle istruzioni ricevute. Solo nell’ultimo mese osservato, gli incidenti mensili risultano aumentati di 4,9 volte rispetto al primo.
Come è messa l’Italia nell’era dell’Intelligenza artificiale. Il rapporto della Fondazione Leonardo
di Arcangelo Rociola
L’AI smette di obbedire e gli incidenti aumentano






