Attenzione, l’Intelligenza Artificiale può commettere errori. Quindi, è meglio verificare sempre le informazioni ottenute. La conferma arriva da uno studio diretto da Pranav Narayanan Venkit di Salesforce AI Research di Palo Alto e pubblicato su “ArXiv”, la piattaforma gestita dalla Cornell University su cui i ricercatori di tutto il mondo pubblicano i loro articoli prima che vengano ufficialmente revisionati e accettati da una rivista scientifica.

Lo studio mette in luce i rischi dell’uso di strumenti di IA generativa, di agenti di ricerca approfondita e dei motori di ricerca da essi supportati, perché spesso fanno affermazioni di parte e non supportate dalle fonti, che peraltro non sempre citano. In particolare, l'analisi ha rilevato che circa un terzo delle risposte fornite da questi strumenti di Intelligenza Artificiale non è supportato da fonti affidabili. Per ChatGPT 4.5 di OpenAI, la percentuale è risultata ancora più alta e arriva al 47%.

I modelli linguistici di grandi dimensioni sono diventati parte della vita quotidiana, offrendo un’assistenza basata a centinaia di milioni di utenti con funzionalità di reperimento delle informazioni e generazione di testi sulla base di richieste specifiche. Così - spiegano gli esperti del centro di ricerca californiano – questi strumenti si sono evoluti da sistemi basati sulla ricerca a strumenti pubblici, con un impatto sia tecnologico sia sociale. E ora si stanno ulteriormente evolvendo per divenire “motori di ricerca generativi” in grado di sintetizzare le informazioni reperite da fonti eterogenee. Questi sistemi sono progettati per condurre autonomamente ricerche approfondite su argomenti complessi, esplorando il web, sintetizzando le informazioni e generando report completi con citazioni.