L'intelligenza artificiale generativa è ormai in grado di simulare perfettamente le risposte degli esseri umani: un'abilità che rischia di 'inquinare' i risultati dei sondaggi online usati dalla ricerca sociale ma anche dalla politica.
A mettere in guardia sono i ricercatori Folco Panizza della Scuola Imt di Lucca, Yara Kyrychenko e Jon Roozenbeek, che su Nature indagano il fenomeno proponendo contromisure.
"Gli studi analizzati nel commento dal titolo 'Gli strumenti di intelligenza artificiale per la compilazione di sondaggi superano le capacità umane' - spiega una nota dell'Imt - suggeriscono che oggi tra il 30 e il 90% delle risposte ai sondaggi online può essere falso o fraudolento. E un 3-7 % di risposte fraudolente è sufficiente a invalidare le conclusioni statistiche di un sondaggio. Ad aggravare la situazione sono arrivati i sistemi di risposta basati sull'IA, che oggi sono in grado di generare risposte fluide, coerenti e sensibili al contesto, spesso superando le capacità di scrittura degli esseri umani". "Il punto è - osserva Panizza - che gli strumenti di riconoscimento dell'intelligenza artificiale utilizzati finora per distinguere gli esseri umani dai bot non sono più efficaci.






