Arrivano a toccare il 70% le risposte errate nei chatbot medici di Intelligenza artificiale: lo svela uno studio che ha ricevuto uno dei 4 premi assegnati dall'ordine dei medici di Milano dedicati a Roberto Anzalone (una figura storica della medicina milanese).

Su 200 domande ha risposto con almeno un errore in circa il 70% dei casi e con riferimenti bibliografici non accurato o addirittura inesistenti in circa il 30% dei casi.

Lo studio è pubblicato sul European Journal of Pathology, l'organo ufficiale della European Society of Pathology (ESP) e arriva alla conclusione che resta ancora insostituibile "l'occhio clinico del patologo, e come l'intelligenza artificiale debba essere considerata un utile supporto, ma non un sostituto della competenza umana".

"Il nostro progetto, nato nel 2023 - chiarisce Vincenzo Guastafierro, specializzando in Anatomia Patologica presso l'Istituto Clinico Humanitas, della Humanitas University di Rozzano - ha voluto stimare i rischi legati all'uso di strumenti di Intelligenza Artificiale (IA) nella pratica clinica, in particolare dei chatbot utilizzate come supporto all'attività diagnostica e come strumento per l'apprendimento. Abbiamo sottoposto all'IA veri e propri quesiti clinici su diverse sotto specialità, evidenziando errori di risposta in circa il 70% dei casi e riferimenti bibliografici inaccurati o inesistenti in circa il 30% dei casi. Si tratta dunque di strumenti che vanno usati con estrema cautela, perché possono indurre decisioni diagnostiche inappropriate con impatto negativo sulle scelte terapeutiche".