No, «Doctor Ai» non è ancora pronto. Lo conferma uno studio dell’Università di Oxford, pubblicato su arXiv (e non ancora sottoposto a revisione paritaria), mettendo in luce un paradosso peraltro già evidenziato in un articolo pubblicato il 2 gennaio scorso su Nature Medicine: i modelli LLM (Large Language Model), che ottengono punteggi eccellenti nei test medici, non riescono a supportare efficacemente persone comuni in situazioni realistiche. In uno studio controllato su 1.298 volontari, l’aiuto si traduceva anzi in errori o sottovalutazioni.
Intelligenza artificiale in medicina: l'AI è capace di fare una diagnosi (anche meglio degli umani), ma non sa ancora farsi capire
Uno studio dell’Università di Oxford, pubblicato su arXiv conferma un paradosso già noto: i modelli LLM (Large Language Model), che ottengono punteggi eccellenti nei test medici, non riescono a supportare efficacemente persone comuni in situazioni realistiche. Un problema di «comunicazione»








