Negli ultimi anni il mondo dell’editoria ha avuto una reazione ambivalente allo sfruttamento dei contenuti giornalistici nei software di intelligenza artificiale generativa, una reazione sfociata o in cause legali o in accordi economici. Una delle preoccupazioni maggiori è legata alle cosiddette “allucinazioni” dei software di questo tipo: sono situazioni in cui il software inserisce informazioni false nella sua risposta all’utente, talvolta anche attribuendole a una fonte come un giornale, la cui reputazione è quindi compromessa. Il software infatti funziona grazie a un modello statistico che cerca di indovinare quali siano le parole che ha senso utilizzare in un dato contesto: questo a volte crea risposte corrette secondo le regole linguistiche, ma senza nessuna aderenza alla realtà.

La convinzione che per evitare il mal di schiena serva stare il più dritti possibile, come ci sentiamo dire fin da piccoli, è probabilmente sbagliata

Il colosso potrà addestrare Alexa sugli articoli del quotidiano (ANSA)