Stai utilizzando Internet Eplorer: è un browser molto vecchio, non sicuro, e non più supportato neanche da Microsoft stessa, che l'ha creato.

Per favore utilizza un browser moderno come Edge, Firefox, Chrome o uno qualunque degli altri a disposizione gratuitamente.

Immagini e video sempre più realistici, spesso indistinguibili dal vero, invadono social e media tradizionali: non è l’era delle fake news, ma quella della sfiducia totale nell’evidenza visiva, con effetti diretti sulla credibilità dell’informazione

Un poliziotto della NYDP che arresta un agente dell’ICE, un agente dell’FBI afroamericano che agita il tesserino sempre davanti a un agente dell’ICE urlando: “Sono dell’FBI, non puoi arrestarmi, fottiti!”. Cito due tra le migliaia di video che negli ultimi giorni fanno il giro del web e sono generati dall’AI (da qualcuno che li ha fatti con l’AI, l’AI da sola non fa niente). Senza contare le scene dalle zone di guerra, metà vere metà no, con la differenza che… non c’è nessuna differenza nel percepirle, e a seconda dell’idea politica dell’uno o dell’altro vengono diffuse per accreditare le proprie tesi, o semplicemente per farle girare.

Uno studio uscito da poco di Emilio Ferrara per l’University of Southern California (in particolare presso l’Information Science Institute della USC) analizza una questione meno appariscente dei deepfake ma più interessante: la progressiva perdita di valore dell’evidenza digitale. Non perché le immagini siano sempre false, osserva Ferrara, piuttosto perché potrebbero esserlo sempre. D’altra parte quando il contenuto sintetico diventa onnipresente, la reazione razionale non è credere a tutto, il nostro cervello smette di considerare ciò che vediamo come una prova affidabile.