Servirà per trovare casi in cui il volto di una persona è stato modificato con l’intelligenza artificiale senza consenso. I video saranno poi rimossi

Sam Altman, CEO di OpenAI

Milano – Dopo aver annunciato la funzionalità lo scorso anno, YouTube sta iniziando a rendere disponibile agli utenti partner (youtuber e aziende, da quel che si capisce) un nuovo strumento per riconoscere i cosiddetti deepfake, i video generati dall'intelligenza artificiale e non autorizzati. Cioè che violano l’identità di qualcuno.

L'azienda lo definisce “likeness detection”, cioè rilevazione delle somiglianze, e lo descrive come un modo per segnalare i casi in cui il volto di un individuo è stato utilizzato o modificato dall'intelligenza artificiale, senza il suo consenso, per realizzare un nuovo video: “Qualcuno ha creato un video in cui sembra che tu stia sostenendo un candidato politico – hanno spiegato da YouTube – Oppure uno spot pubblicitario in cui promuovi un prodotto di cui non sai nulla. A questo punto, puoi usare lo strumento per segnalare potenziali corrispondenze”.

L'annuncio arriva a qualche giorno dall'ennesima critica mossa al modello Sora 2 di OpenAI (l’azienda che sta dietro a ChatGPT), sfruttato negli Stati Uniti e in Canada per generare filmati con personaggi famosi defunti, come Robin Williams e Martin Luther King: le famiglie di entrambi hanno ufficialmente chiesto alla compagnia americana di integrare nuove misure di sicurezza nel suo software per evitare simili risultati.