Dopo aver annunciato la funzionalità lo scorso anno, YouTube sta iniziando a rendere disponibile ai membri del programma partner un nuovo strumento per riconoscere i video generati dall'intelligenza artificiale, i 'deepfake', non autorizzati.
L'azienda parte del gruppo Alphabet, la casa madre di Google, lo definisce "likeness detection", ossia rilevazione delle somiglianze, un modo per segnalare i casi in cui il volto di un individuo è stato utilizzato o modificato dall'intelligenza artificiale, senza il suo consenso, per realizzare un nuovo video.
"Qualcuno ha creato un video in cui sembra che tu stia sostenendo un candidato politico", spiega l'azienda, "oppure uno spot pubblicitario che promuove un prodotto di cui non sai nulla. A questo punto, puoi usare lo strumento per segnalare potenziali corrispondenze".
L'annuncio arriva a qualche giorno dall'ennesima critica mossa al modello Sora 2 di OpenAI, sfruttato dagli utenti negli Stati Uniti e in Canada, per generare filmati con personaggi famosi defunti, come Robin Williams e Martin Luther King. Le famiglie di entrambi hanno ufficialmente chiesto alla startup americana di integrare nuove misure di sicurezza nel suo software per evitare simili risultati.







