I chatbot generati dall’intelligenza artificiale sulle piattaforme di Meta - dunque Facebook, Instagram e Whatsapp – hanno il permesso di «coinvolgere i bambini in conversazioni romantiche o a sfondo sessuale», generare false informazioni sanitarie, sostenere le argomentazioni razziste degli utenti sul fatto che i neri siano «più stupidi rispetto ai bianchi». È quanto si legge, fra le oltre duecento pagine, nel documento GenAi: content risks standard, in sostanza la «bibbia» interna dell’azienda su cosa è permesso e cosa non agli assistenti Ai che da mesi hanno iniziato a popolare le tre piattaforme di comunicazione. Il documento, la cui autenticità è stata confermata da Meta stessa, era finito nelle mani di Reuters, agenzia di stampa, un paio di giorni fa. Da lì si è scatenato, comprensibilmente, il finimondo. Che è sfociato nella richiesta di indagini negli Stati Uniti da parte di alcuni senatori repubblicani: da stabilire se, effettivamente, «i prodotti di intelligenza artificiale generativa di Meta consentano lo sfruttamento, l’inganno o altri danni criminali ai bambini e se Meta abbia tratto in inganno il pubblico o gli enti regolatori in merito alle sue garanzie».
I chatbot «possono coinvolgere i bambini in conversazioni a sfondo sessuale»: è bufera sul documento di Meta
Le linee guida interne sull'utilizzo dell'intelligenza artificiale in Facebook, Instagram e WhatsApp sono finite nella mani di Reuters. Alcuni senatori americani chiedono un'indagine mentre l'azienda ammette: «Applicazione incoerente con le nostre politiche». Il caso del pensionato "sedotto" dall'Ai











