Negli Stati Uniti, gli utenti che utilizzano il chatbot di intelligenza artificiale di Meta — lanciato su piattaforme come Facebook, Instagram e nella nuova app autonoma Meta AI e a quanto il gruppo dichiara utilizzato da oltre un miliardo di utenti — potrebbero vedere le loro interazioni finire in una vetrina pubblica.
Questo perché molte delle richieste inviate all’assistente, davvero di ogni genere e tenore, vengono rese disponibili nella sezione “Discover”, dove chiunque può leggerle, senza che chi le ha scritte venga informato chiaramente o abbia la possibilità di impedirlo.
In concreto significa che domande anche sensibili o strettamente personali possono uscire dalla sfera privata della conversazione con l’IA (ma possiamo ancora definirla “sfera privata” se la raccontiamo a un’IA?) e comparire come esempi di interazione visibili a tutti, alimentando un archivio condiviso delle conversazioni con l’AI.
Il risultato? Una potenziale esposizione involontaria di dettagli intimi, dati riservati o richieste che, specialmente se decontestualizzate, possono apparire inappropriate o imbarazzanti.
Privacy a rischio: nessun avviso chiaro






