"Non esiste una soluzione finale al problema, ci possono essere piccole accortezze come ridurre il più possibile la propria esposizione e configurare bene i profili social per limitare chi può guardare i nostri contenuti.
Ma dobbiamo capire che quello che consideravamo reale un tempo ora non lo è più e dobbiamo educare le nuove generazioni a farsi più domande". E' il parere all'ANSA di Marco Ramilli, fondatore di IdentifAI, la società italiana che processa immagini e video e riconosce i prodotti contraffatti dall'intelligenza artificiale generativa, dopo l'ennesimo sito sessista scoperto in rete con foto porno modificate usando l'IA, su cui sono in corso anche accertamenti della Polizia Postale.
Un fenomeno sempre più diffuso, che sta diventando un'emergenza preoccupante anche per le nuove generazioni. "Il 22,6% delle persone ha riferito di aver subito un'esperienza di creazione, acquisizione o condivisione non consensuale di immagini intime comprese le minacce di condivisione", osserva Ramili citando un'analisi pubblicata a marzo scorso da tre ricercatori (Rebecca Umbach di Google, Nicola Henry e Gemma Beard dell'Università di Melbourne in Australia).
E aggiunge: "In Italia non ci sono stime ufficiali ma indicatori rilevanti parlano di un 70% di uomini e un 30% di donne che hanno subito violenza con condivisione di immagini non consensuali. E' preoccupante perchè questo fenomeno riguarda anche gli adolescenti, ed è collegato un tema di bullismo e vergogna".








