Pregiudizi di genere nell'intelligenza artificiale, deepfake a sfondo sessuale diventati un caso con Grok.
Gli spazi online perpetuano gli stereotipi di coloro che li creano e dai dati inseriti, al momento prevalentemente uomini. Secondo stime rilanciate dal World Economic Forum le donne costituiscono meno di un terzo della forza lavoro IA in tutto il mondo. Un fenomeno globale che sta portando alla costruzione di alternative tecnologiche come la Rete Femminista di IA dell'America Latina e dei Caraibi.
La letteratuta tecnologica è piena di esempi di pregiudizi di genere. I sistemi di riconoscimento delle immagini hanno faticato a identificare accuratamente le donne, in particolare di colore, portando a identificazioni errate con gravi conseguenze per le forze dell'ordine. Gli assistenti vocali hanno a lungo utilizzato solo voci femminili rafforzando lo sterotipo secondo cui le donne sono adatte a ruoli di servizio. Nella generazione di immagini, le IA spesso associano il termini 'Ceo' a un uomo mentre se si cerca 'assistente", restituisce immagini femminili.
"L'Intelligenza artificiale si nutre di dati che non sono neutrali: riflettono società segnate da disuguaglianze storiche e rapporti di potere - spiega all'ANSA Ivana Bartoletti, esperta internazionale di governance dell'Intelligenza artificiale e autrice di uno studio del consiglio di Europa su IA e Gender - Se un'azienda vuole risultati equi deve interrogare i dataset, verificarne la rappresentatività e intervenire attivamente quando non lo sono. L'equità non emerge da sola: va progettata".






