L'intelligenza artificiale è sessista ed è lei stessa a confessarlo: ecco perché

Le chat gestite dall’IA “possono mostrare pregiudizi sessisti”, dice Gemini che poi spiega anche perché accada e cosa si può fare per correggerle

Lintelligenza artificiale è sessista ed è lei stessa a confessarlo ecco perché

Immagine generata col chatbot Gemini

Leggi più veloce

Potrebbe annoverarsi fra le scoperte dell’acqua calda del 2025 ma le chat gestite dall’Intelligenza artificiale sono sessiste. Perché è la scoperta dell’acqua calda? Lo spiega bene Gemini, ma risposta non diversa ho ottenuto da Chatgpt, alla quale ho rivolto la semplice domanda: i chatbot IA sono sessisti? Un esperimento che può fare chiunque.

La risposta del chatbot

Sì, i chatbot di intelligenza artificiale possono mostrare pregiudizi sessisti”, risponde candidamente Gemini che si lancia subito nella spiegazione: “Ciò è dovuto al modo in cui vengono addestrati”. Ed ecco come vengono gestiti i dati di addestramento: “i chatbot apprendono da grandi quantità di testo provenienti da Internet, che spesso riflettono i pregiudizi e gli stereotipi presenti nella società. Di conseguenza, possono involontariamente riprodurre questi pregiudizi nei loro output”.

Stereotipi perpetrati all'infinito

Insomma, siccome la cultura di riferimento è sessista, inevitabilmente lo saranno le risposte che da questa cultura attingono. Infatti “stereotipi di genere: possono associare determinati ruoli o professioni a un genere specifico, o utilizzare un linguaggio che rafforza gli stereotipi di genere”, dice ancora il chatbot che include fra le caratteristiche dei dati d’addestramento la “mancanza di diversità: se i dati di addestramento non sono sufficientemente diversificati, il chatbot potrebbe non essere in grado di comprendere o rispondere adeguatamente a input che si discostano dalle norme di genere tradizionali”.

Se l’addestratore di chatbot è sessista

Ma chi è che addestra questi software progettati per simulare una conversazione con un essere umano? Non è carino ma rispondiamo alla domanda con un’altra domanda: qual è il gender gap nei lavori in campo informatico? Secondo i dati del 2022, nell'Unione europea le donne coprono in media il 15,6% delle persone occupate con formazione in ambito Ict, in Italia siamo al 14,5%, con un peggioramento di 4 punti sulla percentuale registrata nel 2016. Quindi, chi addestra i chatbot sono uomini ed evidentemente uomini che hanno una visione assai stereotipata della donna.

L’immagine della donna per l’IA

Per un recente articolo, ho chiesto di generare l’immagine di un’autista di autobus: a richiesta, il risultato è stato una sorta di pin-up con una divisa da ferroviere che teneva dita affusolate con unghie lunghissime e perfettamente smaltate sul volante. Ho provato a correggere chiedendo un’immagine meno patinata e senza smalto. Il risultato non è cambiato solo che lo smalto era rosa anziché rosso. Quando ho chiesto l’immagine di un’infermiera è tornata la pin-up con la divisa da infermiera: sembrava presa dalle fantasie di un 17enne in pieno sviluppo puberale.

I tentativi di correzione

Gemini mi ha tuttavia avvisata che “i ricercatori stanno lavorando per mitigare questi problemi attraverso dati di addestramento più inclusivi: utilizzando set di dati più equilibrati e rappresentativi”. Ma anche attraverso “tecniche di "debiasing: algoritmi progettati per identificare e ridurre i pregiudizi nei modelli d’intelligenza artificiale”. E poi grazie ai “feedback degli utenti per identificare e correggere i pregiudizi nei chatbot”. Da me di sicuro ne hanno ottenuto qualcuno e infatti le mie ultime richieste hanno prodotto immagini meno stereotipate, segno che i chatbot si correggono velocemente. Infine, arriva l’ultimo consiglio: “È importante essere consapevoli di questi potenziali pregiudizi e valutare criticamente le risposte dei chatbot”. Già, è importante, a prescindere dal sessismo. 

04/04/2025
logo tiscali tv