Parlare della discriminazione di genere nell’intelligenza artificiale significa affrontare una questione che va ben oltre la tecnologia: riguarda il modo in cui la società si riflette nei sistemi che crea.
L’illusione della neutralità
L’idea che l’IA sia “neutrale” è una illusione pericolosa. Gli algoritmi non nascono dal nulla: sono progettati da persone, e vengono addestrati su dati che provengono dal mondo reale. Se quei dati sono pieni di pregiudizi storici, stereotipi di genere e squilibri sociali, l’IA li assorbe e li riproduce. Non lo fa con intenzione, ma lo fa comunque. E questo può avere conseguenze molto serie, soprattutto per le donne.
Il problema alla radice
Uno dei nodi centrali è che le donne sono ancora sottorappresentate nei settori tecnologici. In Italia, solo il 16,8% delle laureate proviene da ambiti STEM (scienza, tecnologia, ingegneria, matematica). Questo significa che la maggior parte degli algoritmi viene progettata da uomini, spesso senza una reale attenzione alle prospettive femminili. Il risultato? Sistemi che non vedono le donne, o le vedono attraverso lenti distorte.
Discriminazione sottile e sistemica
La discriminazione algoritmica non è sempre evidente. A volte è subdola, si nasconde nei meccanismi di selezione del personale, nei sistemi di raccomandazione, nei motori di ricerca. Le donne possono essere escluse da opportunità, associate a ruoli stereotipati, valutate in modo meno favorevole. E tutto questo accade senza che nessuno lo decida esplicitamente: è il frutto di un sistema che replica modelli ingiusti.

Una questione di giustizia
Come ha sottolineato il vicepresidente del Garante per la protezione dei dati personali, l’algoritmo non è neutro. È uno strumento potente, che può essere usato per il bene o per il male. Se non viene progettato con attenzione, può diventare uno strumento di esclusione, che rafforza le disuguaglianze invece di combatterle.
Verso un’IA più equa
La buona notizia è che si può fare molto per cambiare rotta. Serve:
- Più diversità nei team di sviluppo
- Controllo dei dati di addestramento
- Normative chiare e rigorose
- Educazione digitale e consapevolezza sociale
Conclusioni
L’Unione Europea, con l’AI Act, sta cercando di affrontare questi problemi, ma la strada è lunga. Serve un impegno collettivo, che coinvolga istituzioni, aziende, ricercatori e cittadini.
