L’intelligenza artificiale, sebbene concepita come tecnologia neutra, rischia di perpetuare stereotipi di genere a causa dei pregiudizi nei dati e nelle pratiche di sviluppo. In questo articolo esploriamo i progressi fatti e le sfide aperte per costruire un’AI più equa e inclusiva.
Nel 2023, in un nostro articolo del blog, abbiamo affrontato il tema del rapporto tra intelligenza artificiale e stereotipi di genere, evidenziando come i bias cognitivi e sociali possano riflettersi in tecnologie che dovrebbero essere neutre per definizione. A partire dalle considerazioni della sociologa dei media Marinella Belluati, emergeva chiaramente un interrogativo: quanto le intelligenze artificiali rispecchiano (e amplificano) i pregiudizi della società che le ha create? Quel dialogo ha sollevato domande cruciali su come l’AI possa contribuire a rafforzare ideali distopici e su quali strategie siano necessarie per correggere tali dinamiche. Oggi torniamo a riflettere sul tema, cercando di capire se e come la comunità tecnologica abbia mosso passi significativi verso soluzioni più etiche e inclusive. Quali progressi sono stati fatti? Quali sfide restano aperte? E soprattutto, come possiamo assicurarci che il futuro dell’intelligenza artificiale sia realmente equo e rispettoso delle diversità?
Come sappiamo, l’intelligenza artificiale apprende dai dati che le vengono forniti, attingendo in gran parte a contenuti disponibili online. Tuttavia, poiché questi dati spesso rispecchiano stereotipi di genere profondamente radicati nella società, l’AI rischia di assimilarli e perpetuarli, contribuendo involontariamente al loro consolidamento. Un esempio evidente è rappresentato dai modelli linguistici di grandi dimensioni (LLM), che talvolta generano contenuti connotati da pregiudizi, riflettendo i bias insiti nei dataset utilizzati per il loro addestramento. Questo problema è amplificato dalla significativa sottorappresentazione di donne nello sviluppo dell’AI.
A tal proposito, nel libro “Donne controcorrente in AI e innovazione” (pubblicato nella collana “Donne controcorrente” il 12 novembre 2024), il giornalista Claudio Barnini e la docente Elita Carmela Schillaci pongono in evidenza dati preoccupanti: solo il 43% delle donne italiane possiede competenze digitali di base, rispetto a una media europea del 52%. Ancora più allarmante è la presenza femminile nei ruoli decisionali in ambito AI, ferma al 10%, sia nella ricerca che nell’industria.
Questo squilibrio nella composizione dei team di sviluppo non è solo una questione di rappresentanza, ma influisce direttamente sul modo in cui l’AI viene progettata e utilizzata. L’assenza di una prospettiva diversificata limita la capacità dell’intelligenza artificiale di comprendere e rispecchiare la complessità della società, perpetuando una visione parziale e spesso discriminatoria. Di questo passo, il contributo delle donne alla rivoluzione tecnologica rischia di rimanere sottosviluppato, ostacolando la costruzione di soluzioni più inclusive e giuste per il futuro.
I rischi derivanti dagli stereotipi di genere nell’intelligenza artificiale sono reali e possono avere conseguenze significative in diversi ambiti. Nel lungo periodo, questi bias possono contribuire a rafforzare le disuguaglianze sociali ed economiche. Per esempio, nel settore del lavoro, gli algoritmi di selezione automatica dei candidati potrebbero riflettere pregiudizi impliciti nei dati con cui sono addestrati, privilegiando i candidati di sesso maschile per determinate posizioni, come quelle tecnologiche. Inoltre, le aziende che utilizzano AI con bias non corretti si espongono a rischi reputazionali e legali. Per evitare questi scenari, è fondamentale adottare un approccio consapevole e proattivo. Le aziende e i team di sviluppo devono affrontare i bias alla radice, rivedendo i dataset, garantendo una maggiore diversità nei team di sviluppo e promuovendo una progettazione inclusiva. Solo in questo modo l’AI potrà essere uno strumento positivo e rappresentativo per tutta la società.
L’intelligenza artificiale può tanto contribuire al progresso quanto perpetuare vecchi problemi. Gli stereotipi di genere ne sono un esempio emblematico: radicati nei dati utilizzati per l’addestramento, finiscono per influenzare i risultati e le applicazioni dei sistemi AI. Ma non tutto è immutabile. Con le giuste strategie, possiamo guidare l’evoluzione (o meglio, la rivoluzione) di queste tecnologie verso orizzonti più equi e inclusivi. Agire su vari fronti, dalla rappresentatività nei team di sviluppo alla qualità dei dataset, è essenziale per contrastare la diffusione di pregiudizi e costruire una tecnologia che rifletta davvero la diversità e la complessità della società.
Ecco alcune azioni concrete da intraprendere per invertire la tendenza e rendere l’AI un vero strumento di inclusione sociale.
La diversità nei team che progettano e addestrano l’AI è fondamentale. Garantire una maggiore presenza di donne e altri gruppi sottorappresentati nei settori STEM contribuisce a sviluppare tecnologie più inclusive e consapevoli.
È necessario curare i dataset, eliminando contenuti sessisti e pregiudizi, e introdurre dati che rappresentino la diversità in modo equilibrato. Questo processo richiede non solo filtri tecnici, ma anche una supervisione umana più consapevole.
Rendere trasparente il funzionamento degli algoritmi e i criteri con cui vengono addestrati è essenziale. Ciò permette di individuare potenziali bias e agire tempestivamente per correggerli.
I governi e le organizzazioni internazionali possono definire linee guida etiche e normative che regolamentino l’uso dei dati per l’addestramento delle AI, prevenendo la diffusione di contenuti discriminatori.
Sensibilizzare gli utenti finali e i professionisti del settore sull’importanza di riconoscere e combattere gli stereotipi di genere nell’IA può contribuire a un cambiamento culturale, riducendo il rischio di accettare passivamente contenuti pregiudizievoli.
Invertire la tendenza che lega l’intelligenza artificiale agli stereotipi di genere non è un obiettivo immediato, ma è certamente raggiungibile attraverso uno sforzo collettivo. Sviluppatori, aziende, istituzioni e società civile devono unire le forze per costruire un’AI che non si limiti a riflettere il mondo reale, ma che diventi uno strumento per promuovere equità e inclusione. Per favorire questa trasformazione culturale, non bastano azioni tecniche; è fondamentale agire anche sull’educazione e sulla sensibilizzazione delle nuove generazioni.
A tal proposito, Synesthesia, da sempre impegnata nella costruzione di un futuro digitale più inclusivo, dal 2019 ha intrapreso un’iniziativa concreta per contribuire a questo cambiamento: il progetto GirlsTech, lanciato come una giornata di workshop gratuiti dedicati alle discipline STEM, pensata per avvicinare le giovani donne alla tecnologia e ridurre il divario di genere nel settore. Questo evento è stato accompagnato da una conferenza aziendale focalizzata sull’importanza di un maggiore equilibrio di genere nella tecnologia, sensibilizzando le organizzazioni sull’urgenza di una rappresentanza più equa.Con il tempo, l’iniziativa è cresciuta, evolvendosi in una serie di eventi formativi no-profit gestiti dalla Fondazione SYX ETS. Oggi, GirlsTech si concentra su un’offerta continua e gratuita di formazione digitale, incoraggiando le giovani donne ad appassionarsi alle materie STEM fin dall’età scolare. Grazie al supporto di importanti marchi internazionali e alla collaborazione con esperti del settore, il progetto non solo offre competenze tecniche, ma sfida attivamente gli stereotipi di genere, dimostrando che la tecnologia rappresenta un’opportunità aperta a tutti, dove il rispetto delle diversità e l’equità sono alla base di ogni innovazione.
Lo realizzeremo con amore e passione. Il nostro team è a tua disposizione.