Superare il gender bias per un futuro più equo
Se l’Intelligenza Artificiale (AI) è uno dei grandi temi del secolo, sempre più lo stanno diventando, anche grazie ai femminismi di più nuova generazione che stanno presentando all’opinione pubblica istanze puntuali rispetto alle sfide dell’attualità, le questioni di genere e in particolare quelle legate al gender bias. Logica conseguenza di questo connubio è che analizzare le interazioni tra le due sfere si sta rivelando ogni giorno di più un’urgenza, con la consapevolezza – anche solo, banalmente, per un discorso di profitto – che progettare prodotti e servizi tenendo conto della diversità e dell’inclusione è un tema di business.
Ad addentrarsi nel problema, con un focus specifico sul potenziale gender bias nell’AI e sui rischi che esso comporta sia nei risultati sia nell’organizzazione aziendale, è stata Roberta Palazzetti, Amministratore Delegato e Direttore dell’area Sud Europa di British American Tobacco Italia, nel corso dell’evento satellite della 20esima conferenza dell’Associazione italiana per l’Intelligenza Artificiale che si è svolto a luglio 2021 in collaborazione con la casa editrice ESTE (editore anche del nostro quotidiano). La manager è partita da una considerazione: l’AI è uno strumento; certo è ricco di potenzialità, ma resta pur sempre esposto al rischio di riprodurre, attraverso il suo algoritmo, il passato e con esso gli stereotipi e le disparità se non è accompagnato da un discorso etico che punti a creare un futuro migliore e più uguale.
Il rischio di discriminazione generato dall’AI
Per comprendere le declinazioni di tale affermazione è necessario però partire, seguendo il ragionamento di Palazzetti, dagli ambiti nei quali il settore privato utilizza l’AI, in particolare per lo svolgimento di azioni ripetitive o molto complesse: per esempio le previsioni vendita; l’identificazione e attivazione delle attività di comunicazione promozionale; parte del processo di selezione del personale. In questi ambiti, l’utilizzo dell’AI porta con sé tanto il rischio di un trattamento disparitario tra uomini e donne quanto rischi commerciali per l’azienda.
“Tutto ciò che si fonda su un processo di elearning legato al passato può riprodurre il passato stesso piuttosto che generare il futuro. Se dovessimo prevedere quante donne diventeranno Amministratrici Delegate basandoci oggi su dati passati e utilizzando l’AI probabilmente la previsione ci direbbe che nel futuro lo saranno esattamente in misura del 2%, che è la quota che vediamo oggi. Molto spesso questi algoritmi sono creati alla luce di un’analisi e di un software molto semplificato rispetto alla realtà più complessa”.
Prendendo in considerazione per esempio il processo di recruiting, le profonde differenze tra i cv degli uomini e quelli delle donne, così come il diverso valore che i diversi generi attribuiscono a concetti come potere e collaborazione, fanno sì che l’AI porti a un risultato a favore del sesso maschile. Un esempio concreto: nelle selezioni fatte alla luce di indici di leadership, mediamente per gli uomini il potere risulta il terzo (su 10) indicatore più importante, mentre la collaborazione è collocata al decimo posto; per le donne è il contrario, perché alla collaborazione è assegnato il terzo posto in ordine di importanza e il decimo al potere. Se la selezione dell’AI fosse fatta considerando il passato – secondo cui gli uomini hanno avuto più successo delle donne – supereranno la selezione coloro che attribuiranno al potere un punteggio più alto e quindi gli uomini. La strada, però, non è senza via d’uscita: “Ci sono molti studi fatti (e rifatti) nel tentativo di mitigare questi falsi assessment di potenziale che riproducono un vecchio modello di leadership”, ha spiegato Palazzetti.
I dati del passato generano false convinzioni
Un impiego non ponderato dell’AI rischia di condurre le aziende che ne fanno uso in direzioni svantaggiose anche a livello di business. Per esempio si usa l’AI, basandosi sulla raccolta dei dati dei vari database, nell’individuazione del consumer target, il gruppo di consumatori al quale si vuole indirizzare una campagna commerciale. Come ha illustrato la manager di British American Tobacco Italia, se si dovessero vendere automobili e l’algoritmo per ricerca di consumatori si basasse esclusivamente sull’interesse manifestato dal consumatore per macchine e motori risulterebbe un target composto per il 75% da uomini.
Questo risultato si basa sull’idea che chi è interessato all’acquisto di una nuova macchina è chi è interessato alle macchine e ai motori, ma all’interno di una famiglia composta da persone di sesso opposto spesso sono proprio le donne che – in genere meno interessate a macchine e motori – oltre a comprare una macchina per sé, determinano la decisione finale su ciò che è più adatto per il nucleo familiare.
Riassumendo con le parole di Palazzetti: “L’uso dell’algoritmo nell’identificazione dei target se non fatto accuratamente comporta una perdita di efficacia e quindi di investimenti dal punto di vista privato”. Ma non solo, le conseguenze sono anche sociali e hanno ripercussioni nella crescita e nella selezione delle donne: “Secondo l’AI le donne saranno sempre meno educate e informate su aspetti di nuova tecnologia e innovazione perché il software si illude che non siano interessate solo perché non l’hanno fatto prima”.
È dunque fondamentale, secondo Palazzetti, aumentare la presenza femminile nell’ambito della Computing Science, ma anche non lasciare l’AI esclusivamente nelle mani dei tecnici: “È importante che ci sia una visione anche umanistica nello sviluppo della tecnologia. Parlo per esempio di inserimento di soggetti che possano comprendere il diverso uso del linguaggio maschile e femminile, che per esempio gioca un ruolo fondamentale nella formazione e nella presentazione dei cv, perché donne e uomini usano termini diversi anche solo per indicare le competenze”.
In poche parole, l’algoritmo va educato, arricchendolo con elementi sociologici e semantici. In questo contesto, poi, le quote rosa si rendono ancora necessarie: “Quello che noi facciamo – e che fanno molte aziende – è, per esempio per i processi di recruiting, per la leadership assessment o per le promozioni future, la richiesta di avere una quota di donne pari al 50% del target, molto semplicemente perché non vi rientrerebbero in modo naturale per quanto spiegato in precedenza”.
Le implicazioni dell’enorme potere dell’AI possono insomma avere ripercussioni sia all’interno dell’azienda sia, in senso più ampio, dal punto di vista sociale: restando sul caso delle automobili, è destinata a privare le donne di informazioni importanti e contribuirà così a impoverire la loro crescita in quel settore.
Laureata in Filosofia, Erica Manniello è giornalista professionista dal 2016, dopo aver svolto il praticantato giornalistico presso la Scuola superiore di Giornalismo “Massimo Baldini” all’Università Luiss Guido Carli. Ha lavorato come Responsabile Comunicazione e come giornalista freelance collaborando con testate come Internazionale, Redattore Sociale, Rockol, Grazia e Rolling Stone Italia, alternando l’interesse per la musica a quello per il sociale. Le fanno battere il cuore i lunghi viaggi in macchina, i concerti sotto palco, i quartieri dimenticati e la pizza con il gorgonzola.
leadership, Intelligenza artificiale, algoritmo, diversità, genere