Da Marte a Venere: intelligenza artificiale e impatti di genere
Negli ambienti informatici riecheggia spesso un’affermazione anonima e decisamente sarcastica: “Artificial intelligence is no match for natural stupidity”. Lungi dal trattarsi di un semplice motto di spirito, essa spingeva a vedere sotto una luce più accomodante le difficoltà iniziali delle IA attraverso un paragone realistico con l’assai fallibile cognizione umana anziché le presunte capacità quasi soprannaturali di supercomputer fantascientifici. Intelligenza artificiale e machine learning saranno inevitabili protagoniste del futuro non solo tecnologico ed economico, ma soprattutto sociale. Se infatti in questo turbolento 2021 assistiamo all’avanzata inarrestabile di tali strumenti, sempre più performanti e pervasivi, dobbiamo tenere bene a mente quali sono i loro potenziali impatti su di noi, il genere umano che ancora ne detiene il controllo. Controllo non sempre razionale e anzi spesso inficiato da pregiudizi e discriminazioni che possono addirittura essere moltiplicati da macchine e algoritmi. Grazie anche al contributo della tesi di laurea di Francesca Romana Pesce, “Gender, Sustainable development and rules for artificial intelligence: is innovation innovating?“, classificatasi 2a al premio Valeria Solesin 2020 promosso dal Forum della Meritocrazia, ho provato a sintetizzare come l’impatto degli algoritmi di machine learning sulle questioni di genere e più in generale sulle minoranze sia complesso e influenzato sia da fattori software sia da un mondo del lavoro (a tutti i livelli) poco variegato e permeabile a bias.
Dentro gli algoritmi
Per cominciare a mettere a fuoco questo tema vanno giocoforza individuati tre lenti di osservazione: il design e il funzionamento degli algoritmi, i criteri di scelta dei dati che alimentano questi ultimi e la composizione del mondo lavorativo e di ricerca che ruota intorno all’IA. Approfondire la logica di ogni tipo di programma sarebbe impossibile, di conseguenza ci focalizzeremo sulla classe più ampia e controversa, vale a dire gli algoritmi di riconoscimento (sia visivo che vocale) alla base di bot, assistenti personali e sistemi automatizzati di selezione. Tali algoritmi sono i principali rappresentanti del machine learning essendo letteralmente in grado di imparare autonomamente a individuare particolari pattern attingendo a database multimediali e successivamente fornire giudizi dal valore anche predittivo spesso capaci di influenzare vite umane.
Sfortunatamente essi non sono affatto infallibili, come dimostra ad esempio un articolo di Buolamwini e Gebru riguardo la percentuale di errore di un algoritmo sul riconoscimento facciale, pari a 0.8% per uomini di etnia caucasica contro il 34,7% delle donne afroamericane, una discrepanza dalle potenziali conseguenze tutt’altro che teoriche: se infatti un simile sistema fosse in funzione in un aeroporto esso si tradurrebbe in tempi d’attesa ben diversi ai controlli. Peggio ancora, una macchina a guida autonoma potrebbe investire con maggiore probabilità una donna di colore proprio a causa di una fisionomia poco corrispondente ai suoi criteri di identificazione. Similmente inadeguati si sono rivelati gli algoritmi di selezione del personale di due colossi come Facebook e Amazon. Se nel primo caso, come riportato anche da MIT Technology Review, il social network più popolare al mondo si è reso conto di proporre a uomini bianchi annunci per lavori meglio pagati rispetto a quelli proposti alle donne, specie se di colore, nel 2015 Amazon ha dovuto addirittura riprogrammare quasi da zero la sua IA per lo screening iniziale dei curricula in quanto essa selezionava esclusivamente uomini. Non se la passano meglio gli algoritmi di riconoscimento vocale, essenziali fra le altre cose per la generazione di sottotitoli automatici, che di frequente si dimostrano meno efficaci con voci femminili. La ragione dietro questa carenza risiede nelle differenze di frequenze fra voci femminili, più alte e voci maschili, più basse in virtù di corde vocali più lunghe, caratteristiche queste ultime che erano state maggiormente analizzate e modellate negli studi sul parlato propedeutici alla creazione dei suddetti algoritmi.
Impatti di genere nella scelta dei dati
Entriamo così nella delicata questione della scelta dei dati utilizzati per impostare lo scheletro software delle IA e in seguito istruirle a svolgere il proprio lavoro. Proprio la scelta del database dato in pasto all’IA di Amazon si era rivelata la maggiore criticità poiché conteneva dati esclusivamente sugli assunti negli ultimi 10 anni, per la stragrande maggioranza uomini. Di un problema analogo soffrono le app di monitoraggio della salute che attingono a database pubblici: essendo presenti molti più dati maschili sulle malattie cardiovascolari spesso sintomi riconducibili a queste ultime non vengono trattati con la stessa urgenza in pazienti donne. In ultimo, non si può non citare il caso di un diffuso database di immagini utilizzato per il machine learning che conteneva per più del 77% di facce maschili, di cui l’84% di maschi bianchi. Il risultato è che le IA addestrate con esso non erano in grado di riconoscere una versione pixellata della faccia di Barack Obama, ricostruendo invece un improbabile ritratto di uomo caucasico.
Tuttavia, non tutte le intelligenze artificiali vengono per nuocere, e anzi possono contribuire a ridurre bias e disuguaglianze. È accaduto con un algoritmo dello Stanford Computational Policy Lab (e già in funzione presso la procura distrettuale di San Francisco e della California), capace di eliminare da un fascicolo le informazioni riguardanti, in modo diretto o indiretto, razza, genere ed estrazione sociale dell’individuo in modo da garantire un giudizio più imparziale. In un altro caso LinkedIn ha perfezionato il proprio strumento Recruiter per garantire adeguata rappresentanza, soprattutto nelle prime pagine di risultati, alle donne qualificate senza penalizzarle per la loro minore presenza in settori come quello informatico. Si tratta di piccoli passi ma di estrema rilevanza.
IA e Computer Science: un ambiente poco inclusivo
Torniamo quindi al terzo punto di osservazione nonché alla domanda iniziale: quali umani si occupano effettivamente di intelligenza artificiale? La risposta secca, purtroppo scontata, è semplice: uomini, prevalentemente bianchi. Attualmente infatti solo il 16,1% dei docenti di Computer Science nelle migliori università mondiali è rappresentato da donne e non si vedono radicali miglioramenti all’orizzonte dato che rispetto a 30 anni fa la percentuale di donne laureate in tale settore è addirittura diminuita (anche se a vantaggio delle donne laureate in altre discipline STEM come fisica e biologia). Anche a livello lavorativo il quadro rimane simile, come dimostrano le statistiche della forza lavoro dedicata all’IA di Google e Facebook, dove la rappresentanza femminile si assesta rispettivamente al 10% e al 15%. Non proprio roseo è infine lo stato del coinvolgimento delle donne negli ambienti STEM e in particolare nell’ambito della Data Science, come abbiamo visto fondamentale per la selezione delle informazioni per le IA, caratterizzato da una presenza femminile inferiore al 20% e poco considerato dalla gran parte delle laureate STEM in quanto “troppo competitivo” o “dall’impatto poco tangibile”. Non deve dunque sorprendere come anche in Italia il tasso di occupazione delle donne nel settore ICT sia solo dal 15%, al venticinquesimo posto fra i paesi dell’Unione Europea.
Al di là dei freddi numeri e della evidente disparità di genere, non va sottovalutato il contesto culturale dell’industria computazionale e dello sviluppo delle IA, spesso discriminatorio al di là delle singole persone che vi partecipano. Può sembrare irrilevante notare che la maggior parte degli assistenti vocali abbiano voci femminili (questione che ha ispirato lo sviluppo di Meet Q, la prima voce digitale genderless) o come spesso i risultati di ricerca su attori e personaggi famosi si focalizzino più sull’aspetto fisico che sulla carriera nel caso si tratti di donne, ma dinamiche simili sono emblematiche di problemi più profondi. Per esempio, uno studio sulla piattaforma di coding Github ha dimostrato che le modifiche a programmi proposte da donne venivano accettate più frequentemente, ma solo se non era indicato il loro genere, mentre ci sono stati diversi licenziamenti controversi di donne appartenenti al team AI di Google nell’ultimo anno e mezzo. La logica conseguenza di un ambiente percepito, non del tutto erroneamente, come ostile dal pubblico femminile è una minore propensione alla partecipazione e un ulteriore aumento della disparità di genere: non è un caso che l’azienda software australiana Atlassian sia riuscita ad aumentare dell’80% le assunzioni di donne in ruoli tecnici semplicente sfruttando un tool IA per analizzare i propri annunci di lavoro e rimuovere espressioni riconducibili a bias o poco rassicuranti sull’ambiente lavorativo come “coding ninja”.
Diversity drives innovation
Come dimostrano i precedenti esempi, non tutto è perduto, anzi. La consapevolezza delle difficoltà femminili nel mondo dell’IA e degli effetti potenzialmente deleteri di algoritmi lasciati a sé stessi non deve quindi scoraggiare bensì spronarci a migliorare il nostro approccio attraverso vari metodi e strumenti a nostra disposizione, come i toolkit open source di Google, IBM, Microsoft e LinkedIn che assistono gli sviluppatori nella ricerca di bias nei dataset. Si possono inoltre valutare gli algoritmi ex post per verificarne la “fairness” e al tempo stesso comporre squadre di testing più variegate e sensibili a discriminazioni di genere o razziali. È però imprescindibile, se si vuole assistere a un definitivo cambio di passo, lavorare duro affinché si raggiunga una sempre maggiore presenza femminile nel mondo della tecnologia e dell’IA, una rappresentanza di qualità e quantità che vada dai panel su temi informatici alle cattedre universitarie, impattando il presente e ispirando nuove generazioni di donne per il futuro. A questo sforzo collettivo, infine, dovranno partecipare attivamente soprattutto le aziende tecnologiche, chiamate a prestare crescente attenzione alle carriere femminili se non altro per prosperare esse stesse: nel 2021 non si può più sfuggire alla schiacciante evidenza che sì, diversity drives innovation.
Laura Zanfrini – 2° classe ITB – Ceo ZaLa Consulting