I social stanno affinando i propri strumenti di contrasto ai pregiudizi insiti nelle proprie intelligenze artificiali. Arrivano a sottoporle ad audit, come nel caso eccellente di un nuovo strumento Linkedin. Segno di una loro prima responsabilizzazione in un ambito dove, però, c’è ancora molto da lavorare.
La risposta di Linkedin
Qualche settimana fa LinkedIn ha infatti lanciato il suo progetto open-source “LinkedIn Fairness Toolkit” (LiFT) per rispondere alla pressante necessità di equità dell’Intelligenza Artificiale, in special modo nei dataset e negli “algoritmi di formazione”. Lo strumento di casa Microsoft ha l’ambizioso obiettivo di porre fine alla crescente polarizzazione dell’Intelligenza Artificiale in tutto il mondo.
Igor Perisic, Chief Data Officer di LinkedIn, afferma che il lavoro sull’Intelligenza Artificiale è soggetto ai punti ciechi e ai pregiudizi insiti nei ricercatori stessi, e i “difetti” dei dati spesso riflettono le disparità del mondo reale e le realtà sociali decisamente ingiuste nelle quali vengono calati. Per Perisic è necessario basarsi sul lavoro dell’Intelligenza Artificiale e sulla ricerca finalizzata all’implementazione di sistemi di Intelligenza Artificiale equi ed etici. Nonostante diversi strumenti come IBM Fairness 360 Toolkit, Google Explainable AI e FAT-Forensics già disponibili sul mercato, c’è un notevole divario nell’affrontare le sfide su larga scala. Inoltre, gli strumenti esistenti sono limitati a specifici fornitori di cloud, il che ha spinto LinkedIn ad aprire il suo toolkit LiFT all’open source per i professionisti dell’Intelligenza Artificiale, interessando sviluppatori e aziende di tutto il mondo.
LiFT “by LinkedIn” è una banca dati progettata per l’analisi della correttezza dell’Intelligenza Artificiale. Tale banca dati dispone di componenti di misura dei pregiudizi che possono valutare i pregiudizi nell’intero ciclo di vita dei flussi di lavoro di Machine Learning. LiFT è progettato per lavorare su algoritmi di Machine Learning su larga scala, potendo essere integrato in qualsiasi fase dell’algoritmo di Machine Learning. Attualmente, LinkedIn ha utilizzato LiFT per calcolare le metriche di equità di training data sulle sue piattaforme, come il modello Job Search e il modello di classificazione anti-molestie. La banca dati LiFT è ora disponibile su GitHub, un passo per incoraggiare le aziende a misurare e mitigare i pregiudizi che coinvolgono l’Intelligenza Artificiale.[1]
L’Intelligenza Artificiale è penetrata in ogni angolo della vita umana, ed ora è il momento di garantire che i potenti strumenti di Intelligenza Artificiale risolvano problemi complessi in modo efficiente piuttosto che creare decisioni ingiuste. I professionisti dell’Intelligenza Artificiale, i ricercatori e i data scientist dovranno garantire che i training data siano equi e uguali per i diversi gruppi culturali, il genere, l’etnia e altro ancora. [2]
I pregiudizi dell’intelligenza artificiale
I pregiudizi che attanagliano i sistemi di Intelligenza Artificiale hanno origine nella formazione dei dataset, e vedono i ricercatori (es. ingegneri o tecnici che agiscono sul dato) usare pregiudizi cognitivi “inconsci”, a partire dalla raccolta e dalla preparazione dei dataset. I dati “distorti” utilizzati nei cosiddetti “training data” possono facilmente causare discriminazioni razziali, di genere e culturali. Pertanto, è imperativo creare sistemi di Intelligenza Artificiale equi e privi di pregiudizi che possano lavorare per il miglioramento della società e delle imprese.
Ma facciamo un passo indietro con una veloce disanima del passato pregiudizievole dell’Intelligenza Artificiale.
Nel 2015, Google Photos identificò due uomini di colore come gorilla, mentre nel 2019 i ricercatori statunitensi scoprirono che negli USA un importante algoritmo sanitario mostrava un insito pregiudizio razziale per le persone di colore. Un altro caso di pregiudizio per l’Intelligenza Artificiale è l’algoritmo pubblicitario di Facebook. Nel 2019, il Dipartimento per l’edilizia abitativa e lo sviluppo urbano degli Stati Uniti intentarono una causa contro Facebook per aver violato il Fair Housing Act (che tutela da discriminazioni razziali e di genere) permettendo annunci mirati per razza, genere e religione sulla sua piattaforma. Ora, la piattaforma di social media in questione sta impiegando un nuovo team che studia gli algoritmi di Intelligenza Artificiale col fine di evitare l’insorgere di possibili pregiudizi dell’algoritmo. L’aumento della disuguaglianza razziale dovuta agli strumenti di sorveglianza basati sull’Intelligenza Artificiale ha recentemente portato diverse importanti aziende tecnologiche statunitensi a ritirare dal mercato i loro prodotti/software di riconoscimento facciale. Nel giugno 2020, si sono mossi in questo senso IBM, Facebook e Amazon. Nel 2018, Joy Buolamwini e Timnit Gebru pubblicarono un documento incentrato sulla correttezza nel campo dell’Intelligenza Artificiale, The Gender Shades Project. Il documento verificò tra le altre cose l’accuratezza dei sistemi di Intelligenza Artificiale offerti da IBM, Microsoft e Face++ (software dell’azienda cinese Megvii). L’analisi rivelò che Face++ sbagliava il 95,9% dei volti femminili, Microsoft il 93,6% delle persone con una carnagione più scura e il sistema di Intelligenza Artificiale di IBM creava una differenza di errore del 34,4% tra gli uomini con una carnagione più chiara e le donne con una carnagione più scura. Questo studio fece sì che diverse aziende ripensassero le loro strategie nel campo dell’Intelligenza Artificiale.
Il ruolo di Twitter
A fine settembre 2020 l’algoritmo presente nella funzione di ritaglio delle foto su Twitter ha mostrato un pregiudizio dell’Intelligenza Artificiale, suscitando forti critiche da parte dei suoi utenti. Il gigante dei social network ha rivelato di aver testato l’algoritmo in questione e ha ammesso la necessità di un miglioramento continuo per prevenire situazioni simili in futuro.
Il 19 settembre 2020, il PhD student della canadese University of Victoria Colin Madland ha pubblicato su Twitter gli screenshot di un meeting tenutosi su Zoom, dove ha espresso preoccupazione per lo sfondo virtuale dello stesso Zoom che ritagliava impropriamente il volto di un membro della sua facoltà con carnagione scura. Sorprendentemente, Madland ha notato che anche Twitter ha ritagliato il volto del medesimo membro della facoltà, mostrando solamente la sua immagine (di Madland, NdA), indicando chiaramente il pregiudizio razziale attraverso l’algoritmo di Intelligenza Artificiale di entrambe le piattaforme. Lo strumento di anteprima delle foto di Twitter crea una versione ritagliata dell’immagine, che mostra solo le persone con la pelle più chiara, a meno che l’utente non clicchi sull’immagine e la espanda. Solo in questo caso la situazione torna “alla normalità”. Il programmatore Tony Arcieri ha provato a sperimentare l’algoritmo di ritaglio fotografico di Twitter con le foto di Mitch McConnell e Barack Obama, ottenendo risultati simili a quelli di Madland. Altri utenti di Twitter hanno testato l’algoritmo con giornalisti, personaggi dei cartoni animati e persino animali, riportando sempre lo stesso problema. I tweet hanno attirato l’attenzione di sviluppatori e data scientist che hanno lavorato intensamente sull’algoritmo.
Il Chief Design Officer di Twitter, Dantley Davis, ha condotto vari esperimenti con l’immagine “vituperata” e ha risposto che l’azienda sta ancora indagando sulla rete neurale. Nel frattempo, la portavoce di Twitter, Liz Kelly, ha “twittato che Twitter” aveva testato il pregiudizio dell’Intelligenza Artificiale prima di far varare il modello sulla piattaforma. L’azienda statunitense aprirà la questione agli sviluppatori e agli ingegneri della compagnia per poterlo rivedere e migliorarlo.
Le altre aziende
Troppo spesso il razzismo si manifesta nei modelli di Intelligenza Artificiale provenienti da training data. E Twitter non è la prima azienda ad esserne accusata. Diverse aziende tecnologiche, come Facebook, Google ed IBM, hanno dovuto affrontare aspre critiche per la presenza di diversi pregiudizi negli algoritmi. Per combattere questo problema, come abbiamo visto, l’industria tecnologica statunitense ha lanciato vari toolkit di equità come IBM Fairness 360 Toolkit, Google Explainable AI, FAT-Forensics e LinkedIn Fairness Toolkit. Tuttavia, nonostante i molteplici toolkit, non vi è ancora una soluzione concreta a questo problema “endemico” dell’Intelligenza Artificiale. In primo luogo, le aziende devono ampliare il loro orizzonte e accogliere esperti di diverse discipline come il diritto, le scienze umane, le scienze politiche, le scienze del comportamento, le neuroscienze e la psicologia umana per formare gli algoritmi di Intelligenza Artificiale. Un team diversificato potrebbe aiutare a decodificare le complessità del comportamento umano ed evitare pregiudizi inconsci nei training data. Ciò che è certo è che le aziende stanno investendo in sofisticati sistemi di Intelligenza Artificiale per ottenere una migliore qualità dei dati utilizzati.
Chris DeBrusk, amministratore delegato e responsabile della trasformazione presso BNY Mellon e partner di Oliver Wayman, ha affermato che per affrontare i potenziali pregiudizi del Machine Learning, il primo passo è quello di mettere in discussione onestamente e apertamente quali preconcetti potrebbero esistere attualmente nei processi di un’organizzazione e cercare attivamente come tali pregiudizi potrebbero manifestarsi nei dati. Poiché questa può essere una questione delicata, molte organizzazioni coinvolgono esperti che possono mettere in discussione le loro pratiche passate e attuali. Una volta identificati i potenziali pregiudizi, le aziende possono bloccarli eliminando i dati “problematici” o rimuovendo specifici componenti dei dataset. I sistemi di Intelligenza Artificiale si sono infiltrati in vari settori, tra i quali le procedure di assunzione del personale, l’assistenza sanitaria, le assicurazioni e le forze dell’ordine. È giunto il momento che l’industria tecnologica prenda misure concrete per fissare la percezione di pregiudizi che potrebbero influenzare milioni di persone.[3]
_____________________________________________________________________________________
- Per approfondimenti: Addressing bias in large-scale AI applications: The LinkedIn Fairness Toolkit. LinkedIn. https://engineering.linkedin.com/blog/2020/lift-addressing-bias-in-large-scale-ai-applications ↑
- Will LinkedIn’s Fairness Toolkit Mark the End of AI Bias? Toolbox. https://www.toolbox.com/tech/artificial-intelligence/news/will-linkedins-fairness-toolkit-mark-the-end-of-ai-bias/ ↑
- Twitter’s Algorithm Failure Shows Big Tech’s Ongoing Struggle With AI Bias. Toolbox. https://www.toolbox.com/tech/artificial-intelligence/news/twitters-algorithm-failure-shows-big-techs-ongoing-struggle-with-ai-bias/ ↑