Come settore di ricerca ormai avviato da qualche decennio e con più di un inverno freddo alle spalle, quegli AI winter dove gli investimenti per la ricerca scendevano ai minimi, l’attuale riacceso interesse nel mondo IA è attribuibile, tra l’altro, alla maggiore accessibilità a sempre più vaste quantità di data (big data), computer più economici e con capacità di calcolo esponenzialmente più alte e infine all’implementazioni di tecniche avanzate di machine learning, che permettono a queste intelligenze di migliorarsi autonomamente attraverso i processi di deep learning.
Eccoci, quindi, nella nuova fase AI, un presente promettente e carico di speranze per il futuro. Dopo l’internet e gli smartphone ecco l’ultima innovazione promessa come capace di stravolgere le nostre vite.
Ciononostante, l’AI è un’intelligenza modellata su quella umana e che proprio per questo incontra le sue difficoltà, non tanto nelle capacità sovrumanane, bensì nelle facoltà intellettive in relazione alla conoscenza che ne informa la base, quei big data che altro non sono che il nostro sapere accumulato finora.
Riguardo al modo in cui ci informiamo, l’accademia insegna l’importanza della reperibilità delle fonti e l’importanza che queste siano di qualità, fattori strumentali nell’evitare che una qualsiasi decisione sia basata su un dato erroneo o incompleto.
Questo il problema oggetto di questo articolo, discusso attraverso gli esempi di varie società incorse in difficoltà inerenti, situazioni figlie delle volontà di arrivare velocemente alla prossima AI rivoluzionaria, le quali però evidenziano i problemi reali che fanno parte del percorso ma che ne rallentano il progresso.
Bias cognitivi e incompletezza dei dati: i problemi dell’IA
Il primo problema si pone sulla qualità delle informazioni costituenti i dati che dovrebbero rappresentare la realtà, e quindi sulla loro affidabilità e soprattutto, parlando di AI che imparano attraverso il riconoscimento di pattern attraverso grandi insiemi di dati, di quello che questi implicano.
Essendo informazioni prodotte dalla nostra società, queste soffrono dei nostri limiti e problemi, come dati frutto del ‘bias’ di chi le ha prodotte, per esempio un ‘bias’ di un ricercatore che magari ha fatto assunzioni dettate dalla sua esperienza personale su modelli che dovrebbero rappresentare la realtà di tutti, come potrebbe essere un ‘bias’ culturale nella percezione di una società come l’idea di cosa sia moralmente giusto e cosa sia sbagliato o un ‘bias’ dettato dalla predominanza di una particolare impostazione in certe aree di dibattito in cui manca la variabilità di opinioni (al riguardo mi permetto di ricordare da ex studente di diritto finanziario, tanti paper sulla regolamentazione bancaria che sono frutto di intere comunità accademiche alla caccia di streghe ordoliberali, (ricerche basate su un pregiudizio ideologico di base.
L’AI incorre quindi principalmente in bias cognitivi e bias dovuti all’incompletezza dei dati. I cognitive bias sono errori sistemici nell’interpretazione di dati dovuti ad un approccio troppo semplificativo nell’elaborazione dei dati stessi. Invece i bias dovuti all’incompletezza dei dati sono frutto dell’incapacità dei dati raccolti nel rappresentare la realtà in maniera comprensiva, così rischiando di rendere una verità parziale una realtà assoluta.1 Qui allora vediamo che l’intelligenza artificiale incorre in seri problemi in base ai big data che ne informano il machine learning, specialmente se questi non sono filtrati in qualche modo, con il rischio di rendere questi bias intrinsechi al sistema e ottenere risultati distorti e potenzialmente pericolosi, un fenomeno conosciuto come AI bias.2
Esempi di bias nell’IA: il caso Beauty.AI e Amazon
Un esempio di questo problema è accaduto già nel 2016, per il primo concorso di bellezza internazionale giudicato interamente da AI, chiamata Beauty.AI e supportato anche da Microsoft e INVIDIA, un evento promosso soprattutto sulla base dell’imparzialità di questi giudici “meccanici” con il compito di eleggere 44 vincitrici, tra le migliaia di candidate, sulla base di simmetrie facciali e altri criteri estetici. Alla fine, delle 44 vincitrici, la stragrande maggioranza furono di origine caucasica, con qualche d’una di origine asiatica e una di colore, fatti che portarono la nomenclatura di “racially biased IA” su molte testate. Il risultato fu dovuto a una mancanza di eterogeneità nei dati su cui fu allenato il processo di deep learning di Beauty-AI, infatti essendo i training data principalmente basato su modelli di donne caucasiche, questo portò l’algoritmo a sviluppare un ‘confirmation bias’, ovvero quando un AI afferma un pregiudizio in linea al trend emerso dai dati a sua disposizione.3
Un’altra ipotesi analoga nelle meccaniche fu quella dell’AI sviluppata da Amazon per la revisione di curriculum lavorativi al fine di velocizzare i tempi di assunzione e selezionare i candidati ritenuti migliori. Più nello specifico questi venivano ordinati attraverso un sistema a punti da una a cinque stelle, voti basati sui pattern emersi attraverso i curriculum assunti nel periodo di dieci anni e costituenti i training data di questa AI. Il risultato fu quello di un sistema con una chiara preferenza per i candidati di genere maschile e che invece andava a penalizzare le donne attraverso votazioni più basse, causa il fatto che quei curriculum degli assunti nello spazio di 10 anni erano, trattandosi anche del settore tecnologico, principalmente uomini, di nuovo quindi condizionando l’AI a sviluppare un pregiudizio storico nel modello di candidato ideale, un problema che portò Amazon a smantellare il progetto nel 2018.4
Influenza del bias nei generatori di immagini: il caso Dall-E e Gemini
Ipotesi più recenti hanno visto le prime versioni di Dall-E, il generatore di immagine di ChatGPT, regolarmente raffigurare giudici come uomini caucasici e ritrarre uomini armati come uomini di colore, causa un AI basata su di un insieme di dati che inavvertitamente integravano bias come vecchie ottiche pregiudicanti e stereotipiche del mondo all’interno del sistema, condizionandone quindi l’output.5 Una situazione opposta e probabilmente dovuta alla volontà di non incorrere in simili problemi, è il caso di febbraio di quest’anno del generatore di immagini di Google dal nome Gemini. Google ha infatti dovuto sospendere temporaneamente Gemini dopo che alcune immagini controverse e storicamente inaccurate sono cominciate a girare online. Sostanzialmente queste raffiguravano regolarmente donne o uomini di origine asiatica o africana come soldati della Wehrmacht tedesca della seconda guerra mondiale o raffigurati come vichinghi, padri costituzionali americani e papi, anziché generare immagini dei medesimi come caucasici. L’ironia qui è che questo risultato, a detta di alcuni, è conseguente a una decisione della società di aver “over-corrected” quei racial bias riscontrati con altri generatori di immagine, come quello precedentemente citato di Dall-E. Infine, il risultato ottenuto è stato assai diverso da quello sperato, riuscendo ad agitare le frange online vicine alle destre e i conservatori, che aventi già invisa una Silicon Valley “troppo liberale” hanno subito accusato Google di “anti white bias”, e allo stesso tempo, nonostante l’obbiettivo di Google fosse l’inverso, ad alienare quelle comunità etniche che si sono sentite tradite perché raffigurate per l’ennesima volta ben oltre l’inaccurato.
Possibili soluzioni al problema dei Bias nell’IA
Presa coscienza delle potenzialità di AI bias, oggi ci si affretta a trovare dei modi per eliminare questi pregiudizi o quanto meno mitigarli, come prospettivamente attraverso una migliore scrematura dei dati destinati per il training model6 o retrospettivamente attraverso correzioni al sistema chiamate “AI neurosurgery” mirate a ridurre associazioni fallaci, con la criticità però che anche la più triviali delle correzioni possa cambiare sostanzialmente il sistema e il suo output.7 Questo sta diventando un problema sempre più presente e sempre più pressante, gruppi di interesse invocano a voce alta più controllo e attenzione, soprattutto quando consideriamo le campagne di disinformazione a cui questa tecnologia si può prestare come in visione degli altri importanti ambiti in cui vorremmo includere l’AI e già includiamo l’AI, come la ricerca di nuovi farmaci o nella difesa militare.
Come detto dal Dr Mark Sendak, lead data scientist al Duke Institute for Health Innovation e responsabile per lo sviluppo di un algoritmo capace per la diagnosi di casi di sepsi nei bambini (progetto che ha riscontrato problemi di bias per esempio nei confronti di pazienti ispanici a causa di una mancanza di dati) “When you learn from the past, you replicate the past. You further entrench the past”. Questa non vuole essere una massima e sicuramente non una verità assoluta, ma indica come la strada dell’AI sia una strada lunga, irta e parallela alla nostra evoluzione e progresso, ponendo la domanda sulla possibilità che i nostri limiti attuali possano condurre a un altro freddo inverno.
Bibliografia
- https://www.pymnts.com/artificial-intelligence-2/2024/ciscos-ai-chief-says-technology-will-enhance-workplace-productivity/
- https://www.technologyreview.com/2024/03/20/1089939/a-wave-of-drugs-dreamed-up-by-ai-is-on-its-way/?truid=*%7CLINKID%7C*&utm_source=the_download&utm_medium=email&utm_campaign=the_download.unpaid.engagement&utm_term=*%7CSUBCLASS%7C*&utm_content=*%7CDATE:m-d-Y%7C
- https://erc.europa.eu/projects-statistics/science-stories/ethics-and-ai-tackling-biases-hidden-big-data
- https://www.weforum.org/agenda/2022/10/open-source-data-science-bias-more-ethical-ai-technology/#:~:text=Artificial%20intelligence%20and%20bias&text=Typically%20these%20bias%20outputs%20follow,biological%20sex%2C%20nationality%20or%20age.&text=Bias%20in%20AI%20algorithms%20can,information%20that%20reflects%20historical%20inequalities
- AI and Machine Learning will not save the planet (yet) | TechRadar
- OpenAI may have violated YouTube terms of service, CEO says | Fortune
- A beauty contest was judged by AI and the robots didn’t like dark skin | Artificial intelligence (AI) | The Guardian
- 4 shocking AI bias examples | Prolific
- https://www.ft.com/content/979fe974-2902-4d78-8243-a0cff68e630a
- https://www.bbc.co.uk/news/business-68364690
- https://www.theguardian.com/technology/2024/feb/28/google-chief-ai-tools-photo-diversity-offended-users
- https://www.independent.co.uk/tech/google-gemini-ai-images-racially-diverse-b2500730.html
- https://theconversation.com/eliminating-bias-in-ai-may-be-impossible-a-computer-scientist-explains-how-to-tame-it-instead-208611
- Shedding light on AI bias with real world examples – IBM Blog
- Why An AI-Judged Beauty Contest Picked Nearly All White Winners (vice.com)