I sistemi di intelligenza artificiale continuano a essere adottati rapidamente in settori che hanno una notevole rilevanza e importanza sociale (per citarne alcuni: assistenza sanitaria, istruzione, occupazione, giustizia penale) senza mettere sempre a disposizione adeguate garanzie.
Rimangono molte preoccupazioni e molte riflessioni aperte, ma si sta facendo strada anche una timida speranza di riuscire a orientare lo sviluppo dell’AI verso il bene comune.
Il rapporto AI Now 2019
Non tutto è irrimediabilmente perduto, insomma. Almeno secondo il rapporto annuale di AI Now, un istituto di ricerca interdisciplinare, presso la New York University, dedicato alla comprensione delle implicazioni sociali delle tecnologie di intelligenza artificiale.
Fondato da Kate Crawford e Meredith Whittaker nel 2017, AI Now è uno dei pochi istituti di intelligenza artificiale a guida femminile ed è il primo centro di ricerca interamente focalizzato su tutte le tematiche sociali legate all’utilizzo dell’IA.
Il rapporto, che contiene una serie di raccomandazioni per i governi, il mondo dell’industria e della ricerca, è il risultato del lavoro di un gruppo di studiosi che analizzano ciò che sta accadendo nell’IA con una particolare attenzione agli ambiti sociali, politici ed ecologici.
Se, nell’anno scorso, l’istituto si era concentrato in modo particolare sui temi di responsabilità legati al mondo dell’IA, chiedendo in maniera forte una riflessione su chi potesse essere il responsabile di eventuali danni provenienti dai sistemi intelligenti e su come si potesse poi rimediare a quei danni, quest’anno il lavoro si basa su una serie di riflessioni che tutti i gruppi di lavoro e i ricercatori hanno incentrato su problematiche legate a potenziali declinazioni rischiose o pericolose dell’IA.
In particolare, è stata posta l’attenzione verso quegli utilizzi degli algoritmi che consentono alle macchine di prendere decisioni sulla forza lavoro (umana), sulla definizione di benefici e di servizi sociali, sulla sorveglianza e sul monitoraggio degli immigrati e dei rifugiati.
IA e disuguaglianza sociale, le indicazioni del rapporto
Dagli studi fatti, sembra che l’IA stia allargando la disuguaglianza sociale, inserendo informazioni e, di conseguenza, il loro possesso e controllo nelle mani di coloro che hanno già una capacità di potere, rispetto a chi ancora non lo ha.
L’obiettivo del rapporto, quindi, è stato quello di raccogliere una serie di indicazioni in merito a ciò che i tecnici (chi sviluppa gli algoritmi), le aziende (chi mette a disposizione queste tecnologie) e l’ambito politico (chi ha la responsabilità di legiferare sul merito) possono fare per affrontare in modo significativo questo squilibrio.
Vediamo i punti chiave.
- L’attenzione rispetto agli algoritmi che, utilizzati sul posto di lavoro, potrebbero aumentare l’asimmetria tra lavoratori e datori di lavoro, soprattutto se declinati con una forte ottimizzazione pensata per produrre benefici per la proprietà dell’azienda: sistemi che analizzano i processi di colloqui e onboarding, la produttività della persona, l’impostazione e la programmazione dei salari.
- L’attenzione verso potenziali politiche discriminatorie, ponendo l’accento sulla differenza che ancora intercorre tra la volontà di implementare un’IA etica e la sua reale implementazione. In questi temi rientrano le capacità di riconoscimento facciale negli ambiti dell’edilizia abitativa, con l’ottica di riconoscere e discriminare etnie e/o razze. In questo senso si muovono alcuni progetti di legge negli Stati Uniti, di cui AI Now si è fatto forte promotore, come il Facial Recognition Technology Warrant Act e il No Biometric Barriers Act del 2019. Al di fuori del Nord America c’è un dibattito molto forte in Gran Bretagna rispetto all’uso di queste tecnologie da parte della polizia e in Australia, dove il parlamento sta lavorando su una pausa completa delle tecnologie che utilizzano i volti e i riconoscimenti facciali.
- L’attenzione verso tutti quei progetti che possono rientrare sotto l’ombrello delle “smart cities” che permettono di consolidare il controllo di dati e informazioni relativi alla vita civile nelle mani di società private, con scopo di lucro. Sidewalk Labs, un progetto americano di innovazione urbana, suscitò parecchio clamore per il fatto di aver promosso la creazione di un punteggio di credito per i cittadini gestito da un’azienda privata.
- L’attenzione ai sistemi di intelligenza artificiale che possono amplificare le disparità di genere e di razza attraverso tecniche di riconoscimento degli affetti e delle emozioni che, almeno al momento, non ha valide basi scientifiche. Alcuni mesi fa, salirono agli onori della cronaca alcuni algoritmi (definiti sessisti) che portarono il Committee on Finance del Senato americano a indagare su come erano stati fatti gli sviluppi del sistema.
- L’attenzione a utilizzare quello che, in ambito tecnico, viene definito “debiasing”, ovvero sia mettere a disposizione degli algoritmi set di dati più ricchi e completi per fare in modo che la loro fase di apprendimento possa essere corretta in caso di disuguaglianze (per fare un esempio semplice: se voglio creare algoritmi che riconoscano un tipo di frutto in una foto e non fornisco, nella fase di apprendimento, delle immagini di mele, evidentemente – gli algoritmi – non potranno essere in grado di riconoscerle non avendo imparato a riconoscerle). L’analisi degli affetti, un sottoinsieme del riconoscimento facciale che afferma di “leggere” le nostre emozioni interiori interpretando le micro-espressioni sul nostro viso, è stato un focus di crescente preoccupazione nel corso del 2019: non solo perché può codificare i pregiudizi, ma perché manca una solida base scientifica per garantire risultati accurati o, a volte, validi. Tuttavia, nonostante ciò, il riconoscimento degli affetti, abilitato dall’intelligenza artificiale, continua a essere distribuito su larga scala, arrivando a poter produrre classificazioni rispetto a chi è “produttivo” o chi è un “buon lavoratore” – spesso a insaputa delle persone “osservate”.
- L’attenzione all’impatto sul clima: grazie a recenti ricerche che hanno dimostrato come la creazione di un solo modello di IA per l’elaborazione del linguaggio naturale può arrivare a emettere fino a 600.000 libbre di anidride carbonica.
Le 12 raccomandazioni di AI Now
Queste le raccomandazioni sviluppate nel rapporto.
- I regolatori dovrebbero vietare l’uso del riconoscimento degli affetti nelle decisioni importanti che incidono sulla vita delle persone e il loro potenziale accesso a opportunità. Si raccomanda di non utilizzare algoritmi nelle attività che svolgono un ruolo importante nelle decisioni che implicano aspetti della vita umana (il venire assunto per un lavoro, il prezzo dell’assicurazione, le valutazioni del dolore dei pazienti, le prestazioni degli studenti a scuola).
- I governi e le imprese dovrebbero interrompere qualsiasi utilizzo del riconoscimento facciale all’interno di social network e nei contesti politici, almeno fino a quando non saranno introdotte normative adeguate.
- L’industria dell’intelligenza artificiale dovrebbe apportare cambiamenti strutturali significativi per affrontare il problema del razzismo, della misoginia e della mancanza di diversità (con tutti i ragionamenti legati al trattamento dei dati relativi alle donne, alle persone di colore, alle minoranze di genere e altri gruppi sottorappresentati). Si raccomanda mettere a disposizione ulteriori set di dati, condivisi pubblicamente, sui livelli di trattamento economico, sui tassi di risposta alle molestie, sulle discriminazioni e sulle pratiche di assunzione. Si pone l’accento sulla disparità retributiva e si suggerisce di creare reali incentivi per creare, promuovere e proteggere ambienti di lavoro inclusivi.
- La ricerca sulla imparzialità e sull’equità dell’IA ha iniziato a diffondersi, anche al di là delle soluzioni tecniche, ma è necessario un esame molto più rigoroso della politica e delle conseguenze dell’IA.
- I governi dovrebbero imporre la divulgazione e il dibattito pubblico sull’impatto climatico dell’industria dell’IA. Si ritiene importante che i governi conoscano e rivelino all’opinione pubblica quelli che sono i costi climatici dello sviluppo dell’IA (sulla falsa riga dei requisiti adottati per l’industria automobilistica e aerea)
- I lavoratori dovrebbero avere il diritto di contestare l’IA se “sfruttatrice” e invasiva. L’introduzione di sistemi di gestione automatizzata del lavoro, se non fatta in maniera attenta ed etica, rischia di generare problematiche relative ai diritti dei lavoratori e alla sicurezza (stabilire obiettivi di produttività molto alti, incremento dello stress psicologico per l’essere costantemente sotto controllo, il monitoraggio continuo che può non prendere in considerazioni variabili ambientali non analizzate dagli algoritmi, ecc.). È fondamentale un dialogo tra datori di lavoro, sindacati e lavoratori.
- I lavoratori tecnologici dovrebbero avere il diritto di sapere cosa stanno costruendo ed eventualmente contestare usi non etici o dannosi della loro attività. Data la natura generale della maggior parte dell’IA, le persone che progettano e sviluppano questi sistemi, spesso, non sono consapevoli di come verranno utilizzati realmente: un modello di riconoscimento degli oggetti, addestrato per consentire la sorveglianza aerea, potrebbe essere applicato altrettanto facilmente al soccorso in caso di catastrofe, oppure potrebbe essere utilizzato per definire gli obiettivi per sistemi d’arma.
- Gli Stati dovrebbero elaborare leggi sulla privacy biometrica, per regolare sia il settore pubblico che il settore privato. I dati biometrici, dal DNA alle impronte digitali, sono al centro di molte IA. Oltre un decennio fa, lo stato dell’Illinois ha adottato il Biometric Information Privacy Act (BIPA), che ora è diventata una delle più forti e più efficaci protezioni della privacy negli Stati Uniti. Il BIPA consente, alle persone, di citare in giudizio i soggetti che utilizzino o raccolgano dati in maniera non autorizzata, anche per scopi di sorveglianza, localizzazione e profilazione tramite riconoscimento facciale.
- I legislatori dovrebbero regolare l’integrazione della sorveglianza delle infrastrutture pubbliche e private. Si suggerisce una forte trasparenza, la presa d’atto di avere una grande responsabilità e la supervisione di questi settori – anche in merito alle collaborazioni pubblico-privato e alle acquisizioni di aziende tecnologiche di questi settori.
- È necessario tenere conto dell’impatto dell’IA sul clima, sulla salute e sugli spostamenti geografici. Le valutazioni d’impatto, realizzate tramite algoritmi, aiutano i governi, le aziende e le comunità anche nel valutare le implicazioni sociali. È importante che queste tecnologie tengano conto e considerino eventuali problemi di imparzialità, discriminazione e giusto processo, oltre a quanto riguarda aspetti legati al clima e alla salute.
- I ricercatori delle tematiche di IA dovrebbero sempre tenere conto di potenziali rischi e, quindi, documentare al meglio le origini dei loro modelli e i dati utilizzati per istruire gli algoritmi. Gli studi relativi alla comprensione del pregiudizio (e dell’equità) nella ricerca sull’apprendimento automatico chiariscono che si può certamente fare di più.
- I legislatori, quando si parla di IA legata ai temi della salute, dovrebbero richiedere il consenso informato per l’uso di qualsiasi dato personale: certamente l’applicazione di algoritmi nell’ambito dell’assistenza sanitaria richiede altissimi standard di protezione dei dati e un’informazione molto precisa verso i soggetti interessati.
I dibattiti, gli studi e le considerazioni che si stanno portando avanti danno motivo di sperare che sia i legislatori, sia i ricercatori e le aziende, possano lavorare insieme per il bene comune. Le implicazioni dell’IA saranno determinate da noi – e c’è molto lavoro da fare per garantire che il futuro sia sempre più luminoso.