rapporto AI NOW

Intelligenza artificiale e disuguaglianze, non tutto è perduto: ecco perché

Il rapporto annuale di AI Now Institute pone l’attenzione verso quegli utilizzi degli algoritmi che consentono alle macchine di prendere decisioni sulla forza lavoro (umana), sulla definizione di benefici e di servizi sociali, sulla sorveglianza e sul monitoraggio degli immigrati e dei rifugiati. Vediamo i risultati

Pubblicato il 03 Gen 2020

Andrea Benedetti

Senior Cloud Architect Data & AI, Microsoft

intelligenza artificiale e lavoro

I sistemi di intelligenza artificiale continuano a essere adottati rapidamente in settori che hanno una notevole rilevanza e importanza sociale (per citarne alcuni: assistenza sanitaria, istruzione, occupazione, giustizia penale) senza mettere sempre a disposizione adeguate garanzie.

Rimangono molte preoccupazioni e molte riflessioni aperte, ma si sta facendo strada anche una timida speranza di riuscire a orientare lo sviluppo dell’AI verso il bene comune.

Il rapporto AI Now 2019

Non tutto è irrimediabilmente perduto, insomma. Almeno secondo il rapporto annuale di AI Now, un istituto di ricerca interdisciplinare, presso la New York University, dedicato alla comprensione delle implicazioni sociali delle tecnologie di intelligenza artificiale.

Fondato da Kate Crawford e Meredith Whittaker nel 2017, AI Now è uno dei pochi istituti di intelligenza artificiale a guida femminile ed è il primo centro di ricerca interamente focalizzato su tutte le tematiche sociali legate all’utilizzo dell’IA.

Il rapporto, che contiene una serie di raccomandazioni per i governi, il mondo dell’industria e della ricerca, è il risultato del lavoro di un gruppo di studiosi che analizzano ciò che sta accadendo nell’IA con una particolare attenzione agli ambiti sociali, politici ed ecologici.

Se, nell’anno scorso, l’istituto si era concentrato in modo particolare sui temi di responsabilità legati al mondo dell’IA, chiedendo in maniera forte una riflessione su chi potesse essere il responsabile di eventuali danni provenienti dai sistemi intelligenti e su come si potesse poi rimediare a quei danni, quest’anno il lavoro si basa su una serie di riflessioni che tutti i gruppi di lavoro e i ricercatori hanno incentrato su problematiche legate a potenziali declinazioni rischiose o pericolose dell’IA.

In particolare, è stata posta l’attenzione verso quegli utilizzi degli algoritmi che consentono alle macchine di prendere decisioni sulla forza lavoro (umana), sulla definizione di benefici e di servizi sociali, sulla sorveglianza e sul monitoraggio degli immigrati e dei rifugiati.

IA e disuguaglianza sociale, le indicazioni del rapporto

Dagli studi fatti, sembra che l’IA stia allargando la disuguaglianza sociale, inserendo informazioni e, di conseguenza, il loro possesso e controllo nelle mani di coloro che hanno già una capacità di potere, rispetto a chi ancora non lo ha.

L’obiettivo del rapporto, quindi, è stato quello di raccogliere una serie di indicazioni in merito a ciò che i tecnici (chi sviluppa gli algoritmi), le aziende (chi mette a disposizione queste tecnologie) e l’ambito politico (chi ha la responsabilità di legiferare sul merito) possono fare per affrontare in modo significativo questo squilibrio.

Vediamo i punti chiave.

  • L’attenzione rispetto agli algoritmi che, utilizzati sul posto di lavoro, potrebbero aumentare l’asimmetria tra lavoratori e datori di lavoro, soprattutto se declinati con una forte ottimizzazione pensata per produrre benefici per la proprietà dell’azienda: sistemi che analizzano i processi di colloqui e onboarding, la produttività della persona, l’impostazione e la programmazione dei salari.
  • L’attenzione verso potenziali politiche discriminatorie, ponendo l’accento sulla differenza che ancora intercorre tra la volontà di implementare un’IA etica e la sua reale implementazione. In questi temi rientrano le capacità di riconoscimento facciale negli ambiti dell’edilizia abitativa, con l’ottica di riconoscere e discriminare etnie e/o razze. In questo senso si muovono alcuni progetti di legge negli Stati Uniti, di cui AI Now si è fatto forte promotore, come il Facial Recognition Technology Warrant Act e il No Biometric Barriers Act del 2019. Al di fuori del Nord America c’è un dibattito molto forte in Gran Bretagna rispetto all’uso di queste tecnologie da parte della polizia e in Australia, dove il parlamento sta lavorando su una pausa completa delle tecnologie che utilizzano i volti e i riconoscimenti facciali.
  • L’attenzione verso tutti quei progetti che possono rientrare sotto l’ombrello delle “smart cities” che permettono di consolidare il controllo di dati e informazioni relativi alla vita civile nelle mani di società private, con scopo di lucro. Sidewalk Labs, un progetto americano di innovazione urbana, suscitò parecchio clamore per il fatto di aver promosso la creazione di un punteggio di credito per i cittadini gestito da un’azienda privata.
  • L’attenzione ai sistemi di intelligenza artificiale che possono amplificare le disparità di genere e di razza attraverso tecniche di riconoscimento degli affetti e delle emozioni che, almeno al momento, non ha valide basi scientifiche. Alcuni mesi fa, salirono agli onori della cronaca alcuni algoritmi (definiti sessisti) che portarono il Committee on Finance del Senato americano a indagare su come erano stati fatti gli sviluppi del sistema.
  • L’attenzione a utilizzare quello che, in ambito tecnico, viene definito “debiasing”, ovvero sia mettere a disposizione degli algoritmi set di dati più ricchi e completi per fare in modo che la loro fase di apprendimento possa essere corretta in caso di disuguaglianze (per fare un esempio semplice: se voglio creare algoritmi che riconoscano un tipo di frutto in una foto e non fornisco, nella fase di apprendimento, delle immagini di mele, evidentemente – gli algoritmi – non potranno essere in grado di riconoscerle non avendo imparato a riconoscerle). L’analisi degli affetti, un sottoinsieme del riconoscimento facciale che afferma di “leggere” le nostre emozioni interiori interpretando le micro-espressioni sul nostro viso, è stato un focus di crescente preoccupazione nel corso del 2019: non solo perché può codificare i pregiudizi, ma perché manca una solida base scientifica per garantire risultati accurati o, a volte, validi. Tuttavia, nonostante ciò, il riconoscimento degli affetti, abilitato dall’intelligenza artificiale, continua a essere distribuito su larga scala, arrivando a poter produrre classificazioni rispetto a chi è “produttivo” o chi è un “buon lavoratore” – spesso a insaputa delle persone “osservate”.
  • L’attenzione all’impatto sul clima: grazie a recenti ricerche che hanno dimostrato come la creazione di un solo modello di IA per l’elaborazione del linguaggio naturale può arrivare a emettere fino a 600.000 libbre di anidride carbonica.

Le 12 raccomandazioni di AI Now

Queste le raccomandazioni sviluppate nel rapporto.

  • I regolatori dovrebbero vietare l’uso del riconoscimento degli affetti nelle decisioni importanti che incidono sulla vita delle persone e il loro potenziale accesso a opportunità. Si raccomanda di non utilizzare algoritmi nelle attività che svolgono un ruolo importante nelle decisioni che implicano aspetti della vita umana (il venire assunto per un lavoro, il prezzo dell’assicurazione, le valutazioni del dolore dei pazienti, le prestazioni degli studenti a scuola).
  • I governi e le imprese dovrebbero interrompere qualsiasi utilizzo del riconoscimento facciale all’interno di social network e nei contesti politici, almeno fino a quando non saranno introdotte normative adeguate.
  • L’industria dell’intelligenza artificiale dovrebbe apportare cambiamenti strutturali significativi per affrontare il problema del razzismo, della misoginia e della mancanza di diversità (con tutti i ragionamenti legati al trattamento dei dati relativi alle donne, alle persone di colore, alle minoranze di genere e altri gruppi sottorappresentati). Si raccomanda mettere a disposizione ulteriori set di dati, condivisi pubblicamente, sui livelli di trattamento economico, sui tassi di risposta alle molestie, sulle discriminazioni e sulle pratiche di assunzione. Si pone l’accento sulla disparità retributiva e si suggerisce di creare reali incentivi per creare, promuovere e proteggere ambienti di lavoro inclusivi.
  • La ricerca sulla imparzialità e sull’equità dell’IA ha iniziato a diffondersi, anche al di là delle soluzioni tecniche, ma è necessario un esame molto più rigoroso della politica e delle conseguenze dell’IA.
  • I governi dovrebbero imporre la divulgazione e il dibattito pubblico sull’impatto climatico dell’industria dell’IA. Si ritiene importante che i governi conoscano e rivelino all’opinione pubblica quelli che sono i costi climatici dello sviluppo dell’IA (sulla falsa riga dei requisiti adottati per l’industria automobilistica e aerea)
  • I lavoratori dovrebbero avere il diritto di contestare l’IA se “sfruttatrice” e invasiva. L’introduzione di sistemi di gestione automatizzata del lavoro, se non fatta in maniera attenta ed etica, rischia di generare problematiche relative ai diritti dei lavoratori e alla sicurezza (stabilire obiettivi di produttività molto alti, incremento dello stress psicologico per l’essere costantemente sotto controllo, il monitoraggio continuo che può non prendere in considerazioni variabili ambientali non analizzate dagli algoritmi, ecc.). È fondamentale un dialogo tra datori di lavoro, sindacati e lavoratori.
  • I lavoratori tecnologici dovrebbero avere il diritto di sapere cosa stanno costruendo ed eventualmente contestare usi non etici o dannosi della loro attività. Data la natura generale della maggior parte dell’IA, le persone che progettano e sviluppano questi sistemi, spesso, non sono consapevoli di come verranno utilizzati realmente: un modello di riconoscimento degli oggetti, addestrato per consentire la sorveglianza aerea, potrebbe essere applicato altrettanto facilmente al soccorso in caso di catastrofe, oppure potrebbe essere utilizzato per definire gli obiettivi per sistemi d’arma.
  • Gli Stati dovrebbero elaborare leggi sulla privacy biometrica, per regolare sia il settore pubblico che il settore privato. I dati biometrici, dal DNA alle impronte digitali, sono al centro di molte IA. Oltre un decennio fa, lo stato dell’Illinois ha adottato il Biometric Information Privacy Act (BIPA), che ora è diventata una delle più forti e più efficaci protezioni della privacy negli Stati Uniti. Il BIPA consente, alle persone, di citare in giudizio i soggetti che utilizzino o raccolgano dati in maniera non autorizzata, anche per scopi di sorveglianza, localizzazione e profilazione tramite riconoscimento facciale.
  • I legislatori dovrebbero regolare l’integrazione della sorveglianza delle infrastrutture pubbliche e private. Si suggerisce una forte trasparenza, la presa d’atto di avere una grande responsabilità e la supervisione di questi settori – anche in merito alle collaborazioni pubblico-privato e alle acquisizioni di aziende tecnologiche di questi settori.
  • È necessario tenere conto dell’impatto dell’IA sul clima, sulla salute e sugli spostamenti geografici. Le valutazioni d’impatto, realizzate tramite algoritmi, aiutano i governi, le aziende e le comunità anche nel valutare le implicazioni sociali. È importante che queste tecnologie tengano conto e considerino eventuali problemi di imparzialità, discriminazione e giusto processo, oltre a quanto riguarda aspetti legati al clima e alla salute.
  • I ricercatori delle tematiche di IA dovrebbero sempre tenere conto di potenziali rischi e, quindi, documentare al meglio le origini dei loro modelli e i dati utilizzati per istruire gli algoritmi. Gli studi relativi alla comprensione del pregiudizio (e dell’equità) nella ricerca sull’apprendimento automatico chiariscono che si può certamente fare di più.
  • I legislatori, quando si parla di IA legata ai temi della salute, dovrebbero richiedere il consenso informato per l’uso di qualsiasi dato personale: certamente l’applicazione di algoritmi nell’ambito dell’assistenza sanitaria richiede altissimi standard di protezione dei dati e un’informazione molto precisa verso i soggetti interessati.

I dibattiti, gli studi e le considerazioni che si stanno portando avanti danno motivo di sperare che sia i legislatori, sia i ricercatori e le aziende, possano lavorare insieme per il bene comune. Le implicazioni dell’IA saranno determinate da noi – e c’è molto lavoro da fare per garantire che il futuro sia sempre più luminoso.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Social
Analisi
Video
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati