Anche se il colonialismo storico è finito, i suoi effetti persistono ancora oggi, tanto che alcuni ricercatori ritengono che le caratteristiche e gli impatti più preoccupanti dell’Intelligenza Artificiale possano risalire alla storia coloniale.
Un tema, quello della discriminazione razziale dell’IA, ritornato centrale dopo l’omicidio di George Floyd a opera della polizia Usa ma che, eidentemente, affonda le sue radici ben più in là nel tempo.
Le proteste in Sudafrica contro la statua di Cecil Rhodes
Nel marzo del 2015, scoppiarono diverse proteste all’Università di Città del Capo, in Sudafrica, per la statua dell’imprenditore e colonialista britannico Cecil Rhodes, responsabile di un vero e proprio genocidio ai danni degli africani, che gettò le basi dell’Apartheid. Al grido di “Rhodes must fall” (Rhodes deve cadere) la statua venne rimossa sotto l’impulso delle enormi proteste. Tali eventi che – nelle più diverse forme – perdurano tutt’oggi hanno spinto il ricercatore sudafricano di Deepmind (azienda di Google) Shakir Mohamed a riflettere sugli impatti che la colonizzazione potrebbe aver avuto (ed ha) nel campo dell’Intelligenza Artificiale.
Nel 2018, proprio mentre il campo dell’Intelligenza Artificiale cominciava a fare i conti con problemi come la discriminazione algoritmica, Mohamed scrisse su un blog alcune sue riflessioni. In esso invitava i ricercatori a “decolonizzare l’Intelligenza Artificiale” per “orientare” al meglio il lavoro svolto nei centri – come quelli della Silicon Valley – e coinvolgere nuove voci, culture e idee per guidare lo sviluppo della tecnologia.
Ora, sulla scia delle nuove proteste scaturite dall’assassinio di George Floyd, Mohamed ha pubblicato un nuovo articolo insieme al suo collega William Isaac e alla dottoranda di Oxford Marie-Therese Png. L’articolo dà corpo alle idee originali del ricercatore sudafricano con esempi specifici di come le criticità dell’Intelligenza Artificiale siano radicate nel colonialismo, presentando al contempo strategie per affrontarle.
Come si manifesta la “colonialità” nell’intelligenza artificiale
Gli effetti del colonialismo storico sulle moderne tecnologie sono sintetizzati da alcuni studiosi con la parola “colonialità”, ossia l’idea che gli attuali squilibri di potere tra razze nonché tra paesi ricchi e paesi poveri siano estensioni degli squilibri di potere tra colonizzatori e colonizzati. Prendendo come esempio il razzismo strutturale, secoli addietro gli europei inventarono il concetto di razza per giustificare la tratta degli schiavi africani e la conseguente colonizzazione del Continente Nero.
Negli Stati Uniti, gli effetti di questa ideologia possono essere rintracciati nella storia della schiavitù e della segregazione razziale che interessarono il paese non molti decenni addietro.
Allo stesso modo, sostengono i ricercatori, la storia coloniale spiega alcune delle caratteristiche e degli impatti più preoccupanti dell’Intelligenza Artificiale. Essi identificano cinque “manifestazioni della colonialità” sul campo:
- La discriminazione e l’oppressione algoritmica. I legami tra discriminazione algoritmica e razzismo coloniale sono forse i più evidenti: gli algoritmi costruiti per automatizzare le procedure e addestrati su dati all’interno di una società interessata da discriminazioni razziali finiscono per replicare nei loro risultati esiti basati sul razzismo. Un legame questo che non interessa solo gli Stati Uniti, poiché in diverse parti del mondo vi sono evidenti disuguaglianze sociali che possono impattare sull’Intelligenza Artificiale.
- Il Ghost Work. Il fenomeno del Ghost Work (letteralmente, “lavoro fantasma”), ossia quel lavoro “invisibile” sui dati necessari per sostenere l’innovazione dell’Intelligenza Artificiale, estende ordinatamente il rapporto economico storico tra colonizzatori e colonizzati. Molte ex colonie statunitensi e britanniche – tra le quali Filippine, Kenya e India –, complice il basso costo della forza lavoro, sono diventate centri di “lavoro fantasma” per le aziende statunitensi e britanniche.
- Beta testing. I sistemi di Intelligenza Artificiale sono talvolta testati su gruppi più vulnerabili prima di essere implementati per utenti “reali”. Cambridge Analytica, per esempio, ha testato in beta-test i suoi algoritmi sulle elezioni nigeriane del 2015 e keniote del 2017 prima di utilizzarli negli Stati Uniti e nel Regno Unito. Studi successivi hanno scoperto che questi esperimenti hanno attivamente perturbato il processo elettorale keniota ed eroso la coesione sociale. Questo tipo di test fa eco al trattamento storico dell’Impero britannico sulle sue colonie, trattate come laboratori per la sperimentazione di nuovi farmaci e di nuove tecnologie.
- La governance dell’Intelligenza Artificiale. Anche gli squilibri geopolitici di potere che l’era coloniale si è lasciata alle spalle danno forma attiva alla governance dell’Intelligenza Artificiale. Ciò si è verificato nella recente corsa alla formazione di linee guida etiche globali per l’Intelligenza Artificiale: i paesi in via di sviluppo in Africa, America Latina e Asia centrale sono stati in gran parte lasciati fuori dalle discussioni, il che ha portato alcuni a rifiutarsi di partecipare agli accordi internazionali sul flusso di dati. Il risultato: i Paesi sviluppati continuano a beneficiare in modo sproporzionato di norme globali modellate a loro vantaggio, mentre i Paesi in via di sviluppo continuano a rimanere ancora più indietro.
- Sviluppo sociale internazionale. Infine, gli stessi squilibri geopolitici di potere influiscono sul modo in cui l’Intelligenza Artificiale viene utilizzata per assistere i paesi in via di sviluppo. Le iniziative “Intelligenza Artificiale per il bene” o “Intelligenza Artificiale per lo sviluppo sostenibile” sono spesso paternalistiche. Esse costringono i paesi in via di sviluppo a dipendere dai sistemi di Intelligenza Artificiale esistenti piuttosto che a partecipare alla creazione di nuovi sistemi progettati per il proprio contesto.
I ricercatori notano che questi esempi non sono esaustivi, ma dimostrano quanto sia ampia l’eredità coloniale nello sviluppo globale dell’Intelligenza Artificiale.
Come costruire un’intelligenza artificiale “decoloniale”
Secondo i ricercatori, il vantaggio di esaminare gli impatti dannosi dell’Intelligenza Artificiale è necessario per prevedere e mitigare i danni che potrebbero derivare in futuro. In questo senso, i ricercatori propongono tre tecniche per un’Intelligenza Artificiale “decoloniale”, più inclusiva e benefica:
- Sviluppo tecnico consapevole del contesto. In primo luogo, i ricercatori del campo dell’Intelligenza Artificiale dovrebbero considerare dove e come le tecnologie messe in campo saranno utilizzate. Il loro lavoro, inoltre, non dovrebbe terminare con la scrittura del codice, ma dovrebbe includere la sperimentazione, il sostegno alle politiche che ne facilitano l’uso corretto e l’organizzazione di azioni che contrastino con i “comportamenti impropri”.
- Tutela inversa. In secondo luogo, i ricercatori dovrebbero ascoltare i gruppi etnici emarginati. Un esempio potrebbe essere un Machine Learning “partecipativo”, che cerca di coinvolgere nella progettazione dei sistemi le persone più colpite dagli “effetti collaterali” del Machine Learning stesso. Questo dà ai soggetti la possibilità di sfidare e dettare come vengono inquadrati i problemi di Machine Learning, quali dati vengono raccolti e come, nonché dove vengono utilizzati i modelli risultanti.
- Solidarietà. I gruppi etnici emarginati dovrebbero anche avere il supporto e le risorse necessarie per uscire da questa e da altre situazioni.[1]
- The problems AI has today go back centuries. MIT Technology Review. ↑