Il film Io, Robot (di Alex Proyas: USA, 2004) liberamente tratto da un racconto di Isaac Asimov, racconta dell’agente di polizia Del Spooner – interpretato da Will Smith – che si trova a investigare sulla morte di un celebre esperto di robotica che sembrerebbe essere stato assassinato da un robot privo di sistemi di sicurezza (le celebri tre leggi della robotica). In realtà nel proseguire la sua indagine, Spooner scoprirà che si tratta di una cospirazione ordita da un’intelligenza artificiale il cui scopo è instaurare una dittatura poiché, secondo la sua stringente logica, è l’unico modo per evitare l’autodistruzione degli esseri umani.
Messo in questi termini – robot, intelligenze artificiali, software con velleità dittatoriali – la trama è sicuramente da film di fantascienza, ma il tema sollevato è tutt’altro che fantascientifico: possiamo fidarci degli algoritmi che sono alla base della nostra vita quotidiana? In quanto tecnologie, il tipo di attività che svolgono i sempre più sofisticati software con cui ci confrontiamo tutti i giorni è neutrale? Se consideriamo che gli algoritmi altro non sono che tecnologie che svolgono una funzione, la risposta è ovvia: certo che sono neutrali. Una lavatrice è neutrale rispetto al bucato, un frigorifero è neutrale rispetto al cibo. Il problema è che gli algoritmi – sempre più basati su big data e intelligenza artificiale (ora chiamata machine learning)– non sono né lavatrici, né frigoriferi: sono tecnologie che agiscono in maniera autonoma e spesso questa autonomia si esprime in un comportamento pregiudizievole.
Detto in altro modo: gli algoritmi spesso hanno dei pregiudizi.
Alcune volte questi pregiudizi sono delle proprietà emergenti frutto dell’interazione fra queste tecnologie e il mondo circostante. Celebre il caso del sistema di autotagging della app di Google in cui per la foto di due persone di colore veniva suggerito il tag “gorilla”. Altre volte questi pregiudizi sono progettati per raggiungere specifici risultati di controllo e sorveglianza. All’inizio del 2016 ha fatto molto discutere il progetto Sesame Credit del governo cinese, un sistema di gamification – ovvero simile ad un gioco con azioni da compiere e punti da ottenere – in cui si raccolgono i dati sui cittadini a partire dalle piattaforme digitali Tencent e Alibaba, dati che producono un punteggio che valuta quanto le persone siano dei bravi cittadini.
Per cercare di affrontare questo problema è necessario procedere ad una analisi per comprendere in che modo intervenire senza bloccare lo sviluppo tecnologico ma soprattutto per capire quali sono le conseguenze etiche di questa evoluzione incontrollata. Cathy O’Neill considera la situazione in cui ci troviamo simile a quella dell’industria dell’auto dei primordi: la questione della sicurezza delle automobili ha impiegato molto tempo prima di diventare un tema connesso alla sicurezza stradale, perciò è necessario tematizzare la questione dell’etica e della affidabilità degli algoritmi prima che la situazione diventi complicata da gestire. Cathy O’Neill è autrice del libro Weapons of Math destruction (armi di distruzione matematica) in cui grazie alle sue competenze scientifiche (è autrice di diversi libri di data science ed ex direttore del Program in Data Practices della Columbia University) pone la questione dell’autonomia – spesso pregiudizievole – degli algoritmi come una minaccia per le nostre vite e la democrazia.
La O’Neill propone una gerarchia a quattro livelli per cercare di analizzare quando gli algoritmi si comportano male. Il primo livello è quando gli algoritmi esprimono un pregiudizio in maniera non intenzionale a causa della loro programmazione, come nel caso di Google Ad che suggeriva inserzioni pubblicitarie di consulenza legale se gli utenti che cercavano informazioni erano persone di colore. Al secondo livello gli algoritmi si comportano male a causa di una programmazione superficiale, come nel caso citato dell’auto-tagging di Google Photo. Al terzo livello ci sono gli algoritmi sicuramente antipatici ma comunque legali: è il caso di PredPol, il software in dotazione della polizia di Los Angeles in grado di prevedere i reati sulla base di una analisi dei big data dei crimini precedenti, in puro stile Minority Report. Infine all’ultimo livello ci sono gli algoritmi programmati con scopi intenzionalmente nefasti e spesso illegali, come nel caso del software protagonista del Dieselgate che consentiva alla Volkswagen di alterare le rilevazioni delle emissioni inquinanti, truffando così il sistema dei controlli ambientali destinato alle automobili e che recentemente ha visto coinvolto un ingegnere italiano.
Il sistema proposto dalla O’Neill è interessante, perché permette di affrontare in maniera diversa, conseguenze diverse dei software che utilizziamo ogni giorno. Quello che dovrebbe far riflettere – seriamente – e porre in un orizzonte etico più ampio è che il mix di algoritmi, intelligenza artificiale, big data e tecnologie complesse possono avere delle conseguenze nefaste sulla vita delle persone. Non stiamo più solo parlando di un aggiornamento del nostro strumento di videoscrittura, ma delle conseguenze sulla vita delle persone di un software finanziario che impedisce ad una banca di offrire un mutuo ad una famiglia. Questo grido d’allarme è ormai piuttosto condiviso nella comunità scientifica internazionale: non solo Cathy O’Neill ma anche Dominique Cardon, Wolfie Christl e Sarah Spiekermann e tanti altri. Al momento l’opinione pubblica non sembra particolarmente interessata all’argomento, ma arriverà un giorno in cui sul banco degli imputati non ci sarà più un ingegnere o un programmatore, ma un software che avrà esercitato in maniera autonoma le sue decisioni sulla vita di qualcuno e ci si chiederà stupiti: “Come si è arrivati a tutto questo?”.
In attesa dell’intelligenza artificiale che deciderà di instaurare una dittatura per il nostro bene.