Non si può parlare di etica dell’IA senza prima chiarire la distinzione tra equità in ambito algoritmico e giustizia sociale. Altrimenti si finirà per porre l’accento sulla possibilità o meno di trovare un ‘fix’ tecnologico ad un problema che è, in realtà, politico. Le soluzioni tecno/matematiche sono sicuramente importanti, ma la questione non è riducibile al solo aspetto algoritmico.
Si tratta a mio parere di un ragionamento cruciale, soprattutto adesso che siamo nella fase di recupero dalla pandemia. Ci domandiamo infatti come applicare la tecnologia non solo in aiuto al telelavoro e alla flessibilità che ne deriva, ma anche per aumentare la produttività e posizionare l’Europa come un avamposto di sviluppo nella concorrenza globale tra Cina e USA. Gli artefatti tecnologici che sviluppiamo e usiamo vanno visti in una dimensione tecno-sociale, come prodotti non neutrali, che sia nello sviluppo che nell’uso incorporano, replicano ed esasperano gli attributi della realtà politica e sociale.
È necessario dunque emancipare il discorso etico, rivendicare la non sacralità dei dati e comprendere la portata invasiva dell’elemento algoritmico e dei ‘big data’, per poter poi valutare un quadro normativo sufficiente, e soprattutto elaborare strumenti di controllo e governance collettivi.
Il dibattito sull’etica dell’AI
Il notevole sviluppo tecnologico degli ultimi decenni ha portato entusiasmanti promesse in campo medico, della Cyber Security e dell’istruzione; abbiamo visto la nuova efficacia della medicina personalizzata, la capacità di prevenire intrusioni e furto di dati, individuando eventuali comportamenti anomali, articolati programmi di supporto ai bambini con difficoltà di apprendimento.
Tutte queste novità si sono mostrate al mondo come opportunità dell’IA – un mondo più avanzato del nostro, in cui saremo noi, come cittadini sia fisici che digitali, i beneficiari dei frutti enormi della cooperazione uomo-macchina.
Gli elementi più promettenti, quando non distopici, sono spesso emersi dai dipartimenti delle pubbliche relazioni delle grosse aziende tecnologiche, che presentano la robotica come soluzione ai problemi che affliggono l’umanità.
Nel mentre, però, abbiamo anche visto il lato più pauroso e spaventoso della tecnologia. Cambridge Analytica e l’utilizzo del big data e del profiling per la manipolazione online, ci hanno mostrato come la nostra esperienza online sia guidata da algoritmi che ci presentano informazioni navigando nelle nostre stesse paure e debolezze. Algoritmi utilizzati per decidere se autorizzare il credito, o prevedere il rischio di vulnerabilità, crimine e violenza. In altre parole, abbiamo visto algoritmi che organizzano le relazioni tra il passato, il presente e il futuro; che costruendo predizioni su dati passati costruiscono un futuro come una profezia che non può che avverarsi.
Più di recente, abbiamo anche cominciato a vedere i danni. Troppo spesso è stato necessario il coraggio dei lavoratori tech, il loro attivismo, anche in violazione del divieto di sindacalizzazione formale; e in molti casi le storie più distopiche e più inquietanti sono venute allo scoperto nonostante la mancanza di trasparenza e accountability.
Infine, si è rinnovato l’interesse dei media in queste questioni, ad esempio nel caso degli esami di maturità inglesi, cancellati dalla pandemia e surrogati da algoritmi predittivi che hanno premiato i ragazzi delle scuole private, lasciando indietro e abbassando i voti degli studenti delle scuole pubbliche.
Che gli algoritmi discriminino, si sa. E le storie stanno cominciando a emergere anche con la complicità di Black Lives Matter, che ha mostrato al mondo come la battaglia di giustizia sociale sia inestricabilmente connessa alla tecnologia: il riconoscimento facciale, il controllo, gli algoritmi che perpetuano la segregazione. E la privacy come lusso, autonomia personale di scelta; ma solo per coloro che, essendo meno vulnerabili, possono reagire, proteggersi, e scegliere.
Anche un’AI senza bias razziali sarebbe discriminatoria e pericolosa
E non solo perché gli algoritmi di riconoscimento facciale hanno un tasso di errore che va a scapito dei neri (e ancor di più delle donne), con costi sociali mostruosi. Ma anche perché il dibattito si fossilizza su questo elemento; senza contare che, anche se il riconoscimento facciale funzionasse alla perfezione, il suo stesso uso produrrebbe ugualmente discriminazione. E questo perché bisogna affrontare la dimensione sociopolitica dell’artefatto tecnologico per comprendere come verrà utilizzato a seconda di contesti, aree, zone ed eventi.
Le grandi discussioni che abbiamo avuto nei mesi scorsi sulle app per il contact tracing sono in parte emerse dalla nuova consapevolezza maturata dai cittadini rispetto alla tecnologia. Dopo che Cambridge Analytica ha dimostrato che i dati personali raccolti a fini di ricerca scientifica possono invece diventare materiale di propaganda e manipolazione politica, è legittimo chiedersi ad esempio cosa succederà ai dati sensibili medici, e se possano diventare materiale di marketing assicurativo; sono preoccupazioni legittime.
La ridefinizione della privacy
Non c’è dubbio che la tecnologia influenzi la società, e la società influenzi la tecnologia. Purtroppo, abbiamo sinora visto il primo fenomeno prevalere sul secondo, quando siamo stati noi ad adattarci ai nuovi strumenti nel mercato, invece di avere noi, come società, definito il fine degli strumenti creati a nostro beneficio.
Anche il nostro atteggiamento verso la privacy è cambiato di conseguenza. Ci siamo abituati a nuovi ambiti: alla comodità dell’identità digitale tramite il nostro volto, alle case smart, ad Alexa. E magari abbiamo ritenuto, almeno inizialmente, che l’advertising selvaggio e individualizzato fosse un qualcosa al confine tra l’utile e l’effetto collaterale. Nel frattempo, nell’assenza di un quadro normativo appropriato, l’intero ecosistema è cresciuto in maniera selvaggia. Terreno fertile per l’adtech, ad esempio, diventato una free-zone della privacy, dove i dati più intimi, inclusa la nostra posizione, vengono disseminati per migliaia di attori invisibili in quel che costituisce quel mercato di advert simile alla Borsa.
Non c’è dubbio che le cose stiano cambiando. La normativa europea sulla privacy ha imposto dei limiti seri, anche se le complessità di questa legislazione hanno certamente avvantaggiato le grosse aziende che hanno le risorse per affrontare in maniera fluida i nuovi ostacoli.
In parecchi parlano del paradosso della privacy, per cui i cittadini, pur professandosi indignati dalle pratiche online, continuano comunque a dare in pasto i propri dati alle compagnie multinazionali. Questa apparente contraddizione è più il frutto della mancanza di alternativa che di una strana dissociazione nella mente dei consumatori. Il mondo digitale è oramai permeato da pochi operatori, che sono oramai diventati parte delle infrastrutture portanti della nostra società, in un rapporto inestricabile con la dimensione politica più generale.
La privacy dal punto di vista normativo, dunque, non riesce più ad affrontare questioni che riguardano invece l’antitrust, e un ripensamento della competizione che sia capace di distribuire in modo più equo i dividendi del digitale, che per ora rimangono in troppe poche mani.
Bisogna comunque riflettere più sul profilo etico, che su quello normativo. Le osservazioni fatte in precedenza mettono in luce una serie di problematiche relative alla privacy e alla sua sostenibilità nel quadro del controllo del consumatore. Da un lato infatti si esaspera il consumatore come attore informato e principale; dall’altro, l’intelligenza artificiale presenta elementi subdoli, a volte irriconoscibili e non discutibili. La falsa promessa della ‘explainability’ algoritmica non è che l’erosione della trasparenza proprio per quelli che ne hanno più bisogno. Decifrare le complessità matematiche, infatti, anche se in maniera semplificata, non può certo essere un esercizio del consumatore, quanto invece un dovere di chi presenta un advert all’utente, o gli offre un prestito.
Ed è proprio nel quadro della manipolazione in senso più ampio che si potrebbe inserire una definizione più coerente della privacy nell’era del digitale – legata all’autonomia, alla specificità individuale come capacità di esplorare la vita, i gusti e le opinioni, senza il bombardamento di un super computer puntato sui nostri movimenti digitali. E questo perché siamo di fronte a mio parere ad un rischio democratico, se la democrazia si basa sull’espressione individuale delle opinioni sulla base di fatti condivisi. Il rischio algoritmico è che la personalizzazione delle news faccia sgretolare proprio quel tessuto comune di notizie su cui si deve basare il dibattito. Di fronte a questo rischio democratico, al quale già non siamo immuni, si aggiunge l’IA in forma di bot gestiti dall’esterno per motivi geopolitici.
In questo quadro è necessario chiedersi come possa la privacy sopravvivere all’epoca algoritmica, e quali valori etici ne informino la trasformazione culturale oltre che normativa. Ad esempio, e specialmente in tempi recenti, ho provato una profonda insofferenza nei confronti della privacy come valore individuale e non come bene collettivo. La tutela dei dati è a mio parere una scelta per il bene comune, sia per principi democratici che per la tutela l’uno dell’altro. Proprio la pandemia ha dimostrato in termini palesi l’interdipendenza tra noi, e come il benessere dell’uno sia legato a quello dell’altro. Il tracciamento, sia manuale che digitale, è pertanto importantissimo; e la capacità di mettere a disposizione informazioni sulla nostra salute è condizione essenziale per la società. E non solo nelle emergenze.
Non c’è dubbio che il valore collettivo dei dati sia un bene prezioso, da tutelare attraverso nuove infrastrutture, come i data trust, e nel pieno rispetto della privacy.
Governance aziendale e principi
Di fronte ai problemi di cui sopra, l’approccio all’etica ha visto sinora due componenti essenziali. La prima, di tipo aziendale, vede le più grandi aziende dotarsi di governance, meccanismi di oversight e strumenti di collaborazione tra aree e discipline. Google e IBM, tra gli altri, hanno principi etici e modelli di assurance prima del rilascio di nuovi prodotti. Spesso con la collaborazione di filosofi, esperti di etica o di privacy, alcune grandi aziende si stanno dotando di strumenti più o meno efficaci per costruire e monitorare i propri artefatti tecnologici. Resta da vedere quanto di tutto questo sia funzionale ad un esercizio di pubbliche relazioni e immagine piuttosto che vera sostanza. Ma comunque è positivo vedere una mobilitazione di questo tipo.
Allo stesso tempo, organizzazioni internazionali, istituzioni, centri di ricerca e ONG hanno prodotto una pletora di principi e manifesti sull’etica dell’IA. Se ne contano oltre centottanta, documenti di varia lunghezza che sottolineano i valori centrali intorno ai quali l’IA si dovrebbe incardinare. Nonostante la moltiplicità, emergono aree comuni, dalla privacy, alla trasparenza, alla tecnologia a servizio dell’umanità. Sembra che su questi valori ci sia una convergenza a livello globale, per lo meno negli ambiti della diplomazia. Certo è che poi l’attuale implementazione di questi principi non è omogenea, e dipende dal tessuto socioculturale e normativo di riferimento.
Il panorama legislativo
Si parla frequentemente di panorama normativo in relazione all’IA. Spesso si avanza l’idea che ci sia bisogno di nuove leggi per disciplinare questa area. In realtà, quel che ancora non abbiamo effettuato è un fitness test che verifichi se la legislazione attuale sia sufficiente e capace di rispondere alle sfide del calcolo, dei big data e della società algoritmica. Una cosa è certa, ed è che l’IA non esiste in isolamento: la normativa sulla privacy, contrattuale e antidiscriminatoria si applica all’IA nel suo design, e nel suo funzionamento. Il problema è che tale normativa potrebbe non essere sufficiente, o richiedere un aggiornamento per coprire elementi che prima non esistevano.
Ad esempio, nell’area del diritto del lavoro ci sono grossi punti interrogativi relativi all’applicazione di strumenti di protezione dei lavoratori con l’introduzione di controllo a distanza, gestione algoritmica delle assunzioni così come della valutazione delle performance. Il problema principale è nell’opacità di questi strumenti, e nell’impossibilità talvolta di spiegare con chiarezza come si sia giunti a una specifica decisione. Nella selezione del personale, gli strumenti automatici di valutazione della voce o dei movimenti facciali volti a determinare il grado di fiducia e onestà dei candidati sono difficili da disciplinare, specie se il soggetto non è a conoscenza dei criteri usati, o del fatto stesso che la decisione presa non è stata soggetta a una validazione umana. È ovvio che si potrebbe argomentare che la discriminazione avviene anche senza IA, il che è certamente vero. È altrettanto vero che la sua automazione non solo renderebbe vani gli sforzi fatti fino a qui per migliorare la situazione, ma addirittura la amplificherebbe sino a dimensioni incontrollabili, non verificabili e impossibili da impugnare.
C’è dunque il rischio che l’automazione dei processi decisionali si traduca in quella che è stata definita di Cathy O’Neil una automazione della povertà, del sessismo e del razzismo, con strumenti legislativi che sono inadeguati per il controllo. Gli standard sono sicuramente importanti, ma la standardizzazione è profondamente diversa dal percorso normativo e, in aggiunta, soggetta a dimensioni geopolitiche globali nei fora internazionali dove questi standard vengono sviluppati.
È certo che sia fondamentale rivalutare il panorama legislativo alla luce dell’IA, e non solo per le questioni annose di torto e responsabilità (specialmente con la robotica), ma per armonizzare l’intero spettro delle questioni legate a discriminazione e uguaglianza.
Al di là di tutto questo, però, rimane a mio parere il tema principale della trasparenza, e di come essa venga considerata la soluzione dei problemi del consumatore (a mio parere errando). Sapere che una decisione è stata presa da un artefatto tecnologico, o sapere come uno strumento, magari umanizzato nelle caratteristiche per renderlo più amichevole (un avatar, o un robot dalle fattezze femminili), non risolve il problema; perché la trasparenza di per sé non garantisce alcun diritto se non è a) enforceable; b) meaningful.
Per enforceable, intendo che quei meccanismi di risarcimento, di impugnazione, senza i quali la trasparenza di per sé ha poco significato. Per meaningful intendo il rischio che la trasparenza penalizzi coloro che ne hanno più bisogno.
Nelle decisioni automatiche, ad esempio, le questioni di equità sono complesse, e seppur matematicamente corrette, possono poi tradursi in risultati ingiusti quando il sistema opera nel mondo reale. Per essere in grado di esercitare un diritto, bisogna poter capire la complessità del sistema. Abbiamo già visto con la normativa in ambito di protezione dati come il modello del consenso sia fallace, se non si riesce a comprendere a cosa si acconsenta in primo luogo.
Avanzare il dibattito etico per innovare con fiducia
Per avanzare il dibattito sull’etica a mio parere abbiamo bisogno di spostarci dalla soluzione tecnologica, dal fix, alla grande domanda dell’impatto che un artefatto sociotecnico ha sugli individui e sulle comunità. Se continueremo a non riconoscere la tecnologia come prodotto politico, come meccanizzazione e automazione del sistema valoriale dominante, continueremo a ignorare la vera questione etica.
Senza pienamente comprendere il tema della non neutralità della tecnologia, così come dei dati, si rischia che la risposta alle sfide sociali che ne derivano continui a basarsi su ulteriori soluzioni tecnologiche, e sulla responsabilità individuale di fronte all’artefatto. Questi due aspetti, oltre ad essere insufficienti, sono anche controproducenti.
Solo quando avremo acquisito la consapevolezza che la giustizia algoritmica non ha nulla a che vedere con la giustizia sociale, saremo in grado di occuparci della tecnologia nel suo elemento trasformativo, volgendola a nostro vantaggio.
–
L’autrice ha pubblicato il libro
An Artificial Revolution: On Power, Politics and AI (Indigo Press)
https://www.theindigopress.com/an-artificial-revolution