Gli algoritmi sono creati da uomini e proprio per questo trascinano con sé, persino esasperandole, le discriminazioni, le disparità di trattamento e le contraddizioni proprie della società che rappresentano.
C’è tuttavia un modo per garantire, per quanto possibile, la creazione di algoritmi “discrimination-free”, pur in assenza di linee guida condivise e nella pressoché totale indifferenza delle società hi-tech verso questi temi. E deve essere compito dei Governi intervenire, con una definizione legislativa e congiunta delle policy necessarie per colmare le attuali lacune.
Discriminazioni e algoritmi, gli ultimi casi
Partiamo da un presupposto, prima di addentrarci nella nostra riflessione: la tecnologia non può discriminare, le persone sì: tutte le decisioni errate poste in essere dai sistemi informatici sono da imputarsi esclusivamente all’uomo ed alle modalità con le quali sono creati, dipendenti a loro volta da una generica “deficienza” legislativa ed etica nel campo delle tecnologie informatiche, dovuta alla rapida crescita e produzioni di nuovi prodotti IT, di cui i Legislatori non sono riusciti, negli ultimi anni, a tenere il passo.
E veniamo, ora, alla cronaca recente. Di recente sono emerse le discriminazioni causate dall’algoritmo creato da Apple per la propria Apple card: garantiva una linea di credito maggiore agli uomini.
Recentissima discussione è insorta, inoltre, con riguardo alla struttura dell’algoritmo regolante la sanità negli States: quest’ultimo, classificava i pazienti non secondo il grado di necessità delle cure o la complessità della malattia, bensì secondo il costo del trattamento. Ne consegue che, in una società gravata da note problematiche discriminatorie razziali, l’algoritmo, per due patologie assimilabili, massimizzava il risparmio elargendo minori cure ai pazienti di colore. La colpa dell’errore, tuttavia, non è da ricercarsi nell’algoritmo, come abbiamo già detto.
Come avviene la discriminazione
Ciò detto, come si crea la discriminazione all’interno di un algoritmo? Innanzitutto, come abbiamo già detto, dal contesto sociale nel quale lo stesso nasce e dagli sviluppatori che si occupano della sua realizzazione. Da tale contesto nasce l’algoritmo, al quale si chiederà di assegnare valori differenti a differenti gruppi di soggetti. È chiaro, a questo punto, il momento in cui il pregiudizio si insinua dentro al sistema corrompendone inevitabilmente il risultato: tutto ciò che può comportare una differenziazione, sebbene nella sola ottica di fornire un prodotto personalizzato, sia un raggruppamento per razza, sesso, religione, orientamento sessuale, può inevitabilmente accentuarsi, sfociando nelle decisioni discriminatorie che sono oggi oggetto di cronaca.
Anche evitare la classificazione dei dati potrebbe non essere una soluzione al problema: anche se l’algoritmo non conosce gli indicatori di gruppo, ben può l’errore ugualmente scaturire in un secondo momento dalla creazione automatica di variabili (“proxy”) derivanti dalle tipologie di dati elaborati (ce lo spiega bene Massimo Valeri, nel suo articolo “Decisioni automatizzate, quale difesa da chi ci discrimina via algoritmi”, cui si rimanda per ulteriori approfondimenti).
Come arginare, dunque, il problema? Sinora si è tentato di agire rendendo trasparenti gli indicatori di gruppo già nella fase di sviluppo degli algoritmi, in modo da consentire agli sviluppatori la più agevole individuazione di possibili errori già nella fase propedeutica all’elaborazione dei dati, “istruendo” l’algoritmo ad evitare i pregiudizi, per quanto possibile. Un’impresa non da poco, essendo, in termini pratici, quasi impossibile creare un sistema puro.
La posizione delle Authority
Non manca la presa di posizione sul tema di Antonello Soro, Presidente del Garante per la protezione dei dati personali, il quale ha recentemente messo in luce le criticità connesse all’utilizzo di algoritmi che possano costituire una limitazione dei diritti fondamentali, nel caso di specie con riferimento all’oscuramento della pagina del movimento delle “Sardine” e la conseguente contrazione del diritto alla libertà di espressione.
Sebbene il tema affrontato sia differente rispetto alle casistiche di cui si è finora discusso, avendo ad oggetto un aspetto ulteriore della discriminazione, ovvero la censura, l’intervento del Garante mostra come la linea di azione delle Authority sia indirizzata non tanto alla correzione “in corsa” degli errori degli algoritmi, bensì sulla riformulazione a monte delle policies aziendali, decise privatamente dalle società che producono software, regolanti l’utilizzo delle piattaforme e contenenti proprio quelle valutazioni che, a lungo andare comportano l’insorgere delle note vicende di cronaca. Tale atteggiamento punitivo, condiviso dalle Autorità europee, consolidatosi nei principi fondanti il GDPR e, negli ultimi anni, fatto proprio anche dalle Authority statunitensi, mira all’ottenimento “di una governance socialmente e giuridicamente sostenibile del mondo – altrimenti anomico più che anarchico – della rete. E questo, senza prescindere da una responsabilizzazione delle piattaforme che assuma come parametro non il profitto, ma la garanzia delle libertà e dell’eguaglianza”.
Tuttavia, resta solo uno dei tanti tasselli necessari per consentire l’effettivo superamento delle discriminazioni algoritmiche, ponendosi l’intervento delle Autorità garanti soltanto in un momento successivo alla creazione degli strumenti.
Come prevenire le discriminazioni: le policy
Svolte le dovute premesse, giungiamo dunque al succo della questione: lo sviluppo di un sistema informatico basato su decisioni automatizzate è tuttora molto complesso per i tecnici IT, ai quali allo stato si demanda l’intera responsabilità della creazione di sistemi informatici stessi e che, tuttavia, sono limitati dalla inesistenza di linee guida che possano regolarne l’operato, ferma restando l’impossibilità di creare sistemi “perfetti”. A ciò si aggiunga un generale disinteresse, da parte delle società, in merito alla creazione di policies etiche, nonché la scarsa trasparenza nei confronti dell’utenza, che non è resa partecipe delle modalità con le quali i propri dati sono elaborati.
Non può nemmeno configurarsi una mera azione ex post, essendo talvolta, come nel settore della Sanità, in gioco interessi primari che potrebbero comportare gravi danni per i soggetti, anche involontariamente, discriminati dagli algoritmi. È necessario, invece, che i Governi assumano un ruolo primario nella creazione di standard che, al pari di un codice di condotta, enuncino una serie di misure preventive tecniche, giuridiche e sociali che costituiscano le basi comuni, le fondamenta per uno sviluppo contenuto e consapevole delle tecnologie informatiche. Dello stesso parere Helga Nowotny, co-fondatrice dell’European Research Council (Erc), la quale sostiene che “occorre definire ciò che sarà socialmente accettabile, legalmente definito e riconosciuto, altrimenti il rischio è quello di ritrovarci una tecnologia gestita male, fuori controllo e che può essere addirittura dannosa”.
L’azione congiunta di governi, utenti e società IT, dovrebbe avere i seguenti obiettivi:
- l’educazione del personale che sviluppa gli algoritmi, mediante il ricorso a soggetti specializzati in antidiscriminazione che possano istruire lo staff e gli esperti IT, aumentandone la consapevolezza e consentendo loro di identificare più agilmente e con metodo scientifico tutte le possibili variabili discriminatorie, nonché di creare dei set di dati che non riflettano alcuna pratica discriminatoria o trattamenti diseguali;
- l’educazione dell’utenza, la quale a sua volta contribuisce all’apprendimento delle intelligenze artificiali tramite i contenuti che essa stessa pubblica: come detto, la tecnologia riflette la società, e necessita dunque di un impegno sociale da parte dei suoi stessi utilizzatori;
- la creazione di policies governative a livello globale che, sulla base delle attuali leggi antidiscriminatorie, nonché delle normative inerenti alla tutela dei dati personali e la sicurezza digitale, enuncino i principi di classificazione e sviluppo degli algoritmi, garantendo anche alle società di operare entro dei confini sicuri, sinora non delineati ma di volta in volta determinati ex post, nella fase sanzionatoria.
Solo una definizione legislativa e congiunta, dunque, delle policies consentirà di superare la lacuna attualmente esistente in campo IT, dettando così delle normative etiche digitali più comprensibili e trasparenti e permettendo il dialogo tra sviluppatori e legislatori, in un campo tanto delicato quanto necessario, in virtù dell’inevitabile crescita tecnologica e interdipendenza informatica della nostra società.