quali norme per l'ai

Non rinunciamo agli algoritmi per i (nostri) pregiudizi: come farne strumenti davvero equi

Il concetto di equità che ispira le decisioni umane non ha un equivalente “matematico” e bisogna lavorare ancora per incorporarlo negli algoritmi e ottenere risultati matematicamente corretti e anche “giusti” sul piano dei valori. Ma se ci riusciremo, ci sarà davvero un’evoluzione nella conoscenza e nelle facoltà dell’uomo

Pubblicato il 04 Lug 2022

Giuseppe D'Acquisto

Funzionario del Garante per la protezione dei dati personali, Titolare dell’insegnamento di intelligenza artificiale presso il Dipartimento di Giurisprudenza dell’Università LUISS Guido Carli

algoritmi

La discriminazione algoritmica ossia, in termini generali, il potenziale effetto discriminatorio che deriva da decisioni assunte attraverso l’impiego di algoritmi è certamente una delle questioni centrali da risolvere in vista di una compiuta regolamentazione dell’utilizzo di sistemi di intelligenza artificiale.

Aleggia però nel dibattito una sorta di pregiudizio: che il mezzo, ossia l’algoritmo, sia esso stesso la causa del fenomeno osservato, ovvero l’effetto discriminatorio della decisione, e che per non correre rischi l’opzione regolatoria da preferire sia quella di evitare il ricorso ad algoritmi nelle decisioni, a favore dell’intervento umano, o di limitare il numero di situazioni in cui avvalersi di algoritmi per decidere.

Educhiamo l’algoritmo alla diversità per eliminare i pregiudizi

Bisogna essere molto accorti nel dosare l’intervento regolatorio. Soluzioni apparentemente più tutelanti ma di difficile applicazione potrebbero rivelarsi scorciatoie illusorie che non incentivano il progresso scientifico, che non dovrebbe essere mai ostacolato, senza peraltro fornire concrete salvaguardie.

Gli algoritmi, strumento necessario per le decisioni ora e in futuro

È bene osservare che gli algoritmi sono uno strumento necessario all’uomo per decidere in un contesto tecnologico, come quello in cui già viviamo e in misura maggiore come quello in cui vivremo, caratterizzato da una quantità di dati in continuo aumento e dalla presenza di macchine con una crescente potenza di calcolo, disponibile a costi sempre più ridotti. Non è possibile, in uno scenario in cui il dato e la potenza di calcolo diventano commodity disponibili in abbondanza, pensare a un futuro caratterizzato esclusivamente da decisioni umane.

Disporre di dati, algoritmi e adeguata capacità di processamento dell’informazione ci consentirà di effettuare decisioni che altrimenti non sarebbero possibili. E queste decisioni produrranno enormi benefici per l’umanità e consentiranno la risoluzione di problemi che il nostro ingegno da solo non è capace di affrontare, dalla cura di patologie all’impiego di risorse rispettoso dell’ambiente, da una maggiore sicurezza collettiva a un più elevato benessere individuale.

Davanti a simili prospettive di progresso sembra inverosimile l’ipotesi di una rinuncia all’impiego di questo strumento di ausilio alla decisione a vantaggio di un approccio basato sul puro intervento dell’uomo, il quale per evidenti limiti computazionali e mnemonici non può andare oltre certi livelli di complessità.

Gli algoritmi, potremmo dire con una metafora, sono la bussola che ci permetterà di navigare in un mare sconfinato di informazioni, che altrimenti ci apparirebbero come indistinte, e di raggiungere uno scopo senza perderci.

Regolamentazione degli algoritmi in chiave “anti-discriminazione”: serve uno sguardo tecnico

Bisogna non sottovalutare la forza delle tecnologie che, davanti ad atteggiamenti pregiudiziali di chiusura da parte del regolatore, potrebbero avere la forza di imporsi in ragione della facoltà che esse offrono all’uomo di sperimentare un numero praticamente illimitato di soluzioni, sottraendo al regolatore stesso gli spazi d’intervento che gli competono per fare in modo che questo progresso avvenga limitando il più possibile impatti negativi su libertà e diritti riconosciuti e consolidati nelle nostre società (ad esempio, la libertà d’impresa o il diritto individuale alla protezione dei dati personali).

Una regolamentazione degli algoritmi che voglia affrontare la questione della discriminazione generata da decisioni automatizzate, senza ipotizzare la rinuncia a questi strumenti, richiede che il problema sia affrontato anche con uno sguardo tecnico. Prima di dire di no tout court al mezzo occorre individuare in modo oggettivo le circostanze in cui esso può essere impiegato per produrre risultati discriminatori e intervenire.

Gli aspetti tecnici fondamentali

Questo esercizio richiede la formalizzazione di alcune questioni ingegneristiche che qui si vogliono brevemente richiamare, nell’auspicio di sollevare il velo di Maya e avviare le dovute riflessioni anche su questi fondamentali aspetti tecnici.

  • Occorre evitare un linguaggio vago e impreciso. Gli algoritmi sono il frutto dell’ingegneria dell’uomo e operano su dati, attraverso l’impiego di modelli matematici, per giungere a risultati idonei al perseguimento di un preciso scopo. Chi impiega algoritmi per decidere deve chiarire i dati che impiega, le caratteristiche del modello matematico adottato e lo scopo della decisione. Fuori da questo schema formale non c’è possibilità di regolamentazione e il discorso diventa ideologico, quasi stregonesco, e di scarsa utilità concreta.
  • I dati impiegati devono essere rappresentativi del fenomeno esaminato. Ogni carattere, anche minoritario, deve essere rappresentato in ciascun campione nella stessa proporzione in cui esso è presente nella popolazione. Inoltre, l’ampiezza del campione di dati deve essere tale da scongiurare qualsiasi effetto di selezione, ossia l’apparente presenza di legami tra variabili, che potrebbero innescare paradossi e costituire la premessa di future discriminazioni.
  • Gli score, o punteggi, utilizzati per assumere decisioni devono essere oggettivi e misurabili. Punteggi attribuiti a persone sulla base di criteri soggettivi rendono la decisione intrinsecamente discriminatoria. Inoltre, gli score devono essere inequivocamente (e positivamente) correlati con lo stato, o la classe, che essi pretendono di rappresentare. Uno score definito in modo vago e che produce un elevato numero di falsi positivi e negativi rende la decisione incerta e aumenta la platea di soggetti non soddisfatti dalla decisione.
  • Non tutti gli errori sono uguali. Il costo di un falso positivo in molti casi è diverso, e talora significativamente diverso, da quello di un falso negativo (si pensi al caso di una pandemia: un falso negativo genera un problema di salute pubblica, mentre un falso positivo possibilmente soltanto un problema di limitazione nei movimenti di un singolo). Il decisore deve esplicitare quale tipo di errori intende minimizzare e deve ingegnerizzare soglie e criteri di decisione in accordo con la strategia prescelta.
  • Il grado di discriminazione di una decisione algoritmica si può misurare. Vi sono indicatori statistici di parità demografica (come la parità di genere) o di parità di opportunità che si possono applicare alle decisioni algoritmiche per comprendere quanto queste eventualmente avvantaggino un sottoinsieme della popolazione a discapito di un altro. Inoltre, se questa disparità si verifica, esistono tecniche di debiasing che possono essere utilmente impiegate per ripristinare in modo significativo l’equità compromessa dal risultato dell’algoritmo.
  • Il contrario di discriminazione non è uguaglianza. Un algoritmo che tratti tutti allo stesso modo può inasprire le diversità, a danno dei soggetti più svantaggiati in partenza. In molte situazioni ciò che conta, e che realmente fa apparire il risultato della decisione equo e non discriminatorio, è la condizione dei soggetti dopo che la decisione è stata assunta. Se per effetto del risultato di un algoritmo la “distanza” finale tra le condizioni individuali si riduce allora la decisione può essere giudicata equa. Le decisioni algoritmiche rendono possibile questa valutazione ex-post degli effetti di una decisione.

Algoritmi: corretto non vuol dire giusto

Sono soltanto alcuni spunti che meriteranno certamente approfondimenti, in particolare riguardo alle soluzioni tecnologiche, e dai quali si può partire per un discorso il più possibile oggettivo. Le decisioni algoritmiche sono il risultato di operazioni logico-matematiche e per loro natura sono “corrette” (salvo naturalmente l’impiego di algoritmi privi di fondamento scientifico che, come è ovvio, non avrebbero nessun presupposto razionale e dunque sarebbero inaccettabili), ma non sempre sono “giuste”, in quanto non si fondano su valori.

In altri termini, il concetto di equità, ma anche quello di causalità e di trasparenza che ispirano le decisioni umane, non hanno un equivalente “matematico” e bisogna lavorare ancora molto per incorporare questi principi all’interno degli algoritmi e ottenere risultati matematicamente corretti e anche “giusti” sul piano dei valori.

Se così saremo in grado di fare, le decisioni algoritmiche rappresenteranno un avanzamento nella conoscenza e nelle facoltà dell’uomo, e ci consentiranno di assumere decisioni su fenomeni molto complessi, prendendo il meglio dell’uno e dell’altro approccio, ovverosia la piena razionalità e riproducibilità delle decisioni algoritmiche, e il rispetto di valori etici e giuridici condivisi su cui dovrebbero sempre fondarsi le decisioni dell’uomo. In più, ed è un risultato da evidenziare, potremo in molti casi sottrarre la decisione all’arbitrio e alla discriminazione umana.

Conclusioni

Da questo punto di vista le decisioni algoritmiche offrono un vantaggio a cui poco si pensa. È infatti molto più facile intervenire su un modello matematico per rendere equa una decisione algoritmica che in partenza ci appare iniqua che intervenire sul comportamento dell’uomo per rendere equa una decisione da questi assunta quando essa è realmente discriminatoria.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati