INTELLIGENZA ARTIFICIALE

Tutela dei diritti umani, il giusto approccio nell’uso dell’IA e dei processi decisionali automatizzati

Il dibattito pubblico e lo studio delle effettive implicazioni di sistemi decisionali automatici sui diritti dell’uomo sono ampiamente in ritardo rispetto all’evoluzione tecnologica. Per questo occorre definire alcuni punti fermi per trarre reali vantaggi dai sistemi di intelligenza artificiale

Pubblicato il 21 Mar 2023

Michele Iaselli

avvocato, docente di Logica e Informatica giuridica - Università di Cassino

intelligenza artificiale_396578755

La nozione di “elaborazione algoritmica e processo decisionale” è interpretata ed intesa in modo diverso in ambito legale, tecnologico e delle scienze sociali, ed ancora in modo diverso in ambito pubblicistico. Inoltre, il settore è relativamente nuovo.

Una reale consapevolezza sulle conseguenze per l’esercizio dei diritti umani e per un più ampio sviluppo della società è cresciuta solo recentemente e deve ancora tradursi in un dibattito pubblico più ampio e inclusivo sulle possibili implicazioni normative.

Decisioni prese dall’intelligenza artificiale, cosa rischiamo? Le sfide sul tavolo Ue

Ci sono ancora poche informazioni disponibili per prendere decisioni fondate su questo argomento e quindi sono necessarie ricerche aggiuntive rispetto anche alle caratteristiche del processo decisionale umano. Come noto, i processi decisionali automatizzati possono presentare rischi o errori ed è proprio per questo motivo che bisogna approfondire seriamente quali criteri dovrebbero essere sviluppati per misurare la qualità del processo decisionale.

Diritti umani e algoritmi

Con riferimento a tale tipologia di studi la ricerca accademica non è sufficiente in quanto bisogna garantire che venga sviluppato un ampio dibattito di carattere pubblicistico con il coinvolgimento di diverse professionalità (tecnologiche, ingegneristiche, legali, mediatiche, filosofiche ed etiche). A tal fine è necessario che in ambito pubblico si sia in grado di comprendere e gestire la logica e il funzionamento degli algoritmi. In particolare, enti pubblici e governi devono avere accesso a informazioni sufficientemente complete per comprendere i sistemi decisionali algoritmici che sono già profondamente integrati nelle società di tutto il mondo.

A titolo di esempio basta citare il recente scandalo delle emissioni automobilistiche, che dimostra cosa può accadere quando un piccolo programma software, venga utilizzato di frequente senza un’adeguata e precisa regolamentazione. Non è certo auspicabile, dal punto di vista dei diritti umani, che ci siano potenti sistemi algoritmici di rilevanza pubblica privi di una forma significativa di controllo. Non è sufficiente la semplice garanzia su trasparenza e responsabilità, ma è fondamentale che tutti i diritti siano effettivamente presi in considerazione nell’ambito di sistemi decisionali automatizzati. Questo non è un compito semplice, ma richiede una combinazione di ulteriori standard di settore, in via di sviluppo, che mettano gli esseri umani (ed in particolare i diritti umani) al centro dell’intero processo di progettazione tecnologica. Così si garantisce che, laddove fallisca l’attuazione di standard del settore, i governi siano in grado di intervenire per promuovere e proteggere i diritti umani.

Le questioni relative alla governance algoritmica e/o alla regolamentazione sono prerogative di ordine pubblico e non devono essere essere lasciate ai soli attori privati. Mentre questi ultimi possono impegnarsi nel definire misure volontarie per promuovere la trasparenza e la responsabilità nelle loro operazioni ed hanno il dovere di diligenza nei confronti dei propri utenti nonché la responsabilità di rispettare i diritti umani, il compito di ideare meccanismi completi ed efficaci per garantire la responsabilità algoritmica ricade sugli Stati.

Questo è fondamentale non solo a causa dell’importante impatto delle tecniche e dell’elaborazione automatizzata dei dati sull’ esercizio e godimento dei diritti umani, ma anche per la loro capacità di espandersi, rafforzare e ridistribuire potere, autorità e risorse nella società.

È importante sottolineare che potrebbero esserci aree di interazione sociale e umana in cui i sistemi decisionali algoritmici non sono appropriati. L’ elaborazione automatizzata dei dati (e la conseguente decisione automatica) non è particolarmente indicata nella creazione di sistemi atti a promuovere lo sviluppo della società o a risolvere nuove sfide complesse per le generazioni future, poiché è probabile che ciò provochi più danni che benefici. Pertanto è fondamentale garantire che il ricorso all’automazione venga escluso in determinati settori dove essa non sia appropriata dal punto di vista della tutela dei diritti umani.

Purtroppo, come spesso accade nel campo dell’innovazione tecnologica, il dibattito pubblico e lo studio delle effettive implicazioni di sistemi decisionali automatici sui diritti dell’uomo sono ampiamente in ritardo rispetto all’evoluzione tecnologica e devono essere rapidamente ripresi e rafforzati per garantire che i diritti umani e gli interessi degli individui siano salvaguardati in modo efficace e sostenibile, in linea con i valori dettati dalla normativa europea e dai trattati internazionali.

Come trarre vantaggi dai sistemi di intelligenza artificiale

Alla luce di tali considerazioni e sulla base di quanto sostenuto anche nelle opportune sedi comunitarie, si ritiene necessario definire alcuni punti fermi per trarre reali vantaggi dallo sviluppo, implementazione ed applicazione di sistemi di intelligenza artificiale nella nostra società:

  • Gli enti pubblici e gli attori non statali indipendenti dovrebbero sostenere la ricerca sui risvolti giuridici, etici e sociali del processo decisionale algoritmico, impegnandosi in progetti multidisciplinari, orientati alla soluzione di problemi ed allo scambio di buone pratiche.
  • Gli enti pubblici devono essere ritenuti responsabili delle decisioni che prendono sulla base di processi algoritmici. Dovrebbe essere incoraggiata l’adozione di meccanismi che facilitino il risarcimento per le persone che sono influenzate negativamente dall’algoritmo.
  • Gli sviluppi tecnologici dovrebbero essere attentamente monitorati ed analizzati con riferimento ai potenziali impatti negativi, con particolare attenzione all’uso dell’algoritmo ed alle tecniche di elaborazione durante le elezioni e le campagne elettorali.
  • La consapevolezza ed il confronto pubblico sono di fondamentale importanza. Tutti i mezzi disponibili dovrebbero essere utilizzati per informare e coinvolgere l’apparato pubblico in generale in modo che gli utenti abbiano la possibilità ed i mezzi per comprendere ed affrontare criticamente la logica e il funzionamento degli algoritmi. Ciò comporta innanzitutto la promozione di campagne di informazione e alfabetizzazione, ma non è sufficiente. Bisogna prevedere che le Istituzioni che utilizzano processi algoritmici forniscano informazioni facilmente accessibili sulle procedure seguite dai sistemi informatici per arrivare a determinate decisioni. Ovviamente, va responsabilizzato anche il settore privato e quindi le aziende che sviluppano i sistemi analitici utilizzati in processi decisionali algoritmici, al fine di creare consapevolezza e comprensione, rispetto ai possibili pregiudizi derivanti dalla progettazione e dall’uso di algoritmi.
  • Vanno incoraggiati meccanismi di certificazione e verifica delle tecniche di trattamento automatizzato dei dati per garantire la loro conformità al rispetto dei diritti umani. Anche in tale ambito deve essere sempre privilegiato l’approccio by design e by default sia in ambito pubblico che privato che si fondi su un’attenta valutazione del rischio durante lo sviluppo del software.
  • Gli Stati non devono imporre ai provider (intermediari della Rete) un obbligo generale di utilizzo delle tecniche automatizzate per monitorare le informazioni che trasmettono, memorizzano o comunque registrano, in quanto tale monitoraggio viola la privacy degli utenti ed ha un effetto dissuasivo sulla libertà di espressione.
  • Gli enti pubblici dovrebbero impegnarsi con tutti gli organismi di regolazione della nostra società (compagnie di assicurazioni, agenzie di credito, banche, portali e-commerce e altro) nello sviluppo di standard specifici e linee guida, al fine di garantire un’adeguata risposta alle continue sfide derivanti dall’utilizzo di processi decisionali automatizzati, tenendo conto degli interessi dei consumatori e del pubblico in generale.
  • Considerata la complessità del settore, la consapevolezza dell’apparato pubblico, per quanto importante, non sarà sufficiente. C’è un evidente bisogno di ulteriori contesti, istituzioni, organismi, reti in cui le diverse forme di decisioni algoritmiche vengano analizzate e valutate. Tutte le parti sociali interessate dovrebbero impegnarsi in tale sforzo.
  • Il Consiglio d’Europa, in quanto principale organizzazione per i diritti umani del continente, è la sede appropriata per esplorare ulteriormente gli impatti sull’effettivo esercizio di diritti umani del crescente utilizzo dell’elaborazione automatizzata dei dati e del relativo processo decisionale in ambito pubblico e privato.
  • Gli obiettivi concorrenti di proteggere i consumatori e più in generale gli utenti finali da effetti pregiudizievoli dei sistemi di IA, promuovendo contemporaneamente l’innovazione, devono quindi diventare propri del legislatore. A questo proposito, il sistema normativo più efficace deve combinare più strumenti: norme giuridiche, norme e standard tecnici, codici di condotta e best practices. In questo modo sarà possibile garantire la certezza, la flessibilità, la precisione ed anche l’interpretazione più corretta di fronte a determinati dubbi.

Non bisogna dimenticare che le nuove tecnologie hanno spesso effetti dirompenti, imponendo cambiamenti radicali nello stile di vita, nell’economia e nel comportamento sociale delle persone, per cui la discussione sui benefici e sui pericoli delle nuove tecnologie è sempre molto accesa. La tecnologia solitamente viene definita neutrale, ma è l’uomo che decide se usarla per scopi buoni o cattivi.

Esiste, quindi, un problema di educazione sociale e consapevolezza sociale, che non serve solo ad indirizzare il comportamento umano nella direzione corretta, ma anche a mantenere alta l’attenzione sui pericoli che non sono intrinseci ad una tecnologia in sé ma che possono derivare dai suoi utilizzi impropri o effetti inattesi.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati