scenari

Un’IA etica è possibile? Ecco i principi a tutela degli esseri umani



Indirizzo copiato

Da quella dell’Unesco alla Commissione europea, sono molte le iniziative volte a porre le basi di un’intelligenza artificiale etica e affidabile. Ma l’interrogativo di fondo rimane ed è pervasivo: è quindi possibile sviluppare un’IA antropocentrica?

Pubblicato il 3 ago 2023

Valentina Grazia Sapuppo

Legal, Privacy & Cybersecurity Advisor



Prospettive dell'Occupazione Ocse 2023

Già nel 1950 Norbert Wiener, il padre della cibernetica si preoccupò di trovare un modo per sviluppare nuove tecnologie ‘antropocentriche’.

Oggi, a qualche settimana dalla pubblicazione della versione definitiva dell’AI Act, la protezione degli esseri umani è posta certamente innanzi allo sviluppo di potenti sistemi di Intelligenza Artificiale – IA. Ma l’interrogativo rimane ed è pervasivo: è quindi possibile sviluppare una Intelligenza Artificiale etica?

Intelligenza artificiale etica: l’impegno Unesco

I sistemi di IA, secondo la Commissione europea, possono e contribuire a facilitare il conseguimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite, come la promozione dell’equilibrio di genere e la lotta ai cambiamenti climatici, la razionalizzazione dell’uso delle risorse naturali, il miglioramento della salute, della mobilità e dei processi produttivi e il sostegno al monitoraggio dei progressi compiuti rispetto agli indicatori di sostenibilità e coesione sociale.”

Protagonista centrale dello sviluppo di sistemi di IA che possano considerarsi “etici” è l’UNESCO, la quale “ha identificato le sfide di frontiera in settori come l’etica della neurotecnologia, l’ingegneria climatica e l’Internet Of Things – IoT”.

“Che si tratti di ricerca genetica, cambiamento climatico o ricerca scientifica, l’UNESCO ha fornito standard globali per massimizzare i benefici delle scoperte scientifiche, assicurando un mondo più inclusivo, sostenibile e pacifico.”

Nel 2021, dopo anni di intenso lavoro, l’UNESCO ha prodotto la “Raccomandazione sull’etica dell’intelligenza artificiale“, il primo standard globale sull’etica dell’IA il cui cuore pulsante è la protezione dei diritti e della dignità dell’essere umano.

La Raccomandazione è stata adottata da 193 Stati membri. L’obiettivo è quello di garantire sempre e comunque, nonostante i dirompenti sviluppi dei sistemi di IA, la pace, la diversità e l’inclusività e la tutela dell’ambiente.

“Questo testo storico definisce i valori e i principi comuni che guideranno la costruzione dell’infrastruttura legale necessaria per garantire il sano sviluppo dell’IA.”

I dieci principi fondamentali per un’IA etica

Sono, invece, dieci i principi dichiarati come fondamentali per garantire un approccio dei sistemi di Intelligenza Artificiale incentrato sui diritti umani e orientato all’etica:

  • proporzionalità e divieto di nuocere;
  • sicurezza e protezione;
  • diritto alla privacy e alla protezione dei dati;
  • governance e collaborazione multi-stakeholder e adattativa;
  • responsibility and accountability;
  • trasparenza e spiegabilità;
  • supervisione e determinazione umana;
  • sostenibilità;
  • consapevolezza e alfabetizzazione;
  • equità e non discriminazione.

Il pregio principale della Raccomandazione è quello per cui la stessa si è preoccupata di supportare gli Stati aderenti indicando 11 aree chiave per le azioni politiche e fornendo la Readiness Assessment Methodology – RAM, una metodologia per comprendere lo stato dell’arte al fine di identificare i gap di implementazione, e la Ethical Impact Assessment – EIA “strumento fondamentale per identificare, monitorare e valutare i benefici, le preoccupazioni e i rischi dei sistemi di IA, nonché per prevedere le conseguenze, mitigare i rischi, evitare esiti dannosi e affrontare le sfide sociali”.

Immagine che contiene testo, cerchio, compact diskDescrizione generata automaticamente

Nel 2022 sono stati esplicitati ulteriormente i “dieci principi per l’uso etico dell’intelligenza artificiale nel sistema delle Nazioni Unite” basati sulla Raccomandazione sopraesposta e sviluppati dall’Inter-Agency Working Group on Artificial Intelligence, co-guidato dall’UNESCO e dall’ITU. Lo strumento a supporto dei 193 Stati è “destinato ad essere letto con altre politiche correlate e diritto internazionale.”

Nel 2023 l’UNESCO ha aggiornato la Raccomandazione sull’etica dell’Intelligenza Artificiale e presenterà nel dicembre 2023 in Slovenia, al Forum globale dell’UNESCO sull’Etica dell’Intelligenza Artificiale, una relazione sui progressi.

Il 27 giugno scorso, infine, un comunicato stampa ha reso noto il partenariato tra l’UNESCO e l’Unione Europea per accelerare l’attuazione delle norme etiche, grazie al quale sarà stanziato un budget di 4 milioni di euro, per sostenere i paesi meno sviluppati nell’istituzione della propria legislazione nazionale sui temi delle nuove tecnologie e dei nuovi sistemi di Intelligenza Artificiale, e verrà istituito l’AI Ethics Experts without Borders – AIEB, una struttura globale di esperti che ha lo scopo di “fornire supporto su richiesta e consulenza politica su misura per migliorare la capacità delle istituzioni degli Stati membri di attuare la raccomandazione”.

Anche in Europa l’uomo è al centro

Tra le iniziative volte a dare vita a una Intelligenza Artificiale affidabile, la Commissione europea già da qualche anno ha manifestato la propria vision a sostegno dello sviluppo di una regolamentazione e di una IA ‘made in Europe’ etica, sicura e all’avanguardia.

Nel 2018, tenuto conto delle nuove applicazioni dei sistemi di IA al settore giustizia, per evitare di sfociare in situazioni estreme come quelle che hanno caratterizzato il noto caso Loomis trattato al cospetto della Corte Suprema del Wisconsin, la Commissione Europea per l’Efficienza della Giustizia – CEPEJ ha pubblicato la “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi”.

Nei primi mesi del 2019, il Gruppo di 52 esperti di alto livello sull’IA – istituito dalla Commissione Europea nel 2018 – ha presentato un report dal titolo “Ethics Guidelines for Trustworthy Artificial Intelligence” e ha avviato una fase pilota conclusasi nel dicembre dello stesso anno.

L’obiettivo perseguito era quello di creare le fondamenta affinché gli esseri umani e le comunità potessero sviluppare una fiducia nello sviluppo delle nuove tecnologie.

Il report Orientamenti etici per un’IA affidabile”, consultabile anche nella sua versione in lingua italiana, consta di diversi capitoli che vanno dal tema relativo alla definizione delle basi per considerare affidabile un sistema di Intelligenza Artificiale, sino a individuare i requisiti di realizzazione e analisi di una di sistemi di IA che li implementi pienamente.

Come si legge dall’introduzione al documento, si tratta di orientamenti che “definiscono un quadro di riferimento per ottenere un’IA affidabile basata sui diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea e dal pertinente diritto internazionale in materia di diritti umani” e che “sono rivolti a tutti i portatori di interessi e intendono offrire qualcosa in più di un semplice elenco di principi etici, fornendo indicazioni su come tali principi possano essere resi operativi in sistemi sociotecnici. Essi sono forniti su tre livelli di astrazione, dal più astratto capitolo I al più concreto capitolo III, e si concludono con esempi di opportunità e di serie preoccupazioni generate dai sistemi di IA.”

I requisiti chiave per un’IA affidabile

In combinazione alla protezione dei diritti fondamentali e all’osservanza dei principi etici quali il rispetto dell’autonomia umana, la prevenzione dei danni, l’equità e l’esplicabilità, sette sono i requisiti chiave che devono essere presenti e garantiti:

  • meccanismi di intervento e supervisione umana;
  • resilienza e sicurezza;
  • riservatezza e governance dei dati;
  • trasparenza e tracciabilità dei sistemi e dei modelli;
  • diversità, non discriminazione e equità;
  • benessere sociale e ambientale – tema ripreso dalla Commissione Europea nel 2021 con il documento “Humans and societies in the age of artificial intelligence”;
  • accountability.
Immagine che contiene testo, cerchio, diagramma, CarattereDescrizione generata automaticamente

Secondo le Linee guida, un sistema di Intelligenza Artificiale è affidabile se vanta i caratteri della:

  • legalità;
  • eticità;
  • robustezza, dal punto di vista tecnico e sociale, necessaria al fine di ridurre al massimo i rischi di danni involontari.

“Ciascuna di queste tre componenti è necessaria ma non sufficiente in sé per realizzare un’IA affidabile.” Pertanto, si richiede che tali sistemi rispettino i diritti fondamentali sanciti nella Carta Europea dei Diritti dell’Uomo – dignità umana, libertà individuale, rispetto della democrazia, della giustizia e dello Stato di diritto, uguaglianza e solidarietà – tutte le leggi e i regolamenti applicabili, i valori e i principi etici – sia nello sviluppo sia nella distribuzione e nel loro utilizzo – e, infine, il codice del sistema di IA dovrà essere capace di comportarsi in modo ragionevole, anche in situazioni impreviste e/o imprevedibili.

Immagine che contiene testo, schermata, Carattere, designDescrizione generata automaticamente

Inoltre, al fine poter realizzare Audit su tali sistemi di IA, il report predispone una lista di controllo per la valutazione dell’affidabilità dell’IA in tutto il suo ciclo vitale, che le aziende che sviluppano e/o immettono tali sistemi sul mercato dovrebbero realizzare per la conduzione di self assessment per tutte le fasi del ciclo di vita, dallo sviluppo alla distribuzione o utilizzo.

Immagine che contiene testo, Carattere, schermata, diagrammaDescrizione generata automaticamente

IA affidabile: la proposta del Gruppo di esperti nominati dalla Ue

Ma “proprio come l’utilizzo dei sistemi di IA non si ferma alle frontiere nazionali, così anche i loro effetti; sono quindi necessarie soluzioni globali per le opportunità e le sfide globali che accompagnano l’IA.”

Ecco che la proposta del Gruppo di esperti nominati dalla Commissione Europea è quella di incoraggiare iniziative scaturenti da parte di tutti i portatori di interessi, al fine di creare un quadro di riferimento globale per un’Intelligenza Artificiale affidabile, promuovendo un consenso internazionale verso un approccio basato sui diritti fondamentali. L’obiettivo della strategia europea, infatti, va oltre i propri confini territoriali.

Le iniziative internazionali

Il Consiglio d’Europa – COE, un’organizzazione di stampo europeo e indipendente, insieme ai suoi 46 Stati membri nel 2019 ha avviato i lavori del Comitato ad hoc sull’intelligenza artificiale – CAHAI, il quale aveva il compito di esaminare la fattibilità di un quadro giuridico per lo sviluppo, la progettazione e l’applicazione di sistemi di IA. Nello svolgimento dei lavori, il CAHAI ha tenuto conto delle norme internazionali ed europee vigenti relative alla progettazione, allo sviluppo e all’applicazione delle tecnologie digitali applicate nei settori dei diritti umani, della democrazia e dello Stato di diritto.

Il CAHAI ha concluso il suo mandato nel 2022 ed è ha passato il testimone al Comitato per l’Intelligenza Artificiale – CAI, al quale è stato assegnato il compito di “elaborare uno strumento giuridicamente vincolante sullo sviluppo, la progettazione e l’applicazione di sistemi di intelligenza artificiale”.

Il progetto portato avanti dal CAI non è altro che una Convenzione Quadro che persegue l’obiettivo di garantire una protezione continua dei diritti umani, nonché l’applicazione del principio dello Stato di diritto in tutti quei contesti in cui i sistemi di Intelligenza Artificiale assistono e/o sostituiscono l’essere umano nell’alveo dei processi decisionali.

“La questione – queste le parole del Presidente del CAI – non è quindi più se vogliamo fare uso di questi potenti strumenti, ma come ci assicuriamo che siano usati solo per il bene dell’umanità.”

Il 6 gennaio 2023 il CAI ha pubblicato il “Progetto Zero riveduto della Convenzione Quadro sull’Intelligenza Artificiale, i diritti umani, la democrazia e lo stato di diritto” nel quale, all’articolo 18, si legge che “le Parti si adoperano per garantire che le questioni fondamentali sollevate dalla progettazione, dallo sviluppo e dall’applicazione dei sistemi di Intelligenza Artificiale siano oggetto di un’adeguata discussione pubblica e di una consultazione multilaterale alla luce, in particolare, delle pertinenti implicazioni sociali, economiche, etiche e giuridiche.”

Conclusioni

Dall’analisi condotta è chiaro che ancora c’è tanto lavoro da fare e non siamo pronti a rispondere al nostro interrogativo “è quindi possibile sviluppare una Intelligenza Artificiale etica?”.

È chiaro però che “il mondo ha bisogno di regole per l’intelligenza artificiale a beneficio dell’umanità.”

Ma è anche chiaro che è necessario “sviluppare un approccio globale comune ai principi di base che dovrebbero governare il modo in cui noi, come umanità, sviluppiamo e utilizziamo i sistemi di intelligenza artificiale”.

Quale orizzonte ci attende allora? Non ci resta che attendere nuovi sviluppi, tenuto conto che “occorre massimizzare i benefici dei sistemi di IA, prevenendone e minimizzandone al tempo stesso i rischi.”

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2