intelligenza artificiale

Allarme ONU sui rischi dell’IA, ma ora servono regole globali



Indirizzo copiato

Le Nazioni Unite segnalano la necessità di adottare standard equi trasparenti e inclusivi per limitare le possibili derive pericolose dell’IA generativa. Ma è forse giunto il momento di passare dalle parole ai fatti

Pubblicato il 20 lug 2023

Angelo Alù

studioso di processi di innovazione tecnologica e digitale



L’intelligenza artificiale ci deve una spiegazione

Il Consiglio di Sicurezza dell’ONU si è recentemente espresso con preoccupazione sulle prospettive evolutive dell’Intelligenza Artificiale Generativa, sottolineando l’urgenza prioritaria di un indispensabile sforzo collettivo della comunità internazionale in grado di assicurare lo sviluppo etico, responsabile e sostenibile dell’IA mediante l’adozione condivisa di standard equi, trasparenti e inclusivi.

Tanto che l’ONU ha annunciato il lancio di un’agenzia dedicata all’IA.

Questo per evitare, prima che sia troppo tardi, il dilagante avvento del lato oscuro dell’innovazione digitale: l’impatto pervasivo delle nuove tecnologie emergenti potrebbe, infatti, compromettere la salvaguardia fondamentale dei diritti umani a causa di pregiudizi e discriminazioni riscontrabili nella progettazione tecnica dei sistemi algoritmici, unitamente al paventato rischio di campagne massive di disinformazione fuori controllo, tenuto altresì conto del ricorso massivo a meccanismi autoritativi di sorveglianza, controllo e censura digitale a discapito dei diritti fondamentali delle persone.

Il doppio volto dell’Intelligenza Artificiale

Il doppio volto dell’Intelligenza Artificiale si materializza come effetto collaterale determinato dalle imprevedibili e inimmaginabili potenzialità applicative di sempre più sofisticati servizi e prodotti tecnologici che, al netto degli indiscutibili benefici positivi per il progresso scientifico, culturale e sociale, possono però, al contempo, costituire una seria minaccia per la pace, la sicurezza e la stabilità globale se si affermano, come sembra rapidamente prefigurarsi nella concreta prassi, implementazioni sperimentali abusive, improprie e pericolose.

Proprio per tale ragione, non si può pensare di affidare integralmente l’elaborazione progettuale tecnica dei sistemi di IA al settore privato secondo esclusive logiche profittevoli di carattere imprenditoriale, senza una necessaria attività vincolante di supervisione e regolamentazione realizzata dagli attori pubblici mediante efficaci interventi definiti all’esito degli ordinari processi decisionali configurabili nell’ambito del circuito democratico degli apparati istituzionali.

Una regolamentazione fondata sul rispetto dei diritti umani

In tale prospettiva, al fine di sostenere il processo di innovazione digitale con l’intento di garantire la fruizione diffusa e generale dei vantaggi offerti dalle nuove tecnologie, si pone l’esigenza di minimizzare i rischi che possono pregiudicare la tutela delle persone, esposte al rischio di insidie inedite e oltremodo subdole che l’Intelligenza Artificiale Generativa potrebbe incorporare nel funzionamento tecnico delle sue applicazioni.

Pertanto, per mantenere un inderogabile approccio “umano-centrico” nello sviluppo applicativo dei sistemi di IA, lungi dal ritenere auto-sufficiente la valenza applicativa della “self-regulation” del settore privato, emerge la necessità di predisporre, mediante un diretto intervento cogente di tipo esogeno (rimesso al settore pubblico), una “regolamentazione fondata sul rispetto dei diritti umani”.

In particolare, secondo le osservazioni evidenziate dal Segretario Generale ONU Guterres, l’impressionate velocità evolutiva dell’Intelligenza Artificiale Generativa (desumibile, tra l’altro, dalla Risoluzione 73/17 – “Impact of rapid technological change on the achievement of the Sustainable Development Goals and targets”), pur senza disconoscere i vantaggi associati al miglioramento generale realizzabile a livello globale come opportunità senza dubbio positiva nell’interesse della collettività (anche in perfetta linea con quanto previsto dall’Agenda 2030 per lo sviluppo sostenibile), potrebbe però rivelarsi estremamente pericolosa. A fronte degli eventuali usi delle tecnologie emergenti per finalità terroristiche, illecite e criminose, si possono, infatti, verificare rilevanti pregiudizi su larga scala sia per la vulnerabilità della sfera individuale delle persone, sia delle infrastrutture nazionali critiche a presidio degli interessi vitali degli Stati. Tale scenario, già di per sé complesso e delicato, è reso ancor più problematico dalle rilevanti ripercussioni bio-etiche, belliche e nucleari che l’Intelligenza Artificiale è in grado di determinare con esiti potenzialmente catastrofici per l’umanità.

L’approccio strategico delle Nazioni Unite

L’allarme lanciato dalle Nazioni Unite è perentorio e richiede, nell’ambito di una sinergica cooperazione multilaterale con i governi nazionali, la predisposizione, sotto l’egida dell’ONU, di un intervento tempestivo e urgente per contenere, in ottica preventiva, l’impatto dannoso dei sistemi di IA Generativa, mediante l’emanazione uniforme di normative in grado di assicurare una tutela rafforzata a presidio della privacy e di ogni altro diritto fondamentale degli individui, nel rispetto di adeguati parametri di trasparenza, sicurezza e accessibilità che presuppongono una costante valutazione periodica sugli impatti applicativi dell’IA.

Per orientare una simile prospettiva regolatoria, oltre a sensibilizzare il tessuto imprenditoriale, l’industria tecnologica e, in generale, le organizzazioni settoriali e la società civile con l’intento di sviluppare linee guida operative aggiornate in materia, le Nazioni Unite sono attivamente impegnate a formulare raccomandazioni, come base giuridica non vincolante utilizzabile nell’emanazione di atti normativi efficaci sulla governance dell’IA coerente con la salvaguardia dei diritti umani.

Pertanto, oltre al necessario potenziamento degli investimenti destinati a ridurre il “gap” tra gli Stati tecnologicamente avanzati e i Paesi in via di sviluppo, prendendo atto della generale trasformazione operata dall’IA sulla società, è stato definito, in senso alle Nazioni Unite, un approccio strategico integrato da una tabella di marcia per sostenere lo sviluppo delle capacità in materia di Intelligenza Artificiale, da cui si evince l’obiettivo di promuovere l’uso di tale tecnologia emergente nel rispetto dei diritti umani, garantendone uno sviluppo aperto, inclusivo e generale senza discriminazioni tra gli utenti.

Il gruppo di lavoro inter-agenzia sull’IA (IAWG-AI)

In attuazione della menzionata strategia, è stato istituito il gruppo di lavoro inter-agenzia sull’IA (IAWG-AI) , co-guidato dall’UNESCO e dall’ITU, per riunire le competenze del sistema delle Nazioni Unite sull’Intelligenza Artificiale, con l’obiettivo di garantire un costante supporto di coordinamento collaborativo nella condivisione di buone pratiche e di risultati realizzati in materia, facilitando lo scambio di informazioni, con particolare attenzione agli impatti etici dell’IA, con l’ulteriore compito di intensificare la promozione di iniziative formative di apprendimento delle competenze in grado di assicurare l’effettiva realizzazione dei progetti predisposti a livello operativo.

I principi per l’uso etico dell’Intelligenza Artificiale nel sistema ONU

Contestualmente, sono stati, inoltre, adottati una serie di principi per l’uso etico dell’Intelligenza Artificiale nel sistema delle Nazioni Unite (in conformità alla Raccomandazione sull’etica dell’Intelligenza Artificiale formulata dalla Conferenza generale dell’UNESCO nel 2021).

Gli obiettivi dei principi formulati dalle Nazioni Unite

In particolare, per garantire il rispetto della dignità umana, l’uguaglianza degli esseri umani, la salvaguardia dell’ambiente, della biodiversità e degli ecosistemi, i principi formulati dalle Nazioni Unite mirano ad orientare la progettazione, lo sviluppo, la diffusione e l’uso dell’Intelligenza Artificiale come tecnologia definita in senso lato e generale per indicare tutti “i sistemi dotati della capacità di elaborare automaticamente dati e informazioni in modo simile ad comportamento umano intelligente” mediante il ricorso a processi di “ragionamento, apprendimento, percezione, previsione, pianificazione o controllo”.

Più precisamente, coerentemente con i predetti principi generali, i sistemi di Intelligenza Artificiale non devono essere utilizzati per causare danni, individuali o collettivi, assicurando, durante l’integrale ciclo di vita di qualsivoglia applicazione tecnologica, la tutela dei diritti umani e delle libertà fondamentali (“Do no harm”).

Inoltre, l’utilizzo dei sistemi di Intelligenza Artificiale deve avvenire nel rispetto dei canoni di necessità e proporzionalità avuto riguardo agli scopi concreti legittimamente perseguiti (“Defined purpose, necessity and proportionality”), secondo adeguati requisiti di sicurezza e protezione (“Safety and security”), finalizzati a prevenire pregiudizi effettivi o potenziali per le persone, mediante l’implementazione di procedure corrette e non discriminatorie (“Fairness and non-discrimination”), a presidio della privacy individuale (“Right to privacy, data protection and data governance”).

Viene, altresì, invocata la necessità di una costante supervisione umana nell’implementazione tecnica delle applicazioni dell’IA durante tutte le fasi di sviluppo (“Human autonomy and oversight”), nell’ambito di un processo trasparente di conoscibilità e spiegabilità algoritmica dei sistemi tecnologici (“Transparency and explainability”), anche grazie all’adozione di efficaci meccanismi di valutazione d’impatto, audit e due diligence da cui discendono specifici addebiti di responsabilità in caso di violazione dei relativi adempimenti (“Responsibility and accountability”). Infine, in sede di progettazione dei sistemi di Intelligenza Artificiale, le Nazioni Unite ritengono indispensabile valorizzare un approccio inclusivo, interdisciplinare e partecipativo, anche mediante lo svolgimento periodico di consultazioni con tutti gli stakeholders portatori di interessi rilevanti nei processi decisionali da definire, al fine di identificare tutti i possibili pericoli, procedendo alla predisposizione di adeguate misure di prevenzione e di mitigazione dei rischi rilevati (“Inclusion and participation”).

Conclusioni

Rispetto alla cornice generale ivi delineata, sembra giunto il momento di passare dalle parole ai fatti mediante l’attuazione di azioni concrete per realizzare, sul piano pratico, la visione strategica formalizzata ancora in sede teorica mediante la mera formulazione di orientamenti non vincolanti, destinati a restare soltanto semplici buone intenzioni, qualora non si proceda ancora alla predisposizione dei relativi interventi specificamente enunciati senza più ulteriormente indugiare o ritardarne l’effettiva adozione. Resta però sullo sfondo il problema di stabilire quale forma di regolamentazione (soft-law o di tipo cogente) risulti più adatta a orientare lo sviluppo sostenibile dell’Intelligenza Artificiale nel perseguimento dei previsti obiettivi. A maggior ragione se si opta per un modello di cooperazione multilaterale internazionale, ove il mancato consenso di singoli attori statuali (ancorché giustificato dalla salvaguardia delle proprie prerogative nazionali influenzate dall’impatto delle politiche predisposte nel settore tecnologico), potrebbe di fatto paralizzare già in partenza il relativo processo decisionale, bloccando il tentativo di edificare un corpus organico e uniforme di norme condivise a livello globale.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2