Il Consiglio di Sicurezza dell’ONU si è recentemente espresso con preoccupazione sulle prospettive evolutive dell’Intelligenza Artificiale Generativa, sottolineando l’urgenza prioritaria di un indispensabile sforzo collettivo della comunità internazionale in grado di assicurare lo sviluppo etico, responsabile e sostenibile dell’IA mediante l’adozione condivisa di standard equi, trasparenti e inclusivi.
Tanto che l’ONU ha annunciato il lancio di un’agenzia dedicata all’IA.
Questo per evitare, prima che sia troppo tardi, il dilagante avvento del lato oscuro dell’innovazione digitale: l’impatto pervasivo delle nuove tecnologie emergenti potrebbe, infatti, compromettere la salvaguardia fondamentale dei diritti umani a causa di pregiudizi e discriminazioni riscontrabili nella progettazione tecnica dei sistemi algoritmici, unitamente al paventato rischio di campagne massive di disinformazione fuori controllo, tenuto altresì conto del ricorso massivo a meccanismi autoritativi di sorveglianza, controllo e censura digitale a discapito dei diritti fondamentali delle persone.
Il doppio volto dell’Intelligenza Artificiale
Il doppio volto dell’Intelligenza Artificiale si materializza come effetto collaterale determinato dalle imprevedibili e inimmaginabili potenzialità applicative di sempre più sofisticati servizi e prodotti tecnologici che, al netto degli indiscutibili benefici positivi per il progresso scientifico, culturale e sociale, possono però, al contempo, costituire una seria minaccia per la pace, la sicurezza e la stabilità globale se si affermano, come sembra rapidamente prefigurarsi nella concreta prassi, implementazioni sperimentali abusive, improprie e pericolose.
Proprio per tale ragione, non si può pensare di affidare integralmente l’elaborazione progettuale tecnica dei sistemi di IA al settore privato secondo esclusive logiche profittevoli di carattere imprenditoriale, senza una necessaria attività vincolante di supervisione e regolamentazione realizzata dagli attori pubblici mediante efficaci interventi definiti all’esito degli ordinari processi decisionali configurabili nell’ambito del circuito democratico degli apparati istituzionali.
Una regolamentazione fondata sul rispetto dei diritti umani
In tale prospettiva, al fine di sostenere il processo di innovazione digitale con l’intento di garantire la fruizione diffusa e generale dei vantaggi offerti dalle nuove tecnologie, si pone l’esigenza di minimizzare i rischi che possono pregiudicare la tutela delle persone, esposte al rischio di insidie inedite e oltremodo subdole che l’Intelligenza Artificiale Generativa potrebbe incorporare nel funzionamento tecnico delle sue applicazioni.
Pertanto, per mantenere un inderogabile approccio “umano-centrico” nello sviluppo applicativo dei sistemi di IA, lungi dal ritenere auto-sufficiente la valenza applicativa della “self-regulation” del settore privato, emerge la necessità di predisporre, mediante un diretto intervento cogente di tipo esogeno (rimesso al settore pubblico), una “regolamentazione fondata sul rispetto dei diritti umani”.
In particolare, secondo le osservazioni evidenziate dal Segretario Generale ONU Guterres, l’impressionate velocità evolutiva dell’Intelligenza Artificiale Generativa (desumibile, tra l’altro, dalla Risoluzione 73/17 – “Impact of rapid technological change on the achievement of the Sustainable Development Goals and targets”), pur senza disconoscere i vantaggi associati al miglioramento generale realizzabile a livello globale come opportunità senza dubbio positiva nell’interesse della collettività (anche in perfetta linea con quanto previsto dall’Agenda 2030 per lo sviluppo sostenibile), potrebbe però rivelarsi estremamente pericolosa. A fronte degli eventuali usi delle tecnologie emergenti per finalità terroristiche, illecite e criminose, si possono, infatti, verificare rilevanti pregiudizi su larga scala sia per la vulnerabilità della sfera individuale delle persone, sia delle infrastrutture nazionali critiche a presidio degli interessi vitali degli Stati. Tale scenario, già di per sé complesso e delicato, è reso ancor più problematico dalle rilevanti ripercussioni bio-etiche, belliche e nucleari che l’Intelligenza Artificiale è in grado di determinare con esiti potenzialmente catastrofici per l’umanità.
L’approccio strategico delle Nazioni Unite
L’allarme lanciato dalle Nazioni Unite è perentorio e richiede, nell’ambito di una sinergica cooperazione multilaterale con i governi nazionali, la predisposizione, sotto l’egida dell’ONU, di un intervento tempestivo e urgente per contenere, in ottica preventiva, l’impatto dannoso dei sistemi di IA Generativa, mediante l’emanazione uniforme di normative in grado di assicurare una tutela rafforzata a presidio della privacy e di ogni altro diritto fondamentale degli individui, nel rispetto di adeguati parametri di trasparenza, sicurezza e accessibilità che presuppongono una costante valutazione periodica sugli impatti applicativi dell’IA.
Per orientare una simile prospettiva regolatoria, oltre a sensibilizzare il tessuto imprenditoriale, l’industria tecnologica e, in generale, le organizzazioni settoriali e la società civile con l’intento di sviluppare linee guida operative aggiornate in materia, le Nazioni Unite sono attivamente impegnate a formulare raccomandazioni, come base giuridica non vincolante utilizzabile nell’emanazione di atti normativi efficaci sulla governance dell’IA coerente con la salvaguardia dei diritti umani.
Pertanto, oltre al necessario potenziamento degli investimenti destinati a ridurre il “gap” tra gli Stati tecnologicamente avanzati e i Paesi in via di sviluppo, prendendo atto della generale trasformazione operata dall’IA sulla società, è stato definito, in senso alle Nazioni Unite, un approccio strategico integrato da una tabella di marcia per sostenere lo sviluppo delle capacità in materia di Intelligenza Artificiale, da cui si evince l’obiettivo di promuovere l’uso di tale tecnologia emergente nel rispetto dei diritti umani, garantendone uno sviluppo aperto, inclusivo e generale senza discriminazioni tra gli utenti.
Il gruppo di lavoro inter-agenzia sull’IA (IAWG-AI)
In attuazione della menzionata strategia, è stato istituito il gruppo di lavoro inter-agenzia sull’IA (IAWG-AI) , co-guidato dall’UNESCO e dall’ITU, per riunire le competenze del sistema delle Nazioni Unite sull’Intelligenza Artificiale, con l’obiettivo di garantire un costante supporto di coordinamento collaborativo nella condivisione di buone pratiche e di risultati realizzati in materia, facilitando lo scambio di informazioni, con particolare attenzione agli impatti etici dell’IA, con l’ulteriore compito di intensificare la promozione di iniziative formative di apprendimento delle competenze in grado di assicurare l’effettiva realizzazione dei progetti predisposti a livello operativo.
I principi per l’uso etico dell’Intelligenza Artificiale nel sistema ONU
Contestualmente, sono stati, inoltre, adottati una serie di principi per l’uso etico dell’Intelligenza Artificiale nel sistema delle Nazioni Unite (in conformità alla Raccomandazione sull’etica dell’Intelligenza Artificiale formulata dalla Conferenza generale dell’UNESCO nel 2021).
Gli obiettivi dei principi formulati dalle Nazioni Unite
In particolare, per garantire il rispetto della dignità umana, l’uguaglianza degli esseri umani, la salvaguardia dell’ambiente, della biodiversità e degli ecosistemi, i principi formulati dalle Nazioni Unite mirano ad orientare la progettazione, lo sviluppo, la diffusione e l’uso dell’Intelligenza Artificiale come tecnologia definita in senso lato e generale per indicare tutti “i sistemi dotati della capacità di elaborare automaticamente dati e informazioni in modo simile ad comportamento umano intelligente” mediante il ricorso a processi di “ragionamento, apprendimento, percezione, previsione, pianificazione o controllo”.
Più precisamente, coerentemente con i predetti principi generali, i sistemi di Intelligenza Artificiale non devono essere utilizzati per causare danni, individuali o collettivi, assicurando, durante l’integrale ciclo di vita di qualsivoglia applicazione tecnologica, la tutela dei diritti umani e delle libertà fondamentali (“Do no harm”).
Inoltre, l’utilizzo dei sistemi di Intelligenza Artificiale deve avvenire nel rispetto dei canoni di necessità e proporzionalità avuto riguardo agli scopi concreti legittimamente perseguiti (“Defined purpose, necessity and proportionality”), secondo adeguati requisiti di sicurezza e protezione (“Safety and security”), finalizzati a prevenire pregiudizi effettivi o potenziali per le persone, mediante l’implementazione di procedure corrette e non discriminatorie (“Fairness and non-discrimination”), a presidio della privacy individuale (“Right to privacy, data protection and data governance”).
Viene, altresì, invocata la necessità di una costante supervisione umana nell’implementazione tecnica delle applicazioni dell’IA durante tutte le fasi di sviluppo (“Human autonomy and oversight”), nell’ambito di un processo trasparente di conoscibilità e spiegabilità algoritmica dei sistemi tecnologici (“Transparency and explainability”), anche grazie all’adozione di efficaci meccanismi di valutazione d’impatto, audit e due diligence da cui discendono specifici addebiti di responsabilità in caso di violazione dei relativi adempimenti (“Responsibility and accountability”). Infine, in sede di progettazione dei sistemi di Intelligenza Artificiale, le Nazioni Unite ritengono indispensabile valorizzare un approccio inclusivo, interdisciplinare e partecipativo, anche mediante lo svolgimento periodico di consultazioni con tutti gli stakeholders portatori di interessi rilevanti nei processi decisionali da definire, al fine di identificare tutti i possibili pericoli, procedendo alla predisposizione di adeguate misure di prevenzione e di mitigazione dei rischi rilevati (“Inclusion and participation”).
Conclusioni
Rispetto alla cornice generale ivi delineata, sembra giunto il momento di passare dalle parole ai fatti mediante l’attuazione di azioni concrete per realizzare, sul piano pratico, la visione strategica formalizzata ancora in sede teorica mediante la mera formulazione di orientamenti non vincolanti, destinati a restare soltanto semplici buone intenzioni, qualora non si proceda ancora alla predisposizione dei relativi interventi specificamente enunciati senza più ulteriormente indugiare o ritardarne l’effettiva adozione. Resta però sullo sfondo il problema di stabilire quale forma di regolamentazione (soft-law o di tipo cogente) risulti più adatta a orientare lo sviluppo sostenibile dell’Intelligenza Artificiale nel perseguimento dei previsti obiettivi. A maggior ragione se si opta per un modello di cooperazione multilaterale internazionale, ove il mancato consenso di singoli attori statuali (ancorché giustificato dalla salvaguardia delle proprie prerogative nazionali influenzate dall’impatto delle politiche predisposte nel settore tecnologico), potrebbe di fatto paralizzare già in partenza il relativo processo decisionale, bloccando il tentativo di edificare un corpus organico e uniforme di norme condivise a livello globale.