intelligenza artificiale

AI, il mondo la vuole responsabile: ecco tutti i lavori in corso



Indirizzo copiato

Il fermento intorno ai temi dell’IA è altissimo e cresce la consapevolezza sui rischi man mano che gli usi dannosi si moltiplicano, non ostacolati dall’assenza di quadri regolatori adeguati globali e condivisi. Al tempo stesso permane un cauto ottimismo sulla possibilità che l’umanità riesca a rendere “responsabile” ed “etica” l’AI

Pubblicato il 9 nov 2023

Barbara Calderini

Legal Specialist – Data Protection Officer



Coltivando il verso: la sfida di scrivere poesia con GPT4

Accelerare la discussione sull’uso responsabile e la governance delle nuove tecnologie sta diventando una questione urgente per i governi di tutto il mondo, e certamente il mosaico altamente frammentato dei vari regimi normativi non facilita la convergenza dei diversi approcci.

A valle del recente AI Safety Summit, che ha coinvolto noti esponenti e rappresentanti di aziende leader nel settore dell’IA, oltre alle istituzioni politiche, facciamo il punto sul quadro globale delle regolamentazioni sull’IA e sugli ostacoli verso la definizione di norme condivise per un’intelligenza artificiale responsabile.

Regole condivise per un’IA responsabile, una strada in salita

Se da una parte la strategia cinese mira al controllo totalitario della propria società e al predominio in campo scientifico entro il 2030 e quella russa si concentra sulle applicazioni in materia di intelligence, dall’altra, negli Stati Uniti, il modello liberista crea una biforcazione tra settore pubblico e privato, in cui i colossi tecnologici della Silicon Valley puntano alla mercificazione deregolata delle opportunità tecnologiche.

Mentre il ruolo dell’Unione Europea nell’ecosistema digitale globale è in gran parte ancora da decidere.

La promessa di una società digitale europea coerente con le sue radici etiche e costituzionali, in grado di confrontarsi a livello geopolitico con i leader transatlantici e interlocutori, che molto spesso navigano in direzione “ostinata e contraria”, appare un percorso ancora piuttosto indefinito.

La strada si presenta in salita, irta e scivolosa: insidiosa anche per l’incidenza delle stesse geometrie interne dei paesi membri espressione delle velleità di chi cerca di dividere in nome del populismo e del sovranismo. Altrettanto vale per le sfide del costituzionalismo europeo alle prese con i poteri privati in ambito digitale: un tema aperto, complesso e in continua evoluzione.

Rischi dell’IA: l’allarme di Elon Musk

Elon Musk, in occasione dell’AI safety summit del Regno Unito, ha ricordato agli sviluppatori di intelligenza artificiale della Silicon Valley l’importanza di giungere quanto prima a sistemi regolatori efficaci e ha sottolineato la necessità di coinvolgere la Cina nelle regolamentazioni sull’IA. Sebbene alcuni nella Silicon Valley temono che la regolamentazione possa rallentare l’innovazione, secondo Musk, un arbitro (il governo) è comunque imprescindibile al fine di garantire la sicurezza pubblica. Ha quindi ribadito che la regolamentazione potrebbe anche essere fastidiosa, ma pur sempre necessaria. Ha dichiarato di essere d’accordo con la stragrande maggioranza delle attuali normative sebbene non coprano ancora l’intero spettro delle applicazioni di IA e ha avvertito che sarà fondamentale evitare un’accelerazione eccessiva della tecnologia senza idonee cornici normative.

Nonostante gli avvertimenti sui potenziali rischi legati all’IA, Musk è rimasto ottimista sulla tecnologia: infatti, mentre confermava la necessità dei regolamenti, ha anche asserito come l’80% delle probabilità relative all’IA avranno un impatto positivo, con il restante 20% che invece sarebbe potenzialmente idoneo ad avere effetti negativi.

Si è spinto anche oltre.

Siamo di fronte alla forza più distruttiva della storia. Arriverà un punto in cui non sarà più necessario lavorare, nel senso che potrai lavorare solo per soddisfazione personale, ma l’intelligenza artificiale farà tutto” ha sottolineato Musk, che ha continuato “Uno dei miei figli ha difficoltà a farsi degli amici e un amico dotato di intelligenza artificiale sarebbe fantastico per lui (…) una delle sfide del futuro sarà trovare un significato nella vita”.

Questo, in sintesi, è quanto emerso da un’intervista con il primo ministro britannico Rishi Sunak, tenuta al termine del Vertice sulla sicurezza dell’IA nel Regno Unito, in cui 28 paesi, tra cui Stati Uniti, UE, India, Nigeria, Emirati Arabi Uniti e Cina, hanno adottato una dichiarazione storica nota come Dichiarazione di Bletchley, sui rischi e le opportunità dell’IA di frontiera.

Nella stessa sede i principali sviluppatori di IA come Anthropic, Google DeepMind, Alibaba, Meta Platforms, Tencent e OpenAI hanno concordato di collaborare più strettamente con alcuni governi per valutare i modelli in termini di sicurezza nazionale, protezione e impatto sulla società.

L’impegno a lavorare insieme per identificare “rischi per la sicurezza di interesse condiviso” e per costruire “una comprensione scientifica condivisa e basata sull’evidenza di questi rischi … nel contesto di un approccio globale più ampio per comprendere l’impatto dell’intelligenza artificiale nelle nostre società” è stato il nucleo fondante della “joint venture” nata dalla dichiarazione di Bletchley.

La Dichiarazione di Bletchley: i punti chiave e le prime reazioni

Il summit sulla sicurezza dell’IA si è svolto a Bletchley Park, luogo storicamente significativo, un tempo epicentro degli sforzi crittografici del Regno Unito durante la Seconda guerra mondiale che ha ospitato menti brillanti come Alan Turing.

Nello specifico, la dichiarazione di Bletchley mette in guardia sui pericoli delle tecnologie di intelligenza artificiale avanzate, sottolineando la possibilità di danni catastrofici, sia intenzionali che accidentali, derivanti da tali sistemi. Non ha stabilito obiettivi politici determinati ma ha comunque indicato un percorso da fare che inizierà con una seconda riunione tra sei mesi in Corea del Sud e una terza in Francia tra un anno.

Gli sviluppi nell’ambito dell’IA sono rapidi e potrebbero portare a innovazioni importanti come diagnosticare tempestivamente certe malattie, prevedere inondazioni e altri effetti del cambiamento climatico, ma anche comportare rischi come la diffusione di disinformazione e minacce alla sicurezza nazionale, al momento fuori controllo. L’obiettivo della dichiarazione sarebbe, appunto, quello di giungere quanto prima alla definizione di standard di sicurezza globali per l’IA, con l’intento di garantire un uso della tecnologia sicuro ed etico, a beneficio dell’umanità

L’AI Safety Summit 2023 ha visto la partecipazione di noti esponenti e rappresentanti di aziende leader nel settore dell’IA, oltre alle istituzioni politiche: tra questi il vicepresidente Kamala Harris per gli USA, la premier italiana Giorgia Meloni, Sam Altman, il padre di ChatGpt, nonché Ursula von der Leyen per la Commissione Europea, presenti anche rappresentanti delle Nazioni Unite, l’Organizzazione per la cooperazione e lo sviluppo economico e l’Organizzazione mondiale della sanità e, come sappiamo, Elon Musk.

Ha presenziato anche il viceministro cinese della Scienza e della Tecnologia Wu Zhaohui che ha ribadito come la Cina sarà disposta a migliorare il dialogo internazionale sulla sicurezza dell’IA, avendo ben presenti le preoccupazioni su questioni basilari ancora irrisolte riconducibili alle black box algoritmiche alla base delle tecnologie di IA.

Opacità, imprevedibilità, vulnerabilità, fallacia: tutte caratteristiche dei sistemi di apprendimento automatico che disorientano i legislatori, specie sul fronte della responsabilità.

Le aree chiave toccate dalla Dichiarazione

Le aree chiave sulle quali ha posto l’accento la Dichiarazione sono molteplici:

  • Cooperazione internazionale: La cooperazione tra i paesi è fondamentale per affrontare le sfide e sfruttare le opportunità presentate dall’IA su scala globale. La dichiarazione enfatizza la necessità di un fronte unito nell’affrontare le complessità della sicurezza dell’IA.
  • Standard di sicurezza: Si sostiene l’importanza di istituire e rispettare standard di sicurezza elevati nella progettazione, nello sviluppo e nell’implementazione dei sistemi di IA. L’obiettivo sarà ridurre i rischi associati all’IA e garantire un approccio centrato sulla sicurezza nello sviluppo dei sistemi tecnologici.
  • IA etica: La dichiarazione mette in evidenza la necessità che le tecnologie di IA rispettino i diritti umani, la privacy e i valori democratici. Oltre ai rischi tecnici, la dichiarazione fa riferimento anche alle sfide etiche e sociali legate all’IA, come la disinformazione e la sicurezza nazionale. L’obiettivo cardine sarebbe promuovere un approccio all’IA centrato sull’essere umano.
  • Trasparenza e responsabilità: La trasparenza e la responsabilità sono viste come elementi fondamentali nella costruzione della fiducia e della comprensione del pubblico nei confronti dell’IA. Questi sono principi essenziali per l’integrazione delle tecnologie di IA nella società.
  • Condivisione della conoscenza: La dichiarazione sottolinea l’importanza della condivisione della conoscenza e della ricerca collaborativa tra le nazioni per accelerare la comprensione globale e la mitigazione dei rischi legati all’IA.
  • Rischi dell’IA avanzata: La dichiarazione mette in guardia, in modo particolare, dai rischi connessi all’IA avanzata, evidenziando il potenziale di danni gravi o catastrofici. Questi danni possono essere sia intenzionali che accidentali. Proprio questa consapevolezza dovrebbe, nelle intenzioni dei firmatari, sottolineare l’importanza di una regolamentazione e di una gestione responsabile dell’IA condivisa e coordinata. La dichiarazione sottolinea, infatti, l’importanza della cooperazione tra nazioni nell’affrontare i rischi dell’IA. Ovviamente il confronto tra approcci nazionali e internazionali è destinato a continuare.
  • Mancanza di obiettivi specifici: Come già detto, la dichiarazione, sebbene riconosca i rischi, non stabilisce obiettivi politici specifici. Tuttavia, indica che ci saranno ulteriori riunioni per affrontare tali dettagli. Intanto le aspettative in merito a futuri accordi o linee guida specifiche aumentano.
  • Ruolo della tecnologia: La presenza di importanti attori tecnologici e rappresentanti di aziende leader nel settore, ha voluto evidenziare l’interesse e l’importanza delle aziende private nell’indirizzare la sicurezza dell’IA. Queste aziende hanno invero una responsabilità significativa nel garantire che le loro tecnologie siano sicure ed etiche. Il loro ruolo e il loro contributo vengono considerati basilari.
  • Prossimi passi: La conferenza e la dichiarazione sulla sicurezza dell’IA saranno solo il preludio di ulteriori riunioni in Corea del Sud e in Francia per affrontare questioni più specifiche. Incontri futuri che dovrebbero contribuire a definire ulteriormente l’agenda internazionale per la sicurezza dell’IA.

Indipendentemente dalla situazione in cui le tensioni tra Stati Uniti, Cina ed Unione Europea dominano le relazioni internazionali, ci si chiede se la Dichiarazione di Bletchley possa offrire una possibile via per perseguire obiettivi comuni nel campo dell’intelligenza artificiale. Collaborando, condividendo conoscenze e allineando le proprie strategie, queste principali potenze economiche potranno insieme guidare lo sviluppo dell’IA verso un futuro più sicuro?

Le reazioni alla dichiarazione di Bletchley

Le reazioni alla dichiarazione di Bletchley sono state in gran parte positive, con la comunità tecnologica, i governi e i gruppi di difesa dei diritti umani che hanno accolto favorevolmente l’impegno ratificato. Tuttavia, alcune preoccupazioni sono state sollevate riguardo alla concreta attuazione degli standard e all’adesione ai principi delineati nella stessa.

Certi analisti hanno sostenuto che la conferenza sia stata più un evento simbolico che ha contribuito a far progredire di poco l’agenda sulla sicurezza nell’IA, piuttosto che una concreta azione politica coordinata. Ritengono, infatti, che siano tanti i punti presenti nelle premesse della dichiarazione in contrasto con le velleità emergenti dal contesto geopolitico in atto.

A cominciare proprio dalle ambizioni del Regno Unito di essere un leader mondiale in questo settore anziché semplicemente un organizzatore di conferenze, la cui massima ambizione potrebbe essere, tutt’al più, quella di puntare a un ruolo di mediazione e dialogo internazionale. Hanno menzionato anche l’ordine esecutivo degli Stati Uniti sull’IA e l’istituzione del proprio istituto per la sicurezza nell’IA, evidenziandone la veste di “iniziativa strategica” mirata a sottolineare la leadership americana in questo settore, a partire dalla governance dell’IA.

Stesso discorso vale per l’istituzione dell’Ufficio europeo per l’intelligenza artificiale annunciato dalla presidente della Commissione europea, Ursula von der Leyen. Un nuovo organismo per la sicurezza dell’intelligenza artificiale, che rientrerà nel nuovo quadro normativo dell’UE per l’IA. Questo ufficio avrà il compito di supervisionare i modelli di intelligenza artificiale avanzati, promuovere standard e pratiche di test e collaborare con il settore privato e i segnalatori affidabili per identificare tempestivamente i rischi. Sarà in grado di far rispettare le regole comuni in tutti i 27 Stati membri dell’UE.

Una mossa che segue le intenzioni simili discusse dal Regno Unito e dagli Stati Uniti ai quali la Von der Leyen ha già confermato l’intenzione dell’UE di cooperare con entità simili in tutto il mondo. Disponibilità che anche Gina Raimondo, Segretario al Commercio degli Stati Uniti, aveva già annunciato a sua volta riferendosi agli istituti di sicurezza dell’IA negli Stati Uniti e nel Regno Unito.

Proprio con riguardo al Regno Unito, l’incapacità di giungere ad una regolamentazione in materia di veicoli automatizzati starebbe a dimostrare “un sintomo di un problema più ampio” nella regolamentazione delle tecnologie emergenti dell’intelligenza artificiale che potrebbe portare anche alla “perdita di potenziali investimenti”. È questa la provocazione pungente lanciata dopo l’AI Safety Summit contenuta nel documento pubblicato dal Gruppo parlamentare multipartitico (APPG), visionato dal newswire indipendente MLex, sulle auto a guida autonoma nel Regno Unito. Secondo il rapporto, il Regno Unito rischierebbe seriamente di rimanere indietro rispetto ai concorrenti globali se non dimostrasse di poter approvare nuove leggi[1] per regolare i veicoli autonomi.

Il ruolo della Cina

Un discorso a parte merita, infine, la titubanza percepita a vari livelli sul ruolo della Cina quale partner istituzionale affidabile nella costituzione di standard regolatori di sicurezza condivisi.

Due influenti rapporti britannici e tedeschi[2] (ma avvertimenti simili sono stati espressi anche dal governo americano) hanno messo in guardia contro le ambizioni di dominio globale della Cina in settori chiave come veicoli elettrici, intelligenza artificiale e telecomunicazioni. I governi del Regno Unito e della Germania in modo particolare hanno più volte ribadito come la Cina cerchi il dominio tecnologico e miri all’acquisizione di proprietà intellettuale e dati in dieci settori industriali chiave, alcuni dei quali sono campi in cui questi paesi hanno proprie competenze e rivestono aree strategiche di prim’ordine. Entrambi i rapporti non lesinano dunque preoccupazioni per il coinvolgimento cinese, sottolineando come tali ambizioni potrebbero rappresentare una minaccia per la sicurezza nazionale. Gli studi sottolineano anche l’eccessiva dipendenza tecnologica dell’Occidente dalla Cina, che potrebbe mettere ulteriormente a rischio la sicurezza e la prosperità. Entrambi i documenti si chiudono con la richiesta di una celere revisione delle politiche industriali e della legislazione nazionale per affrontare tutte queste sfide.

Insomma, la tabella di marcia preannunciata a Bletchley può dirsi senza dubbio visionaria e forse persino prematura in vista di un approccio più standardizzato alla sicurezza dell’IA in tutte le nazioni; resta tuttavia innegabile l’importanza delle conferenze e dei dibattiti internazionali come il summit di Bletchley Park, non fosse altro che per facilitare la cooperazione e il dialogo tra paesi e specialmente tra Stati Uniti e Cina.

Per il resto è chiaro che il dibattito su quale possa essere l’approccio regolatorio migliore, a livello nazionale e internazionale, rimanga una questione aperta e in evoluzione.

Tra i firmatari della dichiarazione sono inclusi pionieri politici e sostenitori della cooperazione globale, nazioni leader nel settore tecnologico, potenze tecnologiche emergenti e certo, al di là di ogni ragionevole dubbio, la diversità dei paesi firmatari riflette almeno l’importanza che sembrerebbe assumere l’impegno globale per garantire la sicurezza dell’IA.

Nel frattempo, mentre a Bletchley il viceministro cinese della Scienza e della tecnologia, Wu Zhaohui, conferma la volontà della Cina di lavorare con altre nazioni sulla sicurezza e la governance dell’IAI, in Giappone i leader del G7 hanno già pubblicato nuovi principi guida e un codice di condotta per gli sviluppatori di IA, come parte del processo di cooperazione sull’intelligenza artificiale sancito a Hiroshima, per fornire protezioni per la tecnologia a livello globale.

Il Report britannico “Capabilities and risks from frontier AI”

I sistemi di intelligenza artificiale di frontiera, come i grandi modelli linguistici alla base di ChatGPT di OpenAI, Claude di Anthropic e Bard di Google, potrebbero “alterare radicalmente il modo in cui viviamo, lavoriamo e ci relazioniamo gli uni con gli altri”, avverte un rapporto del governo britannico pubblicato a ridosso dell’AI Safety Summit. E nonostante i benefici “trasformativi”, essi “comportano rischi che potrebbero minacciare la stabilità globale e minare i nostri valori”, che vanno dalla facilitazione delle frodi alla disinformazione e persino al terrorismo, si legge.

La sicurezza dell’intelligenza artificiale è una sfida sociotecnica che non può essere risolta solo con interventi tecnici”, afferma lo studio, poiché “non esistono ancora parametri universalmente concordati per misurare caratteristiche particolarmente pericolose o utili” e richiedono una mobilitazione democratica per essere concordati.

È questo a grandi linee il tenore che permea il rapporto di 45 pagine del governo britannico, introdotto dal primo ministro Rishi Sunak nella medesima circostanza in cui, in prossimità del Summit, ha voluto annunciare l’istituzione dell’AI Safety Institute del Regno Unito. Un organismo il cui compito sarà quello di “capire di cosa è capace ogni nuovo modello di IA” e assicurarsi che le autorità non debbano fare affidamento solo sulle “indicazioni di fabbrica”. Lo studio, che discute delle crescenti capacità dell’intelligenza artificiale di frontiera, definita come “un insieme di modelli di intelligenza artificiale generica altamente capaci che potrebbero eseguire una vasta gamma di compiti e competere o superare i modelli più avanzati attuali”, effettua una vera e propria analisi di impatto del rischio dei sistemi di IA avanzati, evidenziando come le tendenze sistematiche che hanno guidato la crescita recente continueranno nei prossimi anni. Ciò in particolare per la correlazione esistente tra la maggiore capacità di calcolo, più dati e algoritmi migliori e le prestazioni dell’AI di frontiera potenzialmente suscettibili di intraprendere direzioni pericolose.

Il rapporto, inoltre, mette in guardia sulla possibile concentrazione del potere di mercato nell’intelligenza artificiale, con leader che hanno un migliore accesso alle risorse e ai talenti, accelerando ulteriormente il loro progresso.

Viene anche sottolineata l’incertezza riguardo al momento in cui emergeranno le future capacità dell’IA e al contesto in cui verranno implementate, rappresentando questa una sfida significativa per legislatori, regolatori e leader del settore.

Nella sezione dedicata ai rischi, si evidenziano preoccupazioni sulla progettazione di modelli sicuri che utilizzano set di dati aperti, poiché garantire che non soddisfino richieste dannose si rivelerebbe difficile a causa dell’evoluzione della loro sicurezza nel tempo.

In generale, inoltre, i rischi potrebbero interagire tra loro, creando scenari complessi e influenzandosi reciprocamente.

Gli analisti britannici evidenziano che i potenziali rischi legati alla sfera digitale, come attacchi informatici, frodi, truffe e altri, saranno più probabili e impattanti almeno fino al 2025, con criminali che sono già all’opera per sfruttare certe tecnologie.

Rammentano anche i limiti noti dei grandi modelli linguistici esistenti, come le “allucinazioni” e i problemi di coerenza, ma restano ottimisti sul fatto che questi possano migliorare con una migliore formazione e supporto.

Il rapporto identifica tre categorie principali di rischi: danni sociali, potenziale uso improprio e problemi di perdita di controllo. Questi rischi comprendono disinformazione, perturbazioni del mercato del lavoro, parzialità o inequità, uso improprio da parte di attori ostili per condurre attacchi informatici o campagne di disinformazione e perdita di controllo dei modelli che potrebbero causare danni in modi inaspettati o ridurre il controllo umano.

Un’analisi separata sulla sicurezza e la mitigazione dei rischi avverte, infine, che sarà molto probabile che l’intelligenza artificiale generativa progredirà rapidamente nei prossimi anni, superando la regolamentazione globale; e tanto potrebbe rappresentare una minaccia estremamente significativa nei confronti della quale non sarà possibile indugiare.

E dunque, a che punto è la cooperazione internazionale in atto nella regolamentazione dell’IA?

Il quadro globale sull’IA

Guardiamo al panorama attuale.

Un’analisi dellAI Index 2023 dello Stanford Institute for Human-Centered Artificial Intelligence (HAI), sulle normative legislative di 127 paesi ha mostrato come il numero di leggi contenenti il termine “intelligenza artificiale” sia cresciuto da 1 nel 2016 a 37 nel 2022. La lettura dei resoconti parlamentari sull’IA in 81 paesi ha riportato anche che le menzioni di IA nei procedimenti legislativi globali sono cresciute di quasi 6,5 volte dal 2016.

Inoltre, l’esame qualitativo delle discussioni parlamentari in un gruppo diversificato di nazioni ha rivelato come i policymaker considerino l’IA da una vasta gamma di prospettive. Ad esempio, nel 2022, i legislatori nel Regno Unito hanno discusso dei rischi dell’automazione guidata dall’IA; quelli in Giappone hanno considerato la necessità di tutelare i diritti umani di fronte all’IA; mentre in Zambia hanno esaminato la possibilità di utilizzare l’IA per la previsione meteorologica.

Negli Stati Uniti in modo particolare sono state approvate più leggi sull’IA che mai in precedenza e anche la spesa stanziata per i sistemi di IA è in crescita.

La strategia degli Usa

Il governo federale americano ha adottato normative in materia di sicurezza cibernetica destinate ai settori critici come l’energia, i servizi finanziari e la salute. Iniziative sono state intraprese anche per promuovere la formazione nell’ambito dell’IA. L’Amministrazione Biden ha incluso specifici investimenti per l’IA nell’American Jobs Plan al fine di sviluppare e promuovere l’innovazione. Non mancano le Carte Etiche e anche l’uso di algoritmi di IA nei mercati finanziari è soggetto a normative specifiche per prevenire la manipolazione e l’abuso del mercato. Inoltre, alcune agenzie governative, come la Federal Trade Commission (FTC) e il Dipartimento di Giustizia, sono impegnate nell’esame delle implicazioni dell’IA per la concorrenza e la regolamentazione antitrust. Il National Institute of Standards and Technology (NIST) dal canto suo ha pubblicato l’Artificial Intelligence Risk Management Framework 1.0, ovvero linee guida volontarie per affrontare i rischi legati all’IA.

Il quadro normativo sull’IA è tuttavia ancora poco chiaro. Non esiste una legislazione federale completa per governare l’IA.

Tra le misure più recenti c’è l’Ordine Esecutivo emesso a fine ottobre dal presidente degli Stati Uniti Joe Biden. Un provvedimento arrivato un giorno prima che il vicepresidente Kamala Harris si recasse nel Regno Unito per partecipare al vertice globale sulla sicurezza dell’intelligenza artificiale convocato dal primo ministro britannico Rishi Sunak.

In modo particolare l’ordine esecutivo sull’IA mira a promuovere la previsione di nuovi standard per la sicurezza e la protezione nell’ambito dell’IA, con l’obiettivo dichiarato di proteggere la privacy degli americani, favorire l’equità e i diritti civili, difendere i consumatori e i lavoratori, stimolare l’innovazione, e certamente mantenere la leadership globale degli Stati Uniti nell’ambito dell’IA e altro ancora. Non c’è da stupirsi, infatti, che al momento della firma, Biden abbia menzionato i nuovi limiti per i chip IA presentati all’inizio del mese per potenziare i controlli sulle esportazioni di chip avanzati verso la Cina.

Le proposte cinesi

Per quanto riguarda la Cina, lo scorso 11 aprile è stata pubblicata una bozza di norme pensate per regolamentare lo sviluppo di prodotti generati da tecniche di Generative AI (GAI): ChatGPT e in generale tutte quelle applicazioni appartenenti alla categoria denominata Artificial Intelligence Generated Content (AIGC) in grado di produrre contenuti digitali, come immagini, musica e linguaggio naturale, attraverso modelli di AI.

La proposta cinese se implementata, segnerà la prima legge scritta al mondo specifica sull’AIGC.

È recente la dichiarazione della Cyberspace Administration of China (CAC), con la quale è stata introdotta l’iniziativa di governance globale sull’intelligenza artificiale (AI). Apertura, sicurezza, inclusività ed equità applicati allo sviluppo dell’IA, oltre al rispetto della sovranità nazionale nell’intelligenza artificiale, sono stati i concetti cardine dell’approccio regolatorio proposto da Pechino.

Parliamo di un quadro normativo composto da fonti primarie e secondarie che, inserendosi in un sistema regolatorio in costante evoluzione e già attivo sull’IA: ne fanno parte altri tre provvedimenti di spessore, la Personal Information Protection Law of the People’s Republic of China, “PIPL” entrata in vigore il 1° novembre 2021, la Cybersecurity Law, in vigore dal primo giugno 2017 e la Data Security Law approvata il 10 giugno 2021. Ne sono tasselli di rilievo anche le disposizioni sulla gestione delle raccomandazioni algoritmiche dell’Internet Information Service, le disposizioni sulla gestione della sintesi profonda dell’Internet Information Service e anche le imminenti misure per la gestione delle revisioni etiche delle attività scientifiche e tecnologiche – che costituiscono la base legale primaria e il quadro normativo per garantire la conformità nel settore AIGC). Questi i guardrail normativi applicabili alla ricerca, allo sviluppo e all’uso di prodotti con funzioni di intelligenza artificiale generativa e non. L’attenzione come già detto è in particolare concentrata sulle fasi di addestramento degli algoritmi, sulla selezione dei set di dati, sul rispetto della privacy e della proprietà intellettuale.

L’impegno Ue sulla regolamentazione

Quanto all’UE, da alcuni anni è noto l’impegno profuso nella regolamentazione dell’intelligenza artificiale; ne sono espressione il Piano coordinato sull’intelligenza artificiale, la Strategia europea sull’intelligenza artificiale, le Linee guida per un’IA degna di fiducia e il Libro bianco dell’IA. Nel 2021, nell’ambito della sua strategia digitale, l’UE ha presentato la proposta di regolamento AI Act: un quadro normativo che introduce un approccio strutturale, integrato ed orientato al rischio, sollevando importanti implicazioni socio economiche, giuridiche e geopolitiche. Nonostante alcune criticità e incertezze, l’attesa approvazione del suddetto provvedimento, ormai giunto al rush finale, rappresenterà un passo significativo per lo sviluppo dell’ecosistema europeo dell’IA.

In termini di governance, l’UE sta considerando l’istituzione di un Ufficio per l’IA con il compito di supervisionare le nuove norme sui modelli di base e sui sistemi di IA di uso generale utilizzati su scala. Ed è al vaglio anche la necessità di ottenere la preventiva autorizzazione giudiziaria per l’uso di sistemi di identificazione biometrica. Come noto, la legislazione proposta include già restrizioni sul riconoscimento facciale, come il divieto di riconoscimento delle emozioni in determinati contesti; ora la Spagna ha proposto di limitare alcune di queste restrizioni e di fornire esenzioni per le forze dell’ordine.

Proprio il fronte della sicurezza nazionale è stato oggetto di discussione, con alcune proposte per un “compromesso equilibrato” in modo che gli Stati membri possano gestire questa area in modo flessibile.

L’approccio canadese

Più o meno simile all’approccio europeo è quello scelto dal Canada dove l’Artificial Intelligence and Data Act (AIDA) è la proposta di legge che mira a proteggere i cittadini canadesi e promuovere un utilizzo responsabile dell’IA. L’AIDA si basa su una valutazione dei rischi e suddivide le applicazioni dell’IA in categorie a seconda del livello di rischio. L’obiettivo è prevenire danni e discriminazioni, senza ostacolare l’innovazione. La legge prevede l’istituzione di un Commissario per l’IA e i Dati con il compito di sviluppare e far rispettare le norme.

La strategia di Singapore

Strategia regolatoria condivisa anche da Singapore che, peraltro, ha appena annunciato di aver “armonizzato” il suo quadro di gestione del rischio IA con quello statunitense al fine di agevolare le aziende ad orientarsi nelle attività di compliance. Da ultimo, inoltre, la Infocomm Media Development Authority (IMDA) e la AI Verify Foundation di Singapore hanno lanciato il primo sandbox di valutazione per l’intelligenza artificiale generativa. Il progetto riunisce oltre dieci attori dell’ecosistema globale attraverso casi d’uso concreti per valutare prodotti basati sull’IA generativa.

Le organizzazioni internazionali

Sul versante internazionale, organizzazioni come le Nazioni Unite e l’Organizzazione Mondiale del Commercio stanno esaminando il ruolo dell’IA a livello globale attraverso specifiche iniziative come quella dell’ONU in collaborazione con l’ITU (International Telecommunication Union) per affrontare questioni legate all’IA, come la sicurezza, l’etica e la governance globale. Un impegno alla collaborazione sancito anche con il recente insediamento del nuovo Comitato per l’intelligenza artificiale voluto dalle Nazioni Unite, che riunisce circa quaranta esperti e che dovrà affiancare il Palazzo di vetro e la comunità internazionale nello sforzo di darsi regole comuni e approcci condivisi sull’AI.

Partenariati pubblici e privati

Collaborazioni tra enti pubblici e aziende private sono comuni nell’ambito dell’IA: ad esempio, il World Economic Forum ha collaborato con diverse aziende per sviluppare principi etici per l’IA. Università, istituti di ricerca e organizzazioni no profit stanno conducendo ricerche sull’IA e sulla sua regolamentazione.

Le conferenze e i summit internazionali, come la Dichiarazione di Bletchley, da tempo ormai riuniscono i leader mondiali, i ricercatori e le aziende per discutere le questioni legate all’IA e stabilire collaborazioni. La recentissima Dichiarazione di Hiroshima del G7, firmata dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti, ha riconosciuto le opportunità e il potenziale trasformativo dell’intelligenza artificiale, sottolineando la necessità di gestire i rischi per proteggere i principi democratici, lo stato di diritto e i valori condivisi. Il documento si accompagna di altri due atti: uno che individua 11 Principi guida per i sistemi avanzati di intelligenza artificiale e un Codice di condotta internazionale. Scritti che saranno aggiornati, se necessario, per rimanere adeguati alle tecnologie in evoluzione.

In sintesi, dunque, la governance dell’IA è un campo in fermento con molte iniziative a livello nazionale e internazionale e tanto riflette la crescente consapevolezza delle sfide e delle opportunità legate alla tecnologia.

La collaborazione tra nazioni, organizzazioni e settori strategici sarà essenziale per affrontare queste sfide in modo efficace?

Conclusioni

La conversazione pubblica sull’intelligenza artificiale è attualmente attraversata da forte preoccupazione, a tratti paura isterica e paranoia.

Peraltro, il dubbio che la tecnologia si ribelli è profondamente codificato nella nostra cultura, da tempo. Dal Mito di Prometeo al potente computer Alpha 60 del film Agente Lemmy Caution: missione Alphaville, Odissea nello spazio di Stanley Kubrick, passando ovviamente per Mary Shelley e il suo romanzo Frankenstein.

Negli ultimi mesi, molti ricercatori e personaggi di spicco hanno espresso pubblicamente le loro preoccupazioni sui pericoli dei futuri sistemi di intelligenza artificiale. Questi includono due dei tre vincitori del Premio Turing, Geoffrey Hinton e Yoshua Bengio, Gary Marcus, Nando de Freitas, David Duvenaud, Dan Hendrycs e molti altri, tra cui oltre a Elon Musk, Sam Altman, amministratore delegato di OpenAI e Demis Hassabis fondatore di DeepMind.

  • L’intelligenza artificiale distruggerà l’umanità?
  • Ridurrà inesorabilmente la nostra capacità di autodeterminazione?
  • Prenderà tutti i posti di lavoro? O, invece, contribuirà alla maggiore produttività?
  • Incrementerà il divario sociale e le mire egemoniche dei governi dispotici?
  • Timori fondati o panico morale?

Il progresso tecnologico – anche quello più dirompente – non è né buono né malvagio a priori ma va sempre contestualizzato in funzione delle esigenze dell’uomo.

Con una variabile non di poco conto: l’avanzata dello sviluppo digitale, che uno lo voglia o no, è inarrestabile.

Certamente la posta in gioco è alta. Le opportunità sono profonde.

Realizzare la promessa di un’IA responsabile rimane una sfida di governance ancora irrisolta a causa di numerosi fattori: molti sono culturali, altri socio-tecnici, giuridici ed organizzativi.

Il percorso che, dalla definizione di norme etiche conduce all’allineamento degli obiettivi per un’IA responsabile con altri incentivi organizzativi, è lungo e complesso; l’introduzione di strutture di governance e team di revisione, unitamente allo sviluppo di strumenti e processi per rendere operativi e attendibili gli obiettivi di IA responsabile ne costituiscono passaggi fondamentali.

Anticipare i rischi e i potenziali danni dell’IA sono sicuramente i punti di mira da centrare.

Dove si posiziona il giusto equilibrio tra governance responsabile e rischio intelligente nel contesto dello sviluppo di tecnologie di intelligenza artificiale che hanno il potenziale per sbloccare il progresso umano?

L’alchimia regolatoria che lega principi giuridici e costituzionali da una parte e innovazione dall’altra è una formula molto complessa. E certo una delle questioni più difficili da dirimere non riguarderà tanto l’an, bensì il quantum di regolamentazione necessaria per trovare un punto di equilibrio tra interessi e culture spesso confliggenti.

Note

  1. Il nuovo quadro normativo per i veicoli automatizzati avrebbe dovuto essere adottato come parte di un disegno di legge più ampio sul “futuro dei trasporti”. Nonostante i crescenti avvertimenti da parte del settore la questione però non è stata sottoposta al parlamento
  2. Il rapporto britannico è stato pubblicato dai legislatori della commissione parlamentare per l’intelligence e la sicurezza, mentre lo studio tedesco è stato pubblicato dal Ministero degli affari esteri per conto del governo federale.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati