regolamentazione

Intelligenze artificiali forti e deboli, gli Usa ispirano le norme europee

I sistemi di Intelligenza artificiale definiti “ad alto rischio” necessitano di norme diverse dagli altri e l’Ue – dopo avere redatto un primo regolamento – accoglie i suggerimenti del Future of Life Institute

Pubblicato il 27 Feb 2023

Beatrice Marone

dottoranda in Diritto Privato, Università degli Studi di Pavia

AI (immagine: https://pixabay.com/it)

Normare in maniera omnicomprensiva le intelligenze artificiali, sebbene entro i limiti ai quali deve sottostare il potere legislativo dell’Unione europea, è un compito complesso e impervio, che richiede spazio e tempo, energie e risorse.

Per tale ragione ha portata notevole il contributo di enti esterni, come quello del Future of Life Institute, in grado di sollevare, nell’ambito del processo di preparazione dell’AI Act europeo, questioni di importanza basilare almeno momentaneamente non trattate, ma impossibili da non considerare. La necessità di inclusione di previsioni relative all’Intelligenza artificiale generale (AGI) giunge da un’area geografica quantomeno sorprendente, ma risulta perfettamente in linea con la storia di formazione dell’ente che vi richiama l’attenzione.

Conversare con un computer: i progressi che farebbero felice Alan Turing

L’approccio americano e quello europeo

L’Ue è globalmente riconosciuta come faro di innovazione in materia di regolamentazione, ed è raro che istanze di una normativa maggiormente stringente vengano indirizzate al legislatore europeo da organismi operanti in altri territori e, in particolare, dal territorio statunitense.

Si tratta di un Paese la cui tradizione culturale e giuridica è notoriamente più favorevole alla libera autodeterminazione individuale e, dunque, dove sia il sentire comune sia la sensibilità dei legislatori convergono su un approccio restio a porre limiti percepibili come oltremodo invasivi delle prerogative dei singoli. Da qualche anno, una corrente di direzione opposta ha iniziato a reclamare un ruolo di sempre maggior spessore all’interno del dibattito.

Corrente co-originata dal Future of Life Institute, figura centrale per la spinta fornita all’Unione all’introduzione nella disciplina comunitaria dei cosiddetti General Purpose AI Systems (Gpais), ossia i Sistemi di IA per finalità generali, titolo che risente dell’eco di quell’AGI che costituisce il cuore della discussione.

Prima di approfondirne la definizione, la scelta di inclusione all’interno del testo della proposta di Regolamento e gli effetti di tale modifica sulla realtà presente e sulle prospettive future, può essere utile comprendere l’unicità del punto di vista del Future of Life Institute rispetto alla maggiormente diffusa posizione statunitense con riferimento alla regolazione, in generale, e alla necessità di porre limiti in tema di IA nel caso di specie.

Il Future of Life Institute

Fondato nel 2014 da cinque personalità appartenenti al mondo accademico e dell’imprenditoria con background composto da studi nell’ambito STEM e della psicologia – e lo stesso Hawking parte del comitato esecutivo – la direzione delle attività dell’istituto risulta evidente già a partire dal motto che recita: “La tecnologia sta fornendo alla vita la possibilità di fiorire come mai prima […] o di autodistruggersi. Facciamo la differenza!”.

Con la consapevolezza dei rischi esposti e con la volontà di non porsi come ostacolo a uno sviluppo che già seguiva ritmi forsennati, nel 2017 il Future of Life Institute si è reso promotore di una conferenza durante la quale individuare le caratteristiche in grado di rendere l’IA non un pericolo, ma fonte di benefici.

I principi di Asilomar

All’esito del ciclo di incontri, l’ente ha prodotto una lista di ventitré principi, successivamente indicati come “Principi di Asilomar” dal nome del luogo dove i seminari si erano tenuti, i quali hanno raccolto a oggi più di cinquemila sottoscrizioni. Principi suddivisi in tre categorie, ossia “Questioni oggetto di ricerca”, “Questioni a lungo termine” e “Etica e Valori”.

In quest’ultima sezione la priorità è data ai principi di sicurezza, trasparenza e responsabilità del sistema. Tuttavia, risulta particolarmente rilevante per i successivi sviluppi il ruolo centrale di ciò che è identificato come “allineamento di valori”, esplicato nel senso in cui “sistemi di IA provvisti di un alto livello di autonomia dovrebbero essere progettati in modo tale che sia assicurato il fatto che i loro obiettivi e comportamenti siano in linea con i valori umani nel corso della totalità del processo operativo”.

Proprio tale previsione sembra poter essere identificata come l’ispirazione alla base della concreta proposta formulata dall’Istituto al momento dedicato alla discussione sulla proposta di Regolamento pubblicata dalla Commissione europea il 21 aprile 2021.

Nel corso del periodo di pubblica consultazione relativa alla prima bozza del testo – circolato il 4 agosto dello stesso anno – il Future of Life Institute pubblicava il proprio Position paper tramite una lettera siglata dal presidente Max Tegmark e indirizzata al vicepresidente esecutivo della Commissione europea Margrethe Vestager e al commissario per il mercato interno Thierry Breton.

L’eredità di Asilomar risulta chiara sin dall’introduzione, contenente un riferimento espresso alla Conferenza, ma è rilevante constatare anche un riconoscimento agli sforzi comunitari, esplicitati dalla considerazione che il ritmo seguito dall’Unione europea sul tema aveva condotto a un primo risultato da ritenere “inimmaginabile” soltanto cinque anni prima.

Il tema che riveste il primo posto nell’elenco contenuto nel testo riguarda la definizione di “sistema ad alto rischio” che costituisce la pietra d’angolo dell’intera struttura normativa delineata dalla proposta di regolamento. L’approccio basato sul rischio era già stato previsto in sede di Libro Bianco sull’Intelligenza artificiale datato 19 febbraio 2020, nell’orizzonte secondo cui, al fine di garantire quell’approccio europeo all’efficienza e alla fiducia già evidente dal titolo, sarebbe stata necessaria una distinzione fra le diverse applicazioni delle IA: di conseguenza, l’obiettivo era di approntare una normativa dettagliata e stringente esclusivamente per quelle comportanti un alto rischio, dunque di un intervento regolatore soltanto nei casi estremamente necessari, in conformità al principio di proporzionalità.

L’auspicio di criteri “chiari, facilmente comprensibili e applicabili a tutte le parti interessate” al fine di stabilire quali tra le numerose applicazioni rientrino all’interno della categoria di alto rischio non sembra, secondo il parere del Future of Life Institute, essere stato completamente accolto in sede di titolo III della proposta.

Al capo primo si identificano le due categorie principali, ossia i sistemi destinati a essere utilizzati come componenti di sicurezza di prodotti soggetti a valutazione della conformità ex ante da parte di terzi e i sistemi indipendenti che presentano implicazioni principalmente in relazione ad alcuni diritti fondamentali esplicitamente elencati.

Peraltro, la relazione accompagnatoria alla proposta menziona in maniera esplicita la volontà di ricomprendere all’interno di quest’ultimo insieme “sistemi i cui rischi si sono già concretizzati o potrebbero concretizzarsi nel prossimo futuro”, lasciando alla Commissione la facoltà di ampliare l’elencazione di sistemi ad alto rischio utilizzati all’interno di settori predefiniti.

I dubbi

I dubbi del Future of Life Institute nascono dalla presa di coscienza che, in conformità al dato letterale della proposta, l’individuazione dei requisiti richiesti dalla normativa con riferimento ai sistemi di IA sia legata a doppio filo alla finalità prevista nel singolo caso di specie. Tuttavia, il Position paper sottolinea come alcuni sistemi che attualmente presentano funzioni tali da non essere incluse all’interno delle categorie ad alto rischio possano essere oggetto di sviluppi futuri tali per cui diventino, in un momento successivo, ad alto rischio nella realtà dei fatti, ma senza che tale modifica sia riflessa nella loro regolamentazione.

Di conseguenza, la proposta dell’organismo statunitense consiste nella sostituzione all’attuale categorizzazione data da un elenco limitato di finalità d’uso, di una valutazione del rischio relativa a qualsiasi finalità d’uso, nonché di prevedibile uso improprio. Tale obiettivo, secondo gli autori della proposta, potrebbe essere raggiunto tramite due percorsi alternativi: la classificazione di modelli con un’ampia varietà di scopi come applicazioni ad alto rischio e la previsione di un elenco limitato di requisiti aggiuntivi per i Sistemi di IA per finalità generali inclusi nel titolo IV, ossia quelli sulla base dei quali si innalza esponenzialmente il rischio di manipolazione.

Un innalzamento a cui dovrebbe corrispondere, in ottica di tutela, un irrigidimento dei doveri di trasparenza, dovuto, nelle parole dei redattori della proposta di Regolamento, al fatto che tali sistemi interagiscono con le persone fisiche, utilizzano dati biometrici per stabilire associazioni tra categorie sociali o rilevare emozioni, possono condurre sia alla generazione sia alla manipolazione di contenuti, con l’esempio che al grande pubblico è indicato con la locuzione “deep fake”.

A seguito di tale intervento e della relativa spinta all’azione, nella versione aggiornata della bozza messa in circolazione da parte del Consiglio dell’Unione europea nel novembre 2021 compare una specifica previsione, l’articolo 52a, dedicato proprio ai Sistemi di IA per finalità generali: non saranno oggetto di attività normativa a meno che il sistema sia oggetto di registrazione di marchio o integrato all’interno di un altro sistema autonomamente sottoposto alle previsioni del futuro Regolamento.

È essenziale una digressione sul contenuto ontologico di tale locuzione e, di conseguenza, sui presupposti atti a rendere un sistema di IA incluso in tale categoria. Secondo la definizione contenuta nella bozza di cui sopra i Sistemi di IA per finalità generali risultano essere quelli “in grado di eseguire funzioni generalmente applicabili come riconoscimento iconografico / vocale, generazione di audio / video, rilevamento di modelli, risposta a domande, traduzioni, eccetera”, come emerge dal dato letterale del considerando 70a.

Tale articolo, tuttavia, risulta eliminato nella nuova bozza resa pubblica a febbraio del 2022 durante la presidenza francese del Consiglio dell’Unione europea, per una ragione specifica.

Anche a seguito dell’intervento del presidente del Future of Life Institute presso il Parlamento europeo proprio in relazione alla natura dei Sistemi di IA per finalità generali e alla conseguente necessità di regolamentarne sia la fase di sviluppo sia quella di utilizzo, risale a maggio 2022 una nuova bozza tramite la quale inserire all’interno del Regolamento gli articoli 4bis, 4ter e 4quater, insieme al collegato articolo 55bis: lo scopo prefissato è di “equilibrare nella maniera migliore le esigenze e le obbligazioni fra fornitori di Sistemi di Intelligenza Artificiale ‘per finalità generali’ e i fornitori dei sistemi di Intelligenza Artificiale ad alto rischio che li possono utilizzare”.

Si impone, quindi, ai fornitori dei Sistemi di Intelligenza artificiale per finalità generali, indipendentemente dal fatto che tali sistemi siano utilizzati in un contesto di alto rischio in sé o come componenti di altri sistemi di Intelligenza artificiale ad alto rischio, l’impegno a cooperare sia con gli utenti finali sia con le competenti autorità al fine di consentire la conformità alle previsioni del Regolamento, come stabilito dal considerando 12aa. La vaghezza del riferimento all’identificazione sostanziale di tali sistemi permane, con l’aggiunta dell’indicazione che, fuori dai confini dell’Unione europea il riferimento a Sistemi di IA per finalità generali è utilizzato raramente e in maniera disordinata per descrivere un ampio insieme di sistemi di Intelligenza artificiale con variazioni considerevoli delle caratteristiche di ciascuno sia in termini di autonomia sia di metodi di allenamento.

Proprio nella consapevolezza che lo scenario definitorio all’interno del quale sono inseriti i Sistemi di Intelligenza artificiale per finalità generali è, come viene emblematicamente descritto, “paludoso”, il Future of Life Institute ha prodotto un Working paper allo scopo manifesto di fornire maggiore chiarezza sul tema e, di conseguenza, eliminare una delle ragioni di debolezza di una proposta di regolazione altrimenti esplicitamente considerata rivoluzionaria. Secondo l’analisi del Future of Life Institute, infatti, il sistema di differenziazione basato sul settore di impiego non è chiaramente applicabile e, anzi, la rilevanza di un continuo aggiornamento sulla base dei continui sviluppi pratici è quantomai evidente.

La differenziazione tra IA forte e debole

Con l’obiettivo di sprigionare al massimo le potenzialità di un’iniziativa pionieristica, secondo gli autori dello studio è necessario distinguere in maniera cristallina fra i sistemi di Intelligenza artificiale a scopo fisso e quelli per finalità generali: come già ricordato, i primi sono progettati per compiere un elenco bloccato di funzioni e non è difficoltoso per il legislatore identificare quali fra esse comportano un alto rischio. Di conseguenza, nella prospettiva dell’AI Act, devono essere oggetto di disciplina normativa, al contrario dei sistemi di IA per finalità generali che possono essere impiegati anche per finalità ulteriori rispetto a quelle verso cui il loro sviluppo iniziale era stato indirizzato. In questo caso è, preferibile un inquadramento normativo basato proprio sulle mansioni, all’interno del quale innestare una nuova definizione di Sistemi di Intelligenza artificiale per finalità generali: “un sistema di Intelligenza artificiale che può realizzare o essere adattato a realizzare una gamma di compiti distinti, inclusi alcuni per i quali non sia stato intenzionalmente o specificatamente allenato”.

In questo modo, nell’opinione dei redattori della proposta, rientrano all’interno della definizione e della relativa cornice normativa, una molteplicità di sistemi rispetto ai quali, pur diversificati sulla base di differenti parametri, non vi sono o non vi dovrebbero essere dubbi.

Tale tentativo definitorio, infatti, emerge come orientato a evidenziare la caratteristica fondamentale dei Sistemi di Intelligenza artificiale per finalità generali, ossia la capacità di completare funzioni per le quali non siano stati creati o allenati in maniera particolare. Ciò racchiude, nelle intenzioni degli autori, un ampio spettro di sistemi con differenti gradi di capacità di apprendimento e autonomia, nonché con una presenza più o meno forte della componente umana all’interno dei processi.

L’assenza di definizioni

La caratteristica particolarmente interessante dell’iniziativa è la prospettiva ontologica da cui la questione è affrontata. Infatti, a un primo sguardo, la definizione proposta sembrerebbe non aver eliminato del tutto quel grado di incertezza che, probabilmente, è insito nella tematica considerata. Tuttavia, sono gli stessi autori a chiarire come la proposta definitoria non sia intesa tanto a specificare i singoli sistemi di Intelligenza artificiale inclusi, quanto a indicare quali ne siano esclusi.

L’assenza di definizioni risulta essere una delle maggiori cause di incertezza nel contesto delle proposte legislative non soltanto legate al settore tecnologico, ma nel momento in cui è proprio il rapido sviluppo settoriale a impedire una categorizzazione chiara e fissa nel tempo, la direzione più arguta può essere quella di evitare di concentrarsi su una differenziazione positiva atta a indicare con precisione cosa rientra all’interno di un insieme, quanto di focalizzarsi sui limiti dell’insieme e, dunque, di identificare con chiarezza cosa non vi rientri.

È proprio questo lo sforzo che gli autori del testo sembrano effettuare quando affermano che “la nostra proposta definitoria di Sistemi di Intelligenza artificiale per finalità generali esclude una varietà di sistemi che sono progettati e allenati per compiere attività e obiettivi concreti”. Gli stessi tengono a precisare come tale proposta sia da considerarsi agnostica rispetto agli sviluppi futuri e atta a includere gli stessi, rispondendo dunque a quelle esigenze di flessibilità fondamentali per risolvere il cosiddetto “dilemma di Collingridge” secondo il quale la regolamentazione degli sviluppi tecnologici è posta dinnanzi a un bivio metodologico: “Quando il cambiamento è facile, non è possibile prevederne la necessità. Quando la necessità di cambiare è evidente, il cambiamento è diventato costoso, difficile e richiede tempo”.

Le raccomandazioni terze

Tale tentativo definitorio, nell’ottobre 2022, è stato posto alla base di una lettera indirizzata al Parlamento europeo e sottoscritta da un gruppo di enti no-profit e allo scopo di esortare il legislatore comunitario, in primis, a prendere atto degli emendamenti proposti sia dallo stesso Parlamento sia dal Consiglio in tema di Sistemi di Intelligenza artificiale per finalità generali e, in secondo luogo, a non fermarsi e compiere un passo successivo, ossia garantire che tali sistemi siano sicuri quando offerti sul mercato e in grado di tutelare i diritti delle persone, tramite una struttura regolamentare che cementifichi le lacune e assicuri la certezza del diritto.

A tale scopo, le nove organizzazioni firmatarie sollecitano una condivisione della responsabilità fra sviluppatori e utenti sulla base del livello di controllo, nonché delle risorse e delle capacità di ciascuna delle due categorie. In una prospettiva attenta alle caratteristiche della realtà dei fatti, si propone l’applicazione delle obbligazioni contenute nel titolo III, capitolo II della proposta di Regolamento, intitolato “Requisiti per i sistemi di IA ad alto rischio”, anche agli sviluppatori e ai fornitori di Sistemi di Intelligenza artificiale per finalità generali.

L’oggetto di tali obbligazioni ha contenuto variabile: dal prevedere sistemi di gestione del rischio e della qualità all’organizzare piani di data governance, dal redigere documentazione tecnica al testare l’accuratezza e la robustezza dei sistemi.

Infatti, secondo l’ottica condivisa dagli autori, la quale senza dubbio mira a una tutela specifica dell’utente finale, tenendo in considerazione il contesto della società civile all’interno della quale la suddetta iniziativa è maturata, nel caso tali obbligazioni fossero imposte all’utente l’intera struttura andrebbe a presentare delle falle: in particolare, nella garanzia di sicurezza dei sistemi dal momento che l’utente, in linea generale, non ha la facoltà di agire in alcun modo per controllare il sistema, nonché per cambiarne o influenzarne il comportamento, con la conseguenza che rimarrebbe soggetto a manipolazioni, distorsioni e discriminazioni.

Interessante e forse inaspettata, tuttavia, è l’intuizione scattata nella parte conclusiva della lettera, la quale accantona l’orizzonte di totale deresponsabilizzazione dell’utente in favore di uno scenario di collaborazione e bilanciamento che riprende l’animo iniziale della proposta: l’utente, infatti, dovrebbe essere tenuto al rispetto dei requisiti del medesimo titolo sulla base dell’alto rischio di ciascun caso di specie, in particolare quando l’uso specifico non possa essere ragionevolmente previsto dai fornitori.

Tali raccomandazioni sembrano aver trovato terreno fertile in cui germogliare, dal momento che le ultime informazioni relative al processo di approvazione della proposta di Regolamento, emerse con l’Orientamento generale adottato dal Consiglio lo scorso 6 dicembre, sembrano puntare verso un ruolo sempre più rilevante per la disciplina dei Sistemi di Intelligenza Artificiale per finalità generali, ai quali viene dedicato un titolo apposito, il Titolo IA.

Sembrerebbe, inoltre, essere demandato a un successivo atto di implementazione il compito di specificare le modalità di applicazione dei requisiti previsti per i Sistemi di IA ad alto rischio ai Sistemi di Intelligenza artificiale per finalità generali. Il contenuto di tale atto di implementazione dovrebbe, secondo le previsioni, trovare le proprie basi in una probabilmente nuova consultazione, nonché in una dettagliata valutazione d’impatto, oltre a tenere in considerazione alcuni fattori imprescindibili, ossia le caratteristiche specifiche dei sistemi, la catena del valore, la fattibilità tecnica, gli sviluppi tecnologici e del mercato.

Conclusioni

A questo punto, occorrerà attendere l’adozione dell’Orientamento generale da parte del Parlamento europeo, al fine di vedere iniziare le operazioni di negoziazione in trilogo con il Consiglio e la Commissione. Proprio il dialogo interistituzionale, nonché con enti promotori ed estensori delle istanze della società civile, sembra poter essere la chiave di volta per affrontare in una prospettiva non solo normativa, ma interdisciplinare, un argomento complesso e ricco di sfaccettature come quello dell’Intelligenza artificiale e, in particolare, l’angolo visuale rispetto all’Intelligenza artificiale generale.

Bilanciando le correnti oltremodo ottimistiche e pessimistiche in nome di un realismo al contempo attento e propositivo, la stessa potrebbe diventare, in futuro, non un ostacolo o uno scenario da temere, ma una realtà che, se adeguatamente regolata in nome di istanze etiche e di tutela dei diritti fondamentali, possa essere sfruttata nel contesto di una cooperazione uomo-macchina in grado di condurre a un miglioramento della qualità della vita.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3