AI Act

Disciplinare le IA generative, ma come? A caccia di un equilibrio tra regole e innovazione



Indirizzo copiato

Negli USA si ha già notizia delle prime class action contro OpenAI, società madre di ChatGPT, per trattamento illecito di dati personali e violazione del diritto d’autore. Ma le IA generative sono al centro dello sciopero della Writers Guild of America che ha fermato Hollywood e le serie Tv. Ecco come trovare un bilanciamento tra…

Pubblicato il 22 ago 2023

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Roberta Savella

Docente in materia di diritto delle nuove tecnologie e responsabile per la formazione presso Istituto di Formazione Giuridica SRLS Unipersonale



Disciplinare le IA generative: ecco le sfide da fronteggiare
Disciplinare le IA generative: ecco le sfide da fronteggiare

Le IA generative, quelle che consentono la creazione di testi, immagini, video o
suoni originali, dominano le discussioni sull’Intelligenza Artificiale a livello mondiale.

Le questioni giuridiche poste da questa nuova tecnologia sono molteplici. Pensiamo
alla violazione del copyright delle opere utilizzate per addestrare gli algoritmi, o al problema del trattamento dei dati personali, ma anche alla diffusione di fake news e contenuti nocivi e/o errati creati grazie all’IA.

Negli USA si ha già notizia delle prime class action contro OpenAI, società madre di ChatGPT, per trattamento illecito di dati personali e per violazione del diritto d’autore,
mentre il tema si è posto come centrale anche nel contesto dello sciopero degli sceneggiatori della Writers Guild of America. Ha poi fatto scalpore il caso dell’avvocato newyorkese che ha utilizzato la famosa chatbot per reperire casi giurisprudenziali da produrre a favore del proprio assistito e che, a seguito di analisi da parte del giudice, si sono rivelati inventati di sana pianta da ChatGPT.

Ecco le sfide da fronteggiare.

Sciopero attori e sceneggiatori in pericolo serie e film - #SmartBreak

AI Act e le misure statunitensi

Oltreoceano sono ancora ben lontani da una normativa specifica per disciplinare
l’Intelligenza Artificiale, compresa quella generativa. Nell’Unione Europea, invece, l’AI Act si trova nelle fasi finali della sua elaborazione e potrebbe essere adottato entro quest’anno.

La proposta originaria della Commissione europea, presentata nel 2021, è stata oggetto negli ultimi mesi di numerosi emendamenti. E proprio la questione dell’IA generativa e delle general purpose AI ha rallentato e complicato le discussioni sul testo.
Il voto del Parlamento europeo dello scorso giugno ha portato all’approvazione di una normativa che, su questo punto, sembra essere frutto di compromessi con le istanze delle grandi società che sviluppano le IA generative. Al fine di evitare il più possibile che l’AI Act freni l’innovazione in questo settore.

White Paper di OpenAI

Il 20 giugno il Time ha pubblicato in esclusiva il testo di un White Paper che OpenAI
aveva inviato alcuni mesi fa alle istituzioni europee
per fornire suggerimenti sull’AI Act e, in particolare, sulla disciplina dell’IA generativa.

Nel documento la società ha evidenziato i propri sforzi per minimizzare i rischi delle IA, anche tramite un monitoraggio costante, il rilascio di linee guida e best practices, e l’inserimento nei contratti con gli utilizzatori di regole precise sugli usi consentiti. Ha poi chiesto al legislatore europeo di prevedere che, quando un fornitore di IA generativa abbia esplicitamente escluso tutti gli usi ad alto rischio nelle istruzioni per l’utilizzo del proprio modello e, oltre a questo, faccia verifiche periodiche per evitare utilizzi illeciti e attui misure ragionevoli per minimizzare i rischi, la sua IA generativa non sia soggetta agli obblighi previsti per le IA ad alto rischio.

Rischio deepfake

OpenAI ha anche suggerito che, nel caso delle IA che generano contenuti deepfake o che potrebbero sembrare prodotti da umani o autentici, questi modelli non vengano inseriti nell’elenco delle IA ad alto rischio dell’Allegato III dell’AI Act. Invece chiede che si prevedano previsti gli specifici obblighi di trasparenza. Al fine di evitare che i contenuti traggano in inganno le persone – per esempio prevedendo l’apposizione di specifici contrassegni.

L’obiettivo era quello di evitare che IA generative come ChatGPT o DALL-E venissero automaticamente classificate come ad alto rischio ai sensi del nuovo Regolamento. Attualmente è piuttosto improbabile, vista la posizione su queste tecnologie del testo approvato da Parlamento europeo lo scorso giugno.

Disciplinare le IA generative nell’AI Act: ecco i problemi di compatibilità

L’esplosione del fenomeno ChatGPT non solo ha messo il legislatore europeo di fronte all’evidente difficoltà di normare un settore in così rapida evoluzione, ma anche al problema di far rientrare l’IA generativa, che per sua natura può avere una molteplicità di usi anche molto diversi tra loro, all’interno dell’impianto dell’AI Act che si fonda, invece, sulla classificazione dell’Intelligenza Artificiale sulla base del rischio derivante dal suo utilizzo. Inserire di default sistemi come ChatGPT nella categoria di IA ad alto rischio potrebbe portare a regole troppo stringenti e, di conseguenza, limitare fortemente lo sviluppo e l’uso nell’Unione Europea di sistemi che, invece, molti ritengono fondamentali per l’innovazione in tantissimi settori.

Tuttavia, è innegabile che queste tecnologie possano portare a rischi altissimi, tanto che alcuni esperti hanno prospettato possibili derive catastrofiche a causa della diffusione di queste IA e lo stesso Sam Altman, CEO di OpenAI, durante una audizione presso il Senato statunitense ha ammesso che le cose potrebbero mettersi molto male se emergesse qualche problema con questo tipo di tecnologia.

Quindi è necessario disciplinare le IA generative nell’AI Act affrontando i problemi di compatibilità con l’approccio basato sul rischio e la linea scelta dal Parlamento UE.

Regole specifiche per un compromesso

Per operare quindi un bilanciamento tra l’esigenza di non frenare l’innovazione e quella di disciplinare adeguatamente l’IA generativa, la linea scelta dal Parlamento europeo nel testo approvato lo scorso giugno è stata quella di prevedere regole specifiche per i foundation models e l’IA generativa, senza inserire quest’ultima di default nell’elenco di IA ad alto rischio.
In particolare, sono di fondamentale importanza gli obblighi di trasparenza, volti a rendere chiaro quando si sta interagendo con una IA e che un contenuto è generato dalla stessa, così come l’utilizzo in fase di training di dati relativi a contenuti protetti da copyright.

La compliance all’attuale AI Act dei grandi produttori di IA generative

Il Center for Research on Foundation Models (CRFM) dell’Università di Stanford ha pubblicato uno studio sulla compliance dei più grandi produttori di IA generativa al testo attuale dell’AI Act. Il risultato è piuttosto deludente. Al momento raramente i provider forniscono informazioni sui dati utilizzati per l’addestramento degli algoritmi, sul funzionamento e sui possibili utilizzi dei loro modelli, così come sulle loro caratteristiche principali. Inoltre, non vengono descritti gli usi di materiali protetti da copyright nel training né gli hardware utilizzati e le emissioni, né come i modelli sono valutati e sottoposti a verifiche.

Leggendo i risultati, tuttavia, emerge un certo ottimismo: i margini di miglioramento sono molti ma gli obiettivi pienamente raggiungibili. È chiaro quindi che l’adozione e implementazione dell’AI Act, se verrà confermata la sua forma attuale, potrà portare a cambiamenti positivi nell’ecosistema dell’IA generativa in un’ottica di maggiore trasparenza e accountability delle aziende, a beneficio di tutta la società.

Le quattro problematiche individuate dall’Università di Stanford

I ricercatori di Stanford individuano in particolare quattro problematiche per cui sono ancora necessarie azioni concrete per consentire un corretto adeguamento alla nuova normativa:

  • poca chiarezza sulla responsabilità e le implicazioni dell’utilizzo, in fase di training, di dati protetti da copyright;
  • Difficoltà nel segnalare i consumi energetici, anche a causa dei dubbi su come effettivamente misurarli;
  • Inadeguata comunicazione dei rischi e delle misure di minimizzazione degli stessi.

I primi, infatti, hanno un più alto livello di compliance all’attuale AI Act per quanto riguarda gli obblighi di trasparenza relativi alle risorse utilizzate. In vece presentano alcune difficoltà in merito al monitoraggio e controllo del loro utilizzo. In quest’area eccellono i modelli ad accesso chiuso o limitato.

Secondo i ricercatori, le istituzioni europee dovrebbero rafforzare gli obblighi relativi
all’utilizzo dei foundation models per i soggetti che li immettono sul mercato, per assicurare che vi sia sufficiente accountability lungo tutta la filiera.

I suggerimenti dei ricercatori per le AI generative

I ricercatori, infine, forniscono le seguenti raccomandazioni: ai legislatori europei, alle istituzioni a livello globale, ai fornitori di foundation models.

Ai legislatori europei, in fase di implementazione dell’AI Act e creazione di standard
i ricercatori raccomandano di essere chiari sui parametri da comunicare per rispettare l’obbligo di descrizione della performance del modello (includendo possibilmente fattori come l’accuratezza, la robustezza, la correttezza e l’efficienza). Inoltre, per assicurare la trasparenza dovrebbero essere previsti ulteriori fattori, come la divulgazione dei pattern d’uso (per esempio se il modello dovrebbe essere usato in ambito sanitario, o per la redazione di documenti legali).

Ma i ricercatori suggeriscono anche di prevedere questi obblighi aggiuntivi solo per i fornitori più grandi, come viene per esempio nel Digital Services Act (dove vi è una diversa disciplina sulla base delle dimensioni delle piattaforme digitali). Infine,
occorrerebbe creare specifiche agenzie di enforcement, con risorse adeguate.

Alle istituzioni a livello globale, inoltre, i ricercatori raccomandano di dare priorità alla trasparenza. Inoltre, al momento è chiaro che l’aspetto del copyright è quello in cui i fornitori di IA generative raggiungono risultati peggiori in termini di compliance con la normativa, per cui i legislatori, i regolatori e le corti dovrebbero chiarire come si applica la normativa in tema di tutela del diritto d’autore sia in fase di addestramento dei modelli sia in relazione ai prodotti dell’IA generativa.

Ecco infine i suggerimenti per i fornitori di foundation models. Dallo studio emergono varie soluzioni da implementare senza eccessivi sforzi. Per esempio, migliorando la documentazione fornita a chi poi utilizza i modelli per progettare ulteriori applicazioni. I provider dovrebbero poi contribuire all’elaborazione e all’adozione di standard per rendere l’intero sistema più trasparente e improntato all’accountability, coinvolgendo anche gli stakeholder e gli esperti del settore.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2