intelligenza artificiale

Quali regole per la rivoluzione AI: le scelte dell’Europa e del mondo

Il Parlamento UE ha appena emendato l’AI Act anche e soprattutto per includere i nuovi sistemi di intelligenza artificiale generativa.
Nel mondo ci sono diversi approcci alla regolazione dell’AI però e opinioni contrastanti degli esperti. Ecco un quadro

Pubblicato il 28 Apr 2023

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Roberta Savella

Docente in materia di diritto delle nuove tecnologie e responsabile per la formazione presso Istituto di Formazione Giuridica SRLS Unipersonale

chatgpt privacy

L’ascesa di alcune sempre più popolari applicazioni dell’Intelligenza Artificiale generativa sta animando il dibattito mondiale sulla regolamentazione delle nuove tecnologie. Pensiamo a ChatGPT e a tutte le discussioni da questa sollevate, ma anche alle dispute relative all’uso di Midjourney e altre applicazioni simili in vari contesti dove, fino a qualche mese fa, dominava la creatività umana. È inevitabile che questi sviluppi così dirompenti abbiano una qualche influenza sul processo legislativo volto a disciplinare l’IA, che nell’Unione Europea si sta focalizzando sull’emanazione dell’attesissimo “AI Act”, che è stato appena emendato dal Parlamento UE anche e soprattutto per includere i nuovi sistemi generativi.

Parlamentari dell’UE hanno proposto nuove distinzioni e definizioni da inserire nel futuro Regolamento, e il 27 aprile hanno trovato un accordo politico sulla bozza di testo, che sembra ora destinato al voto in plenaria il prossimo giugno.

Vari esperti, pur chiedendo a gran voce la formalizzazione di regole specifiche per questo settore, mettono anche in guardia le istituzioni dal farsi influenzare troppo dalla tecnologia del momento.

ChatGPT in azienda: ecco gli impatti sul mondo del lavoro

Le nuove definizioni proposte per l’AI Act e l’accordo raggiunto in seno al Parlamento europeo

L’approccio dei parlamentari si è assestato su tre livelli di regolamentazione, che riguardano:

  1. La distribuzione della responsabilità lungo tutta la filiera dell’IA;
  2. La previsione di specifiche salvaguardie per i foundation model;
  3. La risoluzione di questioni specifiche legate ai modelli di IA generativa.

Una grossa novità inserita nella nuova bozza è la distinzione tra foundation model, per cui viene previsto un regime più stringente, e le general purpose AI.

Un foundation model è definito come un modello di sistema di IA che è stato addestrato su quantità di dati su larga scala, che è stato progettato per una generalità di output e che può essere adattato a una grande varietà di funzioni specifiche.

La general purpose AI, invece, viene definita un sistema di IA che può essere utilizzato e adattato per una grande varietà di applicazioni per le quali non era stato intenzionalmente e specificamente progettato.

Per quanto riguarda la prima categoria, vengono previsti una serie di obblighi per i produttori, che comprendono vari test e la minimizzazione dei rischi ragionevolmente prevedibili per la salute, la sicurezza, i diritti fondamentali, l’ambiente la democrazia e il principio di legalità. In questi processi devono essere coinvolti anche esperti indipendenti. Sono previste inoltre misure di data governance, comprensive di verifiche sulla sostenibilità delle fonti dei dati, su possibili bias e i modi appropriati per minimizzarli. Questi modelli dovranno poi essere monitorati per garantirne il corretto funzionamento durante tutto il loro periodo di utilizzo e dovranno essere registrati in un database europeo.

Se i foundation models rientrano anche nella categoria di IA generativa (pensiamo al famoso ChatGPT), sono soggetti a ulteriori requisiti di trasparenza: è previsto l’obbligo di pubblicare un documento riassuntivo relativamente all’utilizzo, in fase di addestramento dei modelli, di dati che ricomprendano informazioni protette da normative sul copyright. Inizialmente era stato proposto un approccio molto più stringente, con un divieto di utilizzo di questo materiale nella creazione delle IA generative, ma questa linea è stata abbandonata, preferendo la trasparenza come metodo per proteggere i diritti degli individui favorendo al contempo l’innovazione[6].

È interessante notare come sia stato dato sufficientemente rilievo anche al tema ambientale: viene infatti affidato all’AI Office il compito di fornire indicazioni e consigli sul consumo di energia connesso all’addestramento dei foundation model, mentre i produttori di questi sistemi devono rendere noti i consumi effettuati e il tempo necessario per questa fase di creazione dell’IA. In generale, i foundation model devono rispettare gli standard ambientali europei.

Per quanto riguarda i modelli di IA generativa, all’ultimo minuto in fase di accordo nel Parlamento europeo è stata inserita la previsione per cui questi sistemi devono essere progettati e sviluppati rispettando la normativa europea e i diritti fondamentali, compresa la libertà di espressione[7].

Cenni su altre questioni decise dal Parlamento nell’ultima bozza dell’AI Act

Abbiamo visto fin qui le nuove previsioni specificamente introdotte per le general purpose AI e per l’IA generativa. Nella bozza di Regolamento oggetto dell’accordo politico del 27 aprile i parlamentari europei hanno però raggiunto una quadra anche su altre questioni dibattute relativamente alla disciplina dell’IA in generale:

  • Il divieto di utilizzo di software di identificazione biometrica, previsto inizialmente solo per i casi di uso real-time, viene esteso anche all’utilizzo ex-post, tranne che nei casi di crimini gravi (per i quali è comunque necessaria un’approvazione preliminare);
  • Viene vietato l’uso di software di IA per il riconoscimento delle emozioni nelle attività di polizia, di controllo delle frontiere, sui luoghi di lavoro e nei contesti educativi;
  • Il divieto di polizia predittiva viene esteso agli illeciti amministrativi;
  • Viene confermato che un sistema che rientra nell’elenco dell’Allegato III potrà essere considerato ad alto rischio solo se pone un rischio significativo per la salute, la sicurezza o i diritti fondamentali. Anche le IA utilizzate per gestire infrastrutture critiche come quelle energetiche o di distribuzione dell’acqua potranno essere classificate come ad alto rischio se comporteranno un pericolo ambientale grave. Allo stesso modo, rientreranno in questa categoria i sistemi di raccomandazione delle piattaforme online molto grandi (le “very large online platforms” così come definite nel Digital Services Act);
  • I parlamentari hanno previsto delle ulteriori tutele per individuare bias quando i produttori di modelli di IA ad alto rischio possono trattare dati particolari (ad esempio l’orientamento sessuale o la fede religiosa);
  • Vengono indicati dei principi generali che devono essere rispettati da tutti i modelli di IA: la sorveglianza e l’intervento umano, la robustezza tecnica e la sicurezza, la tutela della privacy e la data governance, la trasparenza, il benessere sociale e ambientale, la diversità, la non discriminazione e la correttezza.

Le cinque considerazioni degli esperti

Un gruppo internazionale di esperti sull’Intelligenza Artificiale fondato dalla ricercatrice Timnit Gebru e che ricomprende anche firmatari istituzionali come l’AI Now Institute, AlgorithmWatch, l’Algorithmic Justice League con Joy Buolamwini e tanti altri ha pubblicato un documento di indirizzo sulla regolamentazione delle general purpose AI nell’AI Act nel quale vengono enunciate cinque considerazioni che dovrebbero essere poste alla base della stesura del Regolamento per quanto riguarda queste specifiche IA.

Nell’introduzione, gli esperti mettono però in guardia contro il rischio di adattamento eccessivo (“overfitting”) della nuova disciplina alle “questioni del giorno”: l’ingombrante presenza nel dibattito contemporaneo di applicazioni come ChatGPT, DALL-E 2, Bard, potrebbe far perdere di vista il fatto che queste sono solo “la punta dell’iceberg”, e che quindi il tema delle general purpose AI si estende ben oltre queste tecnologie oggi tanto discusse.

L’obiettivo del documento è fornire invece delle linee guida di ampio respiro, che consentano di arrivare alla stesura di una regolamentazione resistente alla prova del tempo.

Vediamo quindi nel dettaglio le cinque considerazioni degli esperti:

  1. La definizione delle general purpose AI deve tenere conto del fatto che si tratta di una categoria vasta e in continua espansione, per cui deve essere scritta in modo da potersi applicare a un ampio spettro di prodotti. Non è opportuno, quindi, focalizzarsi sulle IA generative di testi o immagini (quelle che oggi suscitano più scalpore), ma bisogna considerare anche IA forse meno affascinanti per l’opinione pubblica, come i complessi modelli statistici usati per prevedere rischi per la salute a partire da informazioni raccolte da aziende sanitarie, o quelli utilizzati per distribuire benefici pubblici grazie ad analisi di dati amministrativi. Queste ultime, infatti, presentano comunque caratteristiche tali da mettere a rischio la società tanto quanto le più famose IA generative. Bisognerebbe rendere la definizione di general purpose AI tecnologicamente neutra, e per fare questo il focus dovrebbe essere sul fatto che il modello sia talmente versatile da poter essere applicato a una moltitudine di usi diversi, anche ad alto rischio. Vedremo nel prossimo paragrafo che i parlamentari europei hanno trovato un accordo su questa definizione, introducendo anche una importante distinzione.
  2. I modelli di general purpose AI contengono dei rischi congeniti, ben evidenti fin dal loro utilizzo come base per tecnologie più complesse o per usi ulteriori. È ormai chiaro, infatti, che anche semplicemente il modo in cui si forma il dataset necessario all’”addestramento” degli algoritmi ha un impatto fondamentale su possibili bias della versione finale dell’IA, oltre al fatto che la raccolta stessa dei dati potrebbe essere fatta violando diritti e garanzie per gli individui, ad esempio formando un enorme database di immagini tramite sorveglianza di massa. È importante considerare anche se e come questi dati vengano conservati.
  3. Le general purpose AI dovrebbero essere regolamentate durante tutto il ciclo di vita del prodotto e le società che sviluppano questi modelli devono essere responsabili per il trattamento dei dati e per le scelte di progettazione che fanno. In molti casi, infatti, gli utenti o i fornitori finali dei sistemi di IA non hanno le capacità per accedere al modello alla base dell’applicazione o per comprenderne il funzionamento. Non prevedere regole per la fase di sviluppo significherebbe quindi consentire a chi progetta questi sistemi di ottenere profitti dal loro utilizzo in applicazioni successive, che usano le general purpose AI come base per il proprio funzionamento, senza però avere alcuna responsabilità per eventuali problemi derivanti dalla creazione del modello stesso.
  4. La normativa non deve contenere la possibilità per gli sviluppatori delle IA di esimersi da responsabilità con clausole contrattuali standard e disclaimer. Non seguire questo approccio significherebbe far ricadere il rischio sugli ultimi “anelli” della catena di produzione che, in molti casi, non hanno alcun margine di azione per mitigarlo. La possibilità di inserire una clausola di esonero da responsabilità in complessi documenti legali (come, ad esempio, nei Termini e Condizioni di utilizzo) potrebbe essere un disincentivo a comportamenti diligenti e prudenti in fase di progettazione delle general purpose AI.
  5. Il Regolamento dovrebbe evitare di prevedere dei metodi di valutazione e scrutinio delle general purpose AI troppo stringenti e predefiniti, che rischierebbero di diventare delle valutazioni meramente formali e superficiali. Ci troviamo, infatti, in una area di ricerca e sviluppo particolarmente attiva e dibattuta, che dovrebbe essere soggetta ad ampie consultazioni che ricomprendano anche ricercatori e altri attori non strettamente coinvolti nello sviluppo e nella commercializzazione di questi sistemi. Siamo di fronte a questioni che riguardano la società tutta, e quindi bisognerebbe consentire valutazioni e discussioni sulle general purpose AI coinvolgendo una moltitudine di soggetti, anche non tecnici o istituzionali. Secondo gli esperti, quindi, bisogna evitare di fissare parametri troppo rigorosi in questo contesto, favorendo invece dialoghi e riflessioni più ampie.

Conclusioni

Negli ultimi mesi il ritmo dello sviluppo tecnologico ha raggiunto una velocità allarmante, tanto che si è arrivati addirittura a un appello, pubblicato dal Future of Life Institute e firmato da Elon Musk e molte altre personalità importanti del settore, per chiedere di sospendere per almeno 6 mesi la creazione di IA più potenti di GPT-4.

Si fa sentire quindi sempre di più la necessità di una regolamentazione forte di questi nuovi sistemi, ma la sfida è creare testi normativi che resistano alla prova del tempo: è ormai chiaro che anche nel giro di poche settimane potremmo assistere a cambiamenti radicali e a novità inimmaginabili. Per questo è importante seguire le indicazioni degli esperti, modellando le nuove regole sulla base di forti principi, rendendole così adattabili anche alle IA che verranno.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati