l’analisi

IA: perché servono regole globali e condivise, presto



Indirizzo copiato

Non possiamo lasciare le IA in un far west normativo. Ed è ormai chiaro che anche le prime norme come l’AI Act arriveranno troppo tardi. Perciò servono regole quanto più possibile armonizzate a livello mondiale. E su questo stanno già lavorando Ue e Usa

Pubblicato il 16 giu 2023

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Roberta Savella

Docente in materia di diritto delle nuove tecnologie e responsabile per la formazione presso Istituto di Formazione Giuridica SRLS Unipersonale



shutterstock_1479885494.jpg

Mentre nell’Unione Europea prosegue il percorso per l’emanazione dell’AI Act, il cui testo è stato approvato il 14 giugno dal Parlamento europeo, negli Stati Uniti si discute della necessità di disciplinare il settore, con la consapevolezza di essere già in ritardo rispetto ai problemi che l’Intelligenza Artificiale già pone per la società.

Diventa sempre più evidente come gli sforzi legislativi rischino di dare risultati troppo tardi, rincorrendo un settore che negli ultimi mesi ha dimostrato una rapidità di evoluzione con cui le istituzioni non riescono a stare al passo; problema che riguarda comunque anche il vecchio continente, perché anche se si riuscisse a finalizzare il Regolamento europeo entro il 2023 (cosa che sembra sempre più probabile) dovrebbero passare almeno un altro paio di anni prima della sua piena applicabilità, se verrà confermato il periodo transitorio attualmente previsto dal testo – e in due anni, ormai lo abbiamo visto, molto può cambiare nel settore dell’Intelligenza Artificiale.

L’intervento di Altman nel Senato USA e i rischi dell’IA

Nel frattempo, gli stessi soggetti che stanno contribuendo allo sviluppo delle IA più diffuse esprimono preoccupazioni sui rischi posti da queste nuove tecnologie. Sam Altman, CEO di OpenAI (la società “madre” di ChatGPT), lo scorso 16 maggio è stato sentito di fronte a un sottocomitato del Senato statunitense, e ha colto l’occasione per ricordare la necessità di una regolamentazione delle IA. Altman ha affermato che “we believe that the benefits of the tools we have deployed so far vastly outweigh the risks, but ensuring their safety is vital for our work” (crediamo che i benefici degli strumenti che abbiamo sviluppato a questo punto superano di molto i rischi, ma assicurare la loro sicurezza è vitale per il nostro lavoro – traduzione nostra) e, dopo aver brevemente illustrato gli sforzi della società per testare con varie tecniche (come il red teaming) i propri prodotti prima di renderli disponibili al pubblico, ha sottolineato che “however we think that regulatory intervention by government will be critical to mitigate the risks of increasingly powerful models” (ad ogni modo, pensiamo che un intervento regolatore da parte del governo avrà una importanza critica per mitigare i rischi di modelli sempre più potenti – traduzione nostra). Il CEO di OpenAI ha quindi suggerito, come misure che potrebbero essere adottate dalle istituzioni statunitensi, la combinazione tra obblighi di licenza e di collaudo prima del rilascio di nuovi sistemi di IA che superino un certo livello di “abilità”. Altman inoltre auspica una collaborazione tra le società coinvolte nella progettazione di questi strumenti e i governi per assicurare che i nuovi modelli di IA rispettino dei requisiti di sicurezza.

Colpisce poi una delle preoccupazioni espresse da Altman: dopo aver elogiato il fatto che oggi le persone che usano questi modelli siano consapevoli degli errori che questi ancora commettono, cosa che le porta a prenderne i risultati con una certa cautela (ma pensiamo alla vicenda dell’avvocato che ha prodotto in giudizio dei precedenti “trovati” da ChatGPT e che sono risultati del tutto inventati), lo scienziato ammette che mano a mano che la tecnologia diventerà sempre più complessa e sofisticata aumenterà il rischio che gli utenti diventino meno cauti e, quindi, gli errori commessi dalle IA potrebbero passare sempre più inosservati. Per questo è auspicabile che le società rendano pubblici gli errori commessi dai propri modelli, anche se in molti casi è piuttosto complesso individuarli perché molti di questi sistemi sono progettati proprio per fornire risposte in una forma che sembri estremamente attendibile: è il caso delle cosiddette “allucinazioni” delle IA che, secondo lo scienziato Geoffrey Hinton, sono in realtà una “feature” dei modelli, perché il fatto di non dire sempre la verità o fatti accurati li rende molto più simili agli esseri umani.

Durante il botta e risposta tra Altman e il sottocomitato sono state affrontate anche le questioni legate alla sostituzione di molti lavori da parte dell’IA (e la creazione di altre posizioni), e i rischi in generale di queste tecnologie, tanto che il CEO ha affermato che “I think that if the technology goes wrong, it can go quite wrong” (in sostanza: se qualcosa va male, potrebbe mettersi molto male), riecheggiando così le preoccupazioni che negli ultimi mesi sono state espresse da molte figure celebri del settore, tra cui appunto Hinton (considerato uno dei “padri” dell’IA) sui “rischi esistenziali” posti dalle nuove tecnologie per l’intera umanità.

I rischi attuali dell’IA secondo le categorie sottorappresentate nel settore tech

Tuttavia, non manca chi considera i rischi paventati da Altman e Hinton al limite del fantascientifico e un modo per distogliere l’attenzione dai problemi che vengono già posti dall’IA e che hanno comunque effetti “esistenziali” su alcuni soggetti la cui voce viene di rado ascoltata nel settore tech.

L’8 maggio 2023 un gruppo di esperti del settore ha indirizzato una lettera aperta ai media e ai legislatori e non è un caso che tra i firmatari spicchi il nome di Timnit Gebru, la ricercatrice che nel 2020 ha dovuto rinunciare al suo posto di lavoro presso Google perché ha pubblicato un paper sui problemi di discriminazione posti dai bias dell’IA. La lettera, infatti, ha l’obiettivo di mettere in luce i rischi del tutto attuali dell’IA per le donne, le persone non binarie, le persone di colore, le minoranze etniche e le persone svantaggiate dal punto di vista economico. Queste categorie hanno sperimentato sulla loro pelle i danni che stanno facendo le IA attualmente utilizzate: la sorveglianza, gli errori nei confronti delle minoranze sottorappresentate nei dataset, le decisioni discriminatorie prese da algoritmi che hanno “imparato” incorporando ingiustizie presenti nella società e, quindi, si comportano di conseguenza. Eppure, dice la lettera, queste persone rimangono marginalizzate anche nel dibattito sui rischi posti dalle IA, perché vogliono portare l’attenzione su questi problemi invece che sugli scenari catastrofici per l’umanità di cui ora parlano i CEO delle grandi società che producono le Intelligenze Artificiali. Viene citata una intervista a Hinton per la CNN nella quale il “padre” dell’IA ha definito le questioni sollevate da Timnit Gebru non tanto “esistenziali” quanto quelle sollevate da lui stesso, di fatto quindi sminuendo (e, in un certo senso, silenziando) quanto affermato dalla scienziata e attivista.

“We reject the premise that only wealthy white men get to decide what constitutes an existential threat to society, and we call on policymakers and news media to diversify their sources” (rigettiamo la premessa che solo uomini bianchi facoltosi possano decidere cosa costituisce un pericolo esistenziale per la società, e chiediamo ai legislatori e ai media di diversificare le loro fonti – traduzione nostra) scrivono gli esperti firmatari della lettera. Lo stesso concetto di “rischio” deve essere definito ascoltando anche le voci dei soggetti sottorappresentati nel settore. E se pensiamo a quanto questo concetto sia fondamentale anche a livello normativo (lo stesso AI Act si basa sulla categorizzazione delle IA in base al rischio) non stupisce affatto che gli esperti ritengano così importante partecipare attivamente al dibattito. Sarebbe stato interessante, ad esempio, se all’incontro con Sam Altman al Senato statunitense fosse stata presente anche Timnit Gebru.

In attesa delle leggi specifiche: codici di condotta con adesione volontaria e utilizzo delle norme già esistenti per altri settori

Ad ogni modo, su una cosa sono tutti d’accordo: non possiamo lasciare le Intelligenze Artificiali in un “Far West” normativo. Ed è ormai chiaro che anche le prime norme come l’AI Act arriveranno troppo tardi, e che in ogni caso c’è la necessità di avere delle regole quanto più possibile armonizzate a livello mondiale.

Per questi motivi le istituzioni europee stanno dialogando con quelle statunitensi per scrivere un codice di condotta comune, che potrebbe disciplinare il settore in attesa della piena applicabilità di norme vincolanti. Margrethe Vestager, Vicepresidente della Commissione UE, e Antony Blinken, segretario di stato statunitense, hanno annunciato a fine maggio che nel giro di alcune settimane verrà presentata la prima bozza. Si tratterà comunque di regole con adesione volontaria, che saranno aperte a tutti i Paesi che condivideranno le idee ad esse sottese.

Conclusioni

Nel frattempo, negli USA una soluzione prospettata da alcuni è l’applicazione analogica di regole che disciplinano alcuni settori specifici, come le leggi sull’antitrust per evitare comportamenti scorretti delle aziende che creano le IA. In Italia, invece, abbiamo avuto un piccolo “assaggio” di come le leggi pre-esistenti abbiano una certa influenza anche sull’uso delle nuove tecnologie con la limitazione provvisoria del trattamento dei dati personali imposta dal nostro Garante privacy lo scorso marzo nei confronti di OpenAI. Si tratta però, chiaramente, solo di soluzioni temporanee, in attesa di regole specifiche per queste nuove tecnologie, che non arriveranno mai troppo presto.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3