regole

IA, la politica italiana non si faccia trovare impreparata



Indirizzo copiato

La politica si trova ad affrontare questioni cruciali legate all’Intelligenza Artificiale. Tra indagini conoscitive, intergruppi parlamentari e una governance stratificata dell’IA, l’Italia è chiamata a definire strategie adeguate per l’uso e la regolamentazione di questa tecnologia, bilanciando il diritto alla privacy con le esigenze di ordine pubblico. L’AI Act è un punto di riferimento fondamentale

Pubblicato il 21 dic 2023

Giulia Pastorella

Deputata della Repubblica italiana, vicepresidente di Azione e Consigliera comunale a Milano



Coltivando il verso: la sfida di scrivere poesia con GPT4

LIntelligenza Artificiale è entrata così tanto nelle nostre vite che neppure la politica può più ignorarla.

Negli ultimi anni, infatti, abbiamo assistito a diversi tentativi da parte dei regolatori nazionali e sovranazionali di comprendere e dettare regole adatte ad inquadrare questa tecnologia e le sue applicazioni, indirizzandone al meglio i cambiamenti che inevitabilmente ad essa si accompagneranno.

La politica italiana di fronte ai dilemmi dell’intelligenza artificiale

Purtroppo, come spesso accade, ne esce una cacofonia di norme e incentivi che non solo è difficile da leggere ma – addirittura – rischia di avere effetti che scoraggiano gli investimenti e rallentano lo sviluppo tecnologico. Un esempio lo vediamo chiaramente in Italia: mentre Mimit e Dipartimento per la Transizione Digitale litigano su quale dovrebbe essere l’approccio al tema, la strategia per l’intelligenza artificiale italiana varata nel 2020 aspetta ancora di essere implementata.

Viste, dunque, le ambiguità e le discussioni interne al nostro Governo, ho pensato di provare a fare un po’ di chiarezza fornendo una panoramica di cosa sta accadendo sul fronte regolamentare sia a livello europeo che italiano.

L’Italia e l’IA: tra indagini conoscitive e intergruppi parlamentari

Essendo quello dell’Intelligenza Artificiale un tema di frontiera, tra le attività oggi preferite dalla politica ci sono, giustamente, le indagini conoscitive. In diverse commissioni di Camera e Senato si sta cercando di approfondire insieme agli stakeholder di settore i potenziali impatti di questa tecnologia in diversi ambiti (cultura, mercato del lavoro, sistema produttivo e così via).

Accanto all’attività più “istituzionale” è tutto un fiorire di intergruppi parlamentari. Si tratta di associazioni di parlamentari (sia deputati che senatori) che, accomunati dall’interesse per un certo tema, si uniscono per discutere, approfondire e fare proposte legislative comuni. E così, oltre al già consolidato Intergruppo Innovazione di cui anche io faccio parte, sono nati l’Intergruppo Intelligenza Artificiale, l’Intergruppo per la Sicurezza Informatica e Tecnologica e l’Intergruppo per l’Inclusione digitale. E poiché il signaling rimane una delle attività preferita di chi fa politica, insieme agli intergruppi sono arrivate anche le prime proposte di legge.

Tra quelle degne di nota, c’è sicuramente quella del collega leghista Giulio Centemero che mira all’istituzione di una Sandbox regolamentare, ovvero una “disciplina temporanea per la sperimentazione dell’impiego di sistemi di Intelligenza Artificiale”, sulla falsariga di quanto recentemente approvato dall’Unione Europa con l’AI Act (ci arriviamo).

L’attività di indagine di cui sopra, comunque, non si esaurisce a Roma. Anche a livello comunale, alcune amministrazioni, come il Comune di Milano in cui siedo come Consigliera, si stanno muovendo per capire l’impatto dell’Intelligenza Artificiale sul tessuto produttivo locale, oltre che sui servizi pubblici (che nel caso di Milano sono già ampiamente digitalizzati).

Strategia italiana sull’Intelligenza Artificiale: il punto della situazione

Già nel 2020 l’Italia si era dotata di una strategia per l’Intelligenza Artificiale per il triennio 2021-2023. Nonostante questa non abbia trovato piena applicazione, alla volta del 2024, è indubbio che abbia ormai fatto il suo tempo. Per questo motivo il Governo ha di recente convocato un nuovo gruppo di esperti per stilare entro la prossima primavera un piano quinquennale per l’IA.

Il Comitato è coordinato da Gianluigi Greco, presidente dell’Associazione italiana per l’Intelligenza Artificiale (Aixia) e formato da tredici esperti di settore, tra cui il prorettore dell’Università di Torino Guido Biella, la presidente del CNR Maria Chiara Carrozza, padre Paolo Benanti, docente della Pontificia Università Gregoriana e il divulgatore ed esperto di tecnologie digitali Marco Camisani-Calzolari.

Al momento non è dato sapere come stiano procedendo i lavori, ma quello che mi auspico è che non si riparta da zero, bensì si proceda a un aggiornamento della vecchia strategia, magari concentrandosi sui punti rimasti in sospeso e che ancora hanno senso, come l’istituzione del famoso Centro Nazionale per l’intelligenza artificiale tanto atteso e che dovrebbe essere istituito a Torino, o le questioni di governance, come il comitato interministeriale specifico, che al momento non è mai stato convocato.

L’IA lungo quel sottile confine che divide regolamentazione e applicazione

Si tratta dunque di muoversi lungo quel confine piuttosto sottile che divide regolamentazione e applicazione. Infatti, se da un lato uno Stato europeo non dovrebbe avere la pretesa di gettare i framework normativi, dall’altro non può naturalmente avere la pretesa di centralizzare tutte le decisioni e gli investimenti relativi a una materia così complessa e in continua evoluzione. Ciò che va ricercato è la realizzazione di politiche concrete e misurabili nel tempo da attuare sul territorio nazionale per favorire gli operatori privati.

Un recente esempio concreto è quello spagnolo, dove è stata istituita una agenzia di supervisione dell’Intelligenza Artificiale, che diventerà pienamente operativa entro la fine del 2023 e che sarà responsabile per lo sviluppo, la supervisione e il monitoraggio dei progetti di IA nel territorio nazionale, inclusa la verifica del rispetto degli aspetti etici.

Si tratta di iniziative che dovranno coesistere con l’AI Act, di cui parleremo tra poco, che porterà con sé nuove prescrizioni e un maggior coordinamento tra gli Stati membri. Le autorità nazionali saranno chiamate alla sorveglianza del mercato supervisionando l’attuazione delle nuove norme a livello nazionale, mentre la creazione di un nuovo Ufficio europeo per l’AI all’interno della Commissione europea garantirà il coordinamento a livello europeo.

Il quadro europeo: l’AI Act e il suo impatto

Dunque, parallelamente alle varie iniziative nazionali, qualcosa si è mosso anche a Bruxelles e, seppur con qualche intoppo, l’AI Act sta procedendo nel suo iter legislativo. Il trilogo di Commissione, Consiglio e Parlamento ha raggiunto un accordo a inizio dicembre e, benché il testo finale debba ancora essere pubblicato, la direzione intrapresa è chiarissima.

Come noto, il regolamento copre diversi ambiti e li classifica secondo il proprio profilo di rischio, con obblighi crescenti man mano che il rischio cresce: dagli algoritmi delle automobili a guida autonoma, al riconoscimento facciale per motivi di sicurezza e ordine pubblico, finanche le applicazioni già viste in Cina di social scoring.

Uno dei temi centrali nella discussione è stato proprio quello relativo al riconoscimento automatico degli individui nelle riprese delle telecamere di sicurezza. Durante i negoziati si sono scontrate due esigenze: il rispetto della privacy delle persone contro la tutela dell’ordine pubblico. L’Italia è stata tra i Paesi che hanno spinto affinché si potesse arrivare ad ammettere alcune eccezioni al divieto di riconoscimento facciale da parte delle forze dell’ordine. Una decisione di compromesso che lascia leggermente perplessi, anche alla luce del fatto che nessuna regola vieterà alle imprese europee di produrre tecnologie di riconoscimento facciale per le forze dell’ordine da vendere al di fuori dei confini dell’Unione (un po’ ipocrita, no?).

Una sandbox regolamentare per le sperimentazioni in ambito AI

Ad ogni modo, la legge introduce anche una sandbox regolamentare per le sperimentazioni in ambito AI (come quella proposta da Centemero), che garantirà a tutti un corretto uso di dati e informazioni a disposizione, e nuove regole per le tecnologie Foundational, come quelle alla base di ChatGPT e competitor.

Il dibattito sulle foundational models

Sono stati previsti due livelli di regolamentazione, con previsioni più stringenti per le applicazioni ad alto impatto. Anche questo è stato terreno di scontro, con Francia, Germania e Italia che hanno minacciato di affossare la norma qualora le restrizioni non fossero state applicate esclusivamente nella fase di commercializzazione. Un dibattito acceso, che ha avuto un’eco anche in Italia nella polemica tra il Ministro dell’Industria e del Made in Italy Urso e il Sottosegretario di Stato alla Trasformazione Digitale Butti, con il secondo su posizioni decisamente più concilianti.

Governance stratificata dell’IA: il ruolo dell’Europa e dell’Italia

Quella che emerge dal quadro fin qui descritto è dunque una governance stratificata, in cui il framework normativo è dettato a livello europeo, con un regolamento, l’AI Act, che al contrario di una direttiva non lascia grandi spazi interpretativi e applicativi.

In subordine, a livello italiano, il Parlamento si prepara a potenziali normative settoriali. Il Dipartimento per la Trasformazione Digitale assumerà un ruolo centrale nell’implementazione di una strategia nazionale e nella verifica del suo sviluppo da un punto di vista tecnico e di monitoraggio (tramite anche la definizione di opportuni indici quantificabili) su tutto il territorio nazionale. Rimane, infine, il ruolo del MIMIT, che si auspica sia di supporto e guida alle imprese che operano e vogliono investire in questa tecnologia fondamentale.

Conclusioni

A ciascuno il suo, insomma, sperando che i vari attori lavorino di concerto per evitare che questa tecnologia – che oramai non è neppure più così nuova – trovi il nostro Paese impreparato e incapace di coglierne gli immensi benefici perché troppo timoroso per affrontarne le sfide.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati