intelligenza artificiale

AI in Italia, lo scacchiere della governance dopo il DDL



Indirizzo copiato

Il DDL sull’IA è la prima proposta legislativa in Europa ad adottare le disposizioni del nuovo AI Act. Affronta temi cruciali come l’integrazione dell’IA nei in sanità e sul lavoro, la gestione dei contenuti generati dall’IA, la definizione dei ruoli tra le diverse Agenzie nazionali e prevede investimenti per lo sviluppo dell’IA sul territorio italiano

Pubblicato il 26 apr 2024

Gaia D'Ariano

Hermes Bay

Luisa Franchina

Presidente Associazione Italiana esperti in Infrastrutture Critiche

Maria Beatrice Versaci

Junior Analyst Hermes Bay S.r.l.



2023101820-20Digital20Talk20Cohesity20-20Iframe

Il disegno di legge sull’Intelligenza Artificiale approvato il 23 aprile 2024 dal Consiglio dei ministri fa dell’Italia il primo Paese europeo ad avere in vigore una norma che regoli tale tecnologia.

Ed è anche una sorta di “manuale cencelli” di come l’Italia sta pensando alla governance dell’intelligenza artificiale, le sue diverse pedine e responsabilità; regolatorie – Agid, Acn, Garante privacy, Agcom – ed economiche (Cdp).

Il nuovo disegno di legge prevede un adeguamento della normativa italiana all’AI Act, Regolamento UE proposto nel 2021 e approvato il 13 marzo 2024 dal Parlamento Europeo.

Teniamo conto comunque che in quanto ddl dovrà passare all’esame di Camera e Senato, dove probabilmente riceverà modifiche, prima di diventare legge.

Cosa prevede il DDL sull’intelligenza artificiale

Il testo del DDL sull’Intelligenza Artificiale si articola in diverse sezioni essenziali, ognuna delle quali mira a stabilire un quadro normativo robusto per l’adozione e l’implementazione dell’IA, assicurando al contempo la tutela dei diritti fondamentali e la sicurezza dei dati. La normativa è volta a instaurare principi direttivi per la ricerca, lo sviluppo, l’adozione e l’applicazione di sistemi e modelli di IA, e si pone l’obiettivo di promuovere un utilizzo etico, trasparente e responsabile dell’Intelligenza Artificiale, focalizzato sulla salvaguardia dei diritti umani e sulla mitigazione dei rischi che ne sono associati.

La proposta fornisce in primo luogo le definizioni di alcuni concetti chiave fondamentali: “sistemi” e “modelli” di intelligenza artificiale e “dato”. I principi regolatori includono la conformità ai diritti costituzionali, il rispetto della privacy degli utenti, la non discriminazione, la trasparenza operativa e la sicurezza dei dati.

La strategia economica e le esclusioni della legge

Per quanto concerne l’incentivazione economica, la legge prevede misure per stimolare l’utilizzo dell’IA nel miglioramento della produttività e della competitività nazionale, promuovendo l’innovazione e la creazione di un mercato equo e competitivo per l’IA.

Specifiche attività di IA legate alla sicurezza nazionale e alla difesa sono invece escluse da alcune disposizioni della legge, pur dovendo adempiere ai principi di rispetto dei diritti fondamentali.

L’IA nel sistema sanitario e nel contesto lavorativo

Inoltre, l’IA deve essere integrata anche nel sistema sanitario, al fine di migliorare la qualità delle cure e l’accessibilità dei servizi, con particolare attenzione alle esigenze delle persone con disabilità. In questo contesto, tale tecnologia dovrebbe servire come supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, ma la decisione finale è affidata sempre al medico. Nell’ambito della ricerca, la proposta di legge stabilisce un quadro legale che equilibra la necessità di avanzare nella ricerca scientifica e tecnologica con la protezione rigorosa della privacy e dei dati personali dei cittadini, in linea con gli standard etici e legali.

Viene inoltre regolamentato l’uso dell’IA nel contesto lavorativo. L’applicazione dell’IA in questo senso dovrà assicurare la sicurezza, l’affidabilità e la trasparenza, oltre che garantire il rispetto della dignità e della privacy dei lavoratori. A tal fine, le disposizioni includono la creazione di un Osservatorio sull’adozione di sistemi di Intelligenza Artificiale nel mondo del lavoro, istituito presso il Ministero del Lavoro e delle Politiche Sociali.

Anche le amministrazioni pubbliche e il settore giuridico adotteranno l’IA per incrementare l’efficienza operativa, mantenendo tuttavia la necessaria autonomia decisionale umana nei processi critici.

Le regole sui contenuti prodotti dall’IA

Sono introdotte norme specifiche per la gestione dei contenuti prodotti dall’IA, inclusi meccanismi per l’identificazione dei contenuti generati artificialmente e modifiche al codice penale per affrontare l’uso fraudolento delle tecnologie di Intelligenza Artificiale.

La legge prevede infine la creazione di una strategia nazionale per l’IA e la designazione di autorità competenti per il monitoraggio e l’applicazione della normativa.

Questa, delineata nel Capo III del DDL, mira a posizionare l’Italia all’avanguardia nell’adozione responsabile e innovativa dell’intelligenza artificiale, garantendo al contempo la conformità con le norme europee e internazionali, e promuovendo un ambiente sicuro, equo e produttivo per l’utilizzo dell’IA in vari settori.

La strategia si focalizza su un approccio integrato e interministeriale per lo sviluppo e l’implementazione dell’IA, è rinnovata biennalmente e coinvolge diverse autorità nazionali e ministeri per assicurare un approccio olistico che comprenda aspetti industriali, difensivi e di transizione digitale, promuovendo la collaborazione tra settore pubblico e privato. Inoltre, coordina le attività della pubblica amministrazione in materia e stimola la ricerca e la diffusione di conoscenze relative all’IA.

Il ruolo dell’Agenzia per l’Italia digitale e l’Agenzia nazionale per la cybersicurezza

Il processo è monitorato dalla Presidenza del Consiglio dei ministri, con il supporto dell’Agenzia per l’Italia digitale e l’Agenzia nazionale per la cybersicurezza.

Come si evince dall’articolo 18 del DDL AI, il ruolo delle due Agenzie non si limita soltanto a rappresentare tale tecnologia bensì si inserisce in una strategia nazionale di azioni e promozioni più ampia.

Infatti, da una parte, l’AgID è responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale, di definire le procedure e di esercitare le funzioni e i compiti in materia di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale.

Dall’altra, l’ACN è responsabile per la vigilanza, includendo anche le attività ispettive e sanzionatorie, dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell’Unione europea.

Entrambe le Agenzie sono, altresì, responsabili per la promozione e lo sviluppo dell’intelligenza artificiale relativamente ai profili di cybersicurezza, assicurando l’istituzione e la gestione di spazi di sperimentazione finalizzati alla realizzazione di sistemi di IA conformi alle normative nazionali ed europee. Inoltre, hanno il dovere di assicurare anche il coordinamento e la collaborazione con le altre pubbliche amministrazioni e autorità indipendenti.

Stando a tale suddivisione di ruoli, le attività e le responsabilità per entrambe le agenzie sembrano essere definite, distinte e perimetrate, poiché la stessa Unione Europea ha richiesto ad ogni Stato membro di individuare degli organismi che siano in grado di vigilare in materia di IA – come stabilito anche dall’AI Act – al fine di assicurare un flusso di lavoro ed una fluidità efficace per la vigilanza di un settore così in crescita.

Il ruolo del Garante privacy

Tuttavia, nello stesso articolo 18, al c.3, si fa riferimento alle “competenze, i compiti e i poteri del Garante per la protezione dei dati personali”, senza però specificare le modalità di controllo, gestione o vigilanza di tale autorità amministrativa indipendente. Stando all’attuale suddivisione dei ruoli, il Garante avrebbe ricoperto in termini di competenze tutte le attività e le operazioni di monitoraggio nel settore dell’intelligenza artificiale, in modo tale anche da coadiuvare e alleggerire anche le altre due Autorità.

Su tale questione è intervenuto Pasquale Stanzione, Presidente del collegio del Garante, il quale ha ha scritto alla presidenza del Consiglio per rivendicare il ruolo dell’autorità in materia.

Il sottosegretario per la Transizione Digitale Alessio Butti, ha sottolineato la strategia vincente Agid/ACN, affermando che “la scelta di affidare ad Agenzia per l’Italia digitale e Agenzia per la cybersicurezza nazionale i compiti di vigilanza e controllo sull’intelligenza artificiale rispecchia una visione strategica incentrata sull’efficacia e l’efficienza nella governance dell’AI. Queste agenzie, con il loro focus specifico sul digitale e sulla cybersicurezza, offrono competenze tecniche e operazionali complementari e altamente specializzate, essenziali per affrontare le sfide poste dall’AI in ambito di cittadinanza, industria, sicurezza, protezione dei dati e su tutto la difesa e l’interesse nazionale”.

Le misure contro i rischi connessi alla creazione di contenuti dannosi tramite IA generativa

Parallelamente alla definizione dei ruoli delle Agenzie, il disegno di legge si sofferma anche sul tema dei rischi connessi alla creazione di contenuti tramite sistemi di IA generativa. In particolare, tutti i contenuti creati o manipolati tramite sistemi di Intelligenza Artificiale che ritraggono soggetti, avvenimenti o scenari che possono passare per veritieri e che non lo sono, dovranno essere obbligatoriamente contrassegnati da una filigrana che li identifichi come generati da un sistema di intelligenza artificiale.

Nel comunicato stampa del Consiglio dei Ministri si parla di “un elemento o segno identificativo, anche in filigrana o marcatura incorporata con l’acronimo “IA” o, nel caso audio, attraverso annunci audio ovvero con tecnologie adatte a consentire il riconoscimento”. 

L’affidamento dell’attuazione del watermark all’Agcom

Sono esclusi dall’obbligo del watermark solo quei contenuti evidentemente artistici o satirici e che non ledono diritti di terzi. A tal proposito, dal Capo IV il DDL assegna all’Autorità per le garanzie nelle comunicazioni (AGCOM) il compito di redigere un regolamento specifico e l’attuazione di questo nuovo obbligo, richiedendo anche un aggiornamento della legge sul diritto d’autore al fine di normare anche le opere prodotte con il contributo di sistemi di IA.

Nuovi reati connessi all’intelligenza artificiale

Il Ddl introduce nel codice penale l’aggravante IA e un nuovo reato.

Al primo comma dell’art. 61 c.p. (Circostanze aggravanti comuni), è aggiunto il seguente:

«11-decies) l’avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato.».

Invece, al fine di prevenire soprattutto le frodi on line, si è ritenuto di aggiungere all’art. 494 c.p. (sostituzione di persona) la seguente aggravante specifica: «La pena è della reclusione da uno a tre anni se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale.»; la medesima aggravante, è stata inserita all’art. 501 (rialzo e ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio) per tutelare l’economia pubblica fortemente influenzabile dalle eventuali notizie false, esagerate o tendenziose create e/o propalate a mezzo di sistemi di I.A.

Il nuovo reato è nell’Art. 612-quater (Illecita diffusione di contenuti generati o manipolati artificialmente):

“Chiunque cagiona ad altri un danno ingiusto, mediante invio, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o manipolati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità o provenienza, è punito con la reclusione da uno a cinque anni“.

Investimenti previsti dal DDL per lo sviluppo dell’IA

Il Ddl include, come previsto, “fino a un miliardo di euro” come finanziamenti pubblici dell’IA e altre tecnologie evolute. Sono i soldi del piano industriale Cassa Depositi e Prestiti (CDP).

CDP è “autorizzata fino all’ammontare complessivo di un miliardo di euro l’assunzione di partecipazioni nel capitale di rischio direttamente o indirettamente di :a) PMI con elevato potenziale di sviluppo ed innovative, aventi sede operativa in Italia, che operano nelle tecnologie dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico e delle tecnologie per queste abilitanti, nonché nel settore delle telecomunicazioni con particolare riferimento al 5G e alle sue evoluzioni, al mobile edge computing, alle architetture aperte basate su soluzioni software, al Web 3, all’elaborazione del segnale, anche in relazione ai profili di sicurezza e integrità delle reti di comunicazione elettroniche, e che si trovano in fase di sperimentazione (seed financing), di costituzione (sturt up financing), di avvio dell’attività, (early-stage financing) o di sviluppo del prodotto (expansion, scale up financing);

di “b) imprese, anche diverse da quelle di cui alla lett. a), finalizzate alla creazione e allo sviluppo di campioni nazionali nei settori e nelle tecnologie di cui alla lettera a);”

Sono inoltre previsti investimenti significativi destinati a supportare lo sviluppo di imprese nei settori dell’IA, della cybersicurezza, e del calcolo quantistico, con particolare attenzione alla creazione di campioni nazionali e alla sperimentazione tecnologica. Particolarmente interessato da questi investimenti è il Ministero degli Affari Esteri, al quale sarà autorizzata una spesa di 300.000 euro annui per il 2025 e il 2026, al fine di avviare progetti sperimentali per integrare l’IA nei suoi servizi.

La strategia include iniziative per potenziare le competenze relative all’IA nel sistema educativo e professionale, promuovendo l’alfabetizzazione e la formazione in questo campo per una vasta gamma di professionisti.

L’implementazione delle disposizioni descritte, tuttavia, non deve comportare oneri aggiuntivi per la finanza pubblica, utilizzando le risorse esistenti.

Complessivamente, il disegno di legge mira a fornire un framework legislativo completo per l’integrazione dell’intelligenza artificiale nel tessuto socio-economico e normativo italiano, ponendo una forte enfasi sulla sicurezza, l’equità e il rispetto dei diritti umani.

Un confronto con la situazione in altri paesi Europei

Il DLL sull’intelligenza artificiale si distingue come la prima proposta legislativa in Europa volta ad adottare pienamente le disposizioni del nuovo AI Act dell’Unione Europea. Questo contrasta con la situazione in altri grandi paesi europei, come la Germania e la Francia, che hanno espresso preoccupazioni riguardo alcune rigidezze del regolamento, particolarmente in relazione ai modelli di IA avanzati. Queste nazioni temono che tali regole possano frenare l’innovazione nei loro settori tecnologici emergenti, poiché impongono vincoli severi sugli usi dell’intelligenza artificiale considerati ad alto rischio.

Tali misure, benché volte a garantire la sicurezza e l’etica nell’uso dell’IA, potrebbero scoraggiare le aziende dallo sviluppare nuove tecnologie e ridurre la competitività in un settore in rapida evoluzione. Le economie con un forte settore di startup tecnologiche, come la Francia e la Germania, vedono questi regolamenti come potenziali ostacoli all’innovazione e alla crescita economica.

Conclusioni

In questo contesto, la posizione proattiva dell’Italia potrebbe quindi servire da modello per altri stati membri, influenzando il modo in cui l’UE bilancia regolamentazione e innovazione tecnologica​​.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4