Obbligo a rendere riconoscibili come artificiali i contenuti prodotti da AI. L’Italia ha ora un disegno di legge, che va nella direzione già indicata dal prossimo IA Act europeo.
Il disegno di legge (pdf) è a firma Antonio Nicita (senatore PD), già commissario Agcom e noto economista.
Il disegno di legge Nicita sulla trasparenza dell’Intelligenza artificiale
Il disegno di legge introduce l’obbligo di garantire, per i soggetti responsabili della pubblicazione e della diffusione dei contenuti generati da IA in ogni mezzo trasmissivo, un’immediata riconoscibilità sull’eventuale utilizzo di tale tecnologia. In questo senso, un’etichettatura univoca (“AI Made/prodotto da Intelligenza artificiale)”.
Le modalità devono essere stabilite dall’Autorità per le garanzie nelle comunicazioni (AGCOM) con proprio Regolamento da pubblicare entro 60 giorni dall’approvazione della presente legge, potrebbe rappresentare una soluzione efficace per certificare prodotti e servizi sviluppati con IA.
Dunque, sulla base del disegno legge, tali contenuti possono essere identificati e resi riconoscibili attraverso sistemi classici di etichettatura (label), filigrana (watermark) o comunque tramite un avviso visibile all’inizio e alla fine del prodotto stesso. Questo meccanismo consentirà di assicurare non soltanto una più rapida identificazione dei prodotti sviluppati con IA ma anche una maggiore trasparenza e responsabilità nei confronti di chi produce, e acquista, tali servizi digitali.
Ai sensi della proposta di legge, per “contenuti generati da intelligenza artificiale (IA)” si intendono tutti quei contenuti editoriali, compresi testi, video, immagini e voci, che sono creati, generati o sintetizzati, in tutto o in parte, da sistemi basati su intelligenza artificiale, ivi compresi algoritmi di machine learning e reti neurali artificiali. Inoltre, l’AGCOM verrà incaricato come ente responsabile del monitoraggio, degli strumenti di segnalazione, della rimozione dei contenuti pubblicati e del relativo regime sanzionatorio da comminare, le cui misure punitive dovranno essere proporzionata alla gravità della violazione commessa.
Un sistema di tracciamento che, dunque, permetterà di ridurre al minimo le criticità legate all’autenticità, al controllo delle fonti, al diritto d’autore, al diritto alla tutela della propria immagine, al contrasto alla disinformazione e alla responsabilità per diffamazione.
L’AI Act
Nicita mira espressamente a intervenire sul problema trasparenza nelle more della normativa europea, che potrebbe arrivare nel 2024. Come noto, l’UE si sta muovendo in questa direzione nella creazione di una normativa per regolare il settore dell’IA, cercando inoltre di presentarsi come guida internazionale nella definizione di barriere legislative per l’utilizzo e lo sviluppo di tale tecnologia. Nell’aprile 2021, la Commissione europea ha proposto il primo quadro giuridico completo relativo all’IA.
La proposta, che si basa su un approccio “basato sul rischio”, classifica i sistemi di IA in base al loro potenziale di danno ai diritti e alla sicurezza. Di conseguenza, i sistemi di intelligenza artificiale ad alto rischio, come quelli che operano nel settore medico o amministrativo, sarebbero soggetti a una regolamentazione rigorosa. L’UE ha quindi adottato un approccio prescrittivo alla regolamentazione dell’IA, concentrandosi sugli usi, lo sviluppo e la diffusione ad alto rischio.
Gli impegni americani alla trasparenza nell’IA
Tutte le big tech si sono impegnate con il Governo americano a una IA responsabile secondo alcuni principi. Tra cui anche la trasparenza, come indicato anche nella legge Nicita.
“Le aziende si impegnano a sviluppare solidi meccanismi tecnici per garantire che gli utenti sappiano quando il contenuto è generato dall’IA, come ad esempio un sistema di watermarking“, si legge.
I lavori sono in corso. OpenAI ha appena dichiarato di essere al lavoro per un tool che riconosce al 99 per cento se un contenuto è fatto con IA. Gli impegni sono volontari, certo, senza sanzioni; ma saranno la base di un prossimo ordine presidenziale in merito all’IA, su cui il presidente Joe Biden ha più volte espresso preoccupazione.
Redazione
È questo l’aspetto che la CCIA – Computer & Communications Industry Association, l’associazione che rappresenta gli sviluppatori, i distributori e gli utenti di IA – vuole affrontare prima che l’atto diventi potenzialmente legge entro la fine dell’anno. L’associazione di categoria esorta a mantenere l’attenzione sugli usi ad alto rischio e a non soffocare l’innovazione con un’eccessiva regolamentazione.
Le diverse organizzazioni coinvolte hanno rilasciato una dichiarazione congiunta che esprime le preoccupazioni espresse da alcuni politici e Stati membri coinvolti nella fase finale della legge. Il gruppo ha dichiarato che, pur sostenendo gli obiettivi generali della normativa proposta in materia di fiducia e innovazione, è preoccupato che alcuni membri del Parlamento Europeo vogliano allontanarsi da questi principi fondamentali rendendo la normativa troppo severa. “Per fornire al fiorente ecosistema europeo dell’IA la certezza del diritto di cui ha bisogno, la legge sull’IA deve evitare qualsiasi duplicazione dei requisiti legali esistenti, come le norme sul copyright”, avverte la CCIA. “Anche gli sviluppatori, i distributori e gli utenti dell’open source dovrebbero essere sostenuti con una legge finale sull’IA che introduca regole praticabili e riduca al minimo la burocrazia”.
Secondo Boniface de Champris, responsabile delle politiche della CCIA per l’UE, i negoziati in corso potrebbero rappresentare un momento di rottura per le ambizioni dell’Unione di creare un quadro legislativo lungimirante. “La dichiarazione congiunta del settore di oggi invia un chiaro messaggio ai legislatori dell’UE: se la legge finale sull’IA si discosta dall’approccio originale basato sul rischio, l’Europa rischia di soffocare l’innovazione. Chiediamo ai colegislatori di trovare il giusto equilibrio tra la regolamentazione dell’IA e la promozione del suo sviluppo”.
Secondo i piani, alcuni usi dell’IA sarebbero vietati in modo assoluto, come il social scoring e la maggior parte del riconoscimento facciale negli spazi pubblici. Le proposte prevedono anche di limitare l’IA in aree considerate ad alto rischio, tra cui le assunzioni – dove l’IA potrebbe portare a discriminazioni – o i trasporti pubblici. Queste regole stanno ancora attraversando il lungo processo legislativo dell’UE e probabilmente non entreranno in vigore prima di due anni, anche considerando che sono state redatte prima dell’ultimo boom dell’IA generativa. Ora Bruxelles sta correndo per recuperare il ritardo. Con questa normativa l’UE sta cercando di adottare diverse misure provvisorie, tra cui un nuovo codice di condotta volontario per l’IA generativa, simile a quello implementato dalle autorità statunitensi, e un “patto per l’IA”, in base al quale le aziende potrebbero scegliere di rispettare le regole future prima della loro piena applicazione.
A questo proposito, gli Stati Uniti avrebbero avvertito l’Unione Europea che la sua proposta di legge per regolamentare l’intelligenza artificiale favorirebbe le aziende con le risorse necessarie a coprire i costi di conformità alla normativa, danneggiando invece le imprese più piccole.
L’industria dell’IA ha imparato dal contraccolpo contro i social media che non conviene eludere la regolamentazione di tecnologie che possono avere un impatto sociale e politico significativo. Ma questo non vuol dire che non sia stato apprezzato il progetto dell’UE.
Sam Altman, capo di OpenAI e forte sostenitore della regolamentazione sull’IA, ha dichiarato al Financial Times che la sua azienda potrebbe essere costretta ad abbandonare del tutto il mercato comunitario se le regole finali sull’IA saranno troppo severe. Il clamore suscitato dalle sue parole lo ha portato a fare rapidamente marcia indietro ma, dietro le quinte, le preoccupazioni degli Stati Uniti non si sono attenuate. La disponibilità delle grandi aziende tecnologiche a chiedere una regolamentazione ha anche suscitato il sospetto che la vedano come un modo per consolidare la loro posizione sul mercato dell’IA. Costi e burocrazia più elevati potrebbero rendere più difficile l’ingresso di nuovi concorrenti.
È da notare come a livello europeo le grandi aziende tecnologiche abbiano accolto con favore questo approccio normativo, sebbene con delle riserve. Nonostante la bozza preveda che gli sviluppatori siano responsabili dell’uso dei loro sistemi, le aziende e i loro gruppi commerciali hanno sostenuto che anche gli utenti dovrebbero esserlo a loro volta. Microsoft ha sostenuto in un documento di posizione che, poiché il potenziale dell’IA generativa rende impossibile per le aziende “anticipare l’intera gamma di scenari di impiego e i relativi rischi”, è particolarmente importante “concentrarsi sull’uso effettivo del sistema di IA da parte di chi lo impiega”. In riunioni a porte chiuse, i funzionari delle aziende tecnologiche hanno ribadito l’idea che l’IA sia semplicemente uno strumento che riflette le intenzioni di chi lo utilizza.
Fino al voto finale sull’AI Act, non è chiaro fino a che punto l’UE deciderà di regolamentare la tecnologia. Ma anche se i negoziatori si muoveranno il più velocemente possibile, le aziende non dovranno conformarsi alla legge prima del 2025 circa.
In conclusione
È importante notare che iniziative come quelle del senatore Nicita in Italia e della AI Act a livello europeo siano fondamentali per iniziare a delineare un framework normativo quantomai necessario per un settore così rapidamente in evoluzione. Il confronto e la cooperazione tra istituzioni nazionali e sovrannazionali si dimostra essenziale, anche nell’ottica di tutelare istituzioni e cittadini.