intelligenza artificiale

Leggi sull’IA: il veto della California e le nuove norme italiane che preoccupano i doppiatori



Indirizzo copiato

Il 29 settembre 2024, il Governatore della California Gavin Newsom non ha firmato il “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, ritenendo la legge insufficiente a garantire la sicurezza pubblica. Intanto, in Italia, nuove norme proteggono doppiatori e creativi dall’uso improprio dell’IA nel cinema

Pubblicato il 30 set 2024

Luciano Daffarra

C-Lex Studio Legale



Strategia italiana per l’intelligenza artificiale 2024-2026

Il Governatore della California ha bloccato la legge sull’intelligenza artificiale che avrebbe avuto un impatto importante sullo sviluppo di questa tecnologia, non solo negli Usa.

Formalmente: il testo del “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, dopo il voto assembleare di approvazione del 29 agosto 2024, e la conseguente trasmissione per la firma al Governatore dello Stato, Gavin Newsom, non è stato da lui sottoscritto e, quindi, è stato restituito senza la sua necessaria approvazione.

Una battuta d’arresto, quindi, proprio mentre da più parti si levano richieste di maggiori tutele per chi lavora e sul diritto d’autore, impattati dall’avanzata dell’IA.

In Italia, dopo l’approvazione dell’AI Act da parte dell’Unione Europea, il tema dell’uso dei sistemi di intelligenza artificiale nell’industria dell’audiovisivo ha interessato di recente e in modo particolare il settore del doppiaggio.

Il veto del Governatore Newsom al disegno di legge sull’IA della California

La motivazione data dal Governatore Newsom al diniego all’entrata in vigore del disegno di legge viene attribuita in gran parte al fatto che tale disegno di legge, limitandosi a disciplinare solo i modelli di intelligenza artificiale “a larga scala, avrebbe dato al pubblico un falso senso di sicurezza nel controllo di questa tecnologia che si muove molto velocemente”.
Decade in tal modo il disegno di legge SB 1047 del Senato, presentato il 7 febbraio 2024 dal Senatore Scott Wiener assieme ai Senatori Richard Roth, Susan Rubio e Henry Stern, voluto dall’Assemblea Generale della California, lo Stato che è la patria delle più grandi imprese che sviluppano apparati e modelli di intelligenza artificiale.
Questa normativa mirava a regolare – almeno in parte – il settore dell’intelligenza artificiale nello Stato della California nell’intento di porsi come contraltare dell’AI Act varato dal Consiglio e dal Parlamento dell’Unione Europea, seppure il testo di legge votato dalla Legislatura californiana riguardi un ridotto segmento dell’intera materia e investa un ambito territoriale più limitato rispetto al provvedimento comunitario.

Le difficoltà di una regolamentazione estesa dello sviluppo dei modelli di IA

La necessità di una disciplina estesa dello sviluppo dei modelli di IA è sentita da tempo negli Stati Uniti, ove il rischio di giudicati confliggenti, soprattutto in tema di tutela del diritto d’autore, si presenta come non improbabile per le imprese del neonato settore, coinvolgendo di riflesso il legislatore statunitense con crescente intensità.
L’obiettivo di creare un assetto normativo organico dei sistemi di intelligenza artificiale risulta peraltro molto lontano dall’essere raggiunto, in quanto gli interessi contrastanti fra le imprese del settore e molti altri stakeholders – fra cui i titolari dei diritti d’autore e quelli di altri diritti fondamentali dell’individuo – potrebbero essere travolti dai modelli di intelligenza artificiale, ponendo seri ostacoli allo sviluppo di un assetto normativo capace di contemperare i molteplici aspetti della materia.

I requisiti economici e di sicurezza della normativa

In tal senso, la normativa proposta nello Stato della California era diretta a regolare i modelli di intelligenza artificiale più grandi e avanzati, in quanto la stessa risultava applicabile, in termini economici, solo agli apparati che implicassero investimenti superiori ai cento milioni di dollari e che fossero in grado di soddisfare le soglie di potenza di calcolo stabilite dagli standard del medesimo Stato.
La finalità di tale progetto normativo – in un’ottica dichiarata di affidabilità, sicurezza e trasparenza del settore – era quella di imporre ai gestori dei servizi di intelligenza artificiale l’adozione di strumenti atti a prevenire l’accesso non autorizzato, l’uso improprio e le modifiche alla formazione dei modelli di I.A. successive alla loro creazione.

Questi obiettivi avrebbero dovuto essere raggiunti implementando misure di sicurezza atte a prevenire i fenomeni cosiddetti “catastrofici” che possono derivare da un uso incorretto della tecnologia.

Le misure contro i danni “critici” dell’IA alla sicurezza pubblica

Infatti, le disposizioni della proposta di legge in argomento imponevano alle imprese che sviluppano modelli di intelligenza artificiale di valutare con “ragionevole diligenza”, prima di utilizzare o porre sul mercato un loro modello, se potesse esservi il rischio di causazione di un danno “critico” alla sicurezza pubblica.

A tale scopo – in base al progetto di legge – da parte di ciascuno sviluppatore dei sistemi di IA avrebbero dovuto essere adottati protocolli di sicurezza, da pubblicare online e il loro contenuto essere previamente condiviso e approvato dall’ufficio del Procuratore Generale della California, per essere poi con esso riveduto su base annua. Ogni modello di IA interessato dalla normativa inoltre avrebbe dovuto essere in grado di implementare sistemi atti ad attuare un arresto completo dell’apparato, in tutti i casi in cui ricorra una situazione di criticità che possa coinvolgere la sicurezza e l’integrità pubblica.
Il veto interposto all’approvazione di questa legge – ha precisato il Governatore Newsom nel suo provvedimento – non deve tradursi in un abbandono delle responsabilità che derivano dall’obbligo di evitare che si determinino eventi catastrofici causati dall’uso incontrollato della tecnologia dell’intelligenza artificiale. Per questo motivo, il Governatore della California ha evidenziato nel suo atto che nel settore dello sviluppo di prodotti che si fondano sull’intelligenza artificiale persiste la necessità dell’adozione di protocolli di sicurezza e di sistemi di controllo oltre che la previsione di severe sanzioni per coloro i quali li violano.

La posizione delle imprese tecnologiche e degli oppositori politici

Avuto riguardo agli oppositori della proposta di legge in argomento, essa è stata osteggiata, oltre che dalle maggiori imprese del settore tecnologico, quali OpenAI, Meta, Google e altri, anche dalle loro associazioni di categoria.

Tutti questi soggetti lamentavano che l’intento di regolare il processo di sviluppo dei modelli di intelligenza artificiale, in vece che i danni da essi provocati, avrebbe costituito un ostacolo allo sviluppo dell’innovazione. Molti altri operatori hanno osservato poi che il disegno di legge nel complesso avrebbe potuto danneggiare l’ecosistema dei modelli aperti di I.A. e ostacolare le piccole startup che non posseggono le risorse per affrontare gli adempimenti e i costi derivanti dall’applicazione della legge.

Le osservazioni di Nancy Pelosi e degli esperti del settore

Sotto il profilo politico, questo disegno di legge, voluto da un’Assemblea Generale formata per 62 membri da delegati Democratici e per 17 da rappresentanti Repubblicani (oltre a un membro indipendente), è stato oggetto, già prima del voto finale, di una presa di posizione dello Speaker Emeritus della House of Representatives, la Democratica Nancy Pelosi. Ella ha evidenziato in un comunicato stampa pubblicato sul suo sito web ufficiale e in una lettera indirizzata al Governatore Newsom che, secondo l’opinione di numerosi membri del Congresso, il disegno di legge in discussione sarebbe stato dotato di “buone intenzioni” ma sarebbe stato formulato in maniera inappropriata.

La stessa Pelosi, facendo riferimento all’opinione di luminari del settore delle tecnologie legate all’IA, fra cui quella espressa dalla professor Fei-Fei Li dell’Università di Standford, ha osservato che l’approvazione del disegno di legge SB 1047 avrebbe potuto causare “conseguenze inaspettate capaci di frustrare l’innovazione e danneggiare l’ecosistema dell’intelligenza artificiale statunitense”.
Inoltre, la rappresentante dei Democratici alla Camera con la sua presa di posizione ha voluto evidenziare che in questa normativa non si fa alcun riferimento alla tutela dei dati personali, né alla protezione dei diritti di proprietà intellettuale, tanto da fare risultare tale omissione “più pericolosa che utile” per le suddette finalità .
Fra i sostenitori del progetto di legge, che comprendono ricercatori del livello di Yoshua Bengio e Geoffrey Hinton e, all’ultimo minuto, dallo stesso Elon Musk, si è schierata inizialmente anche la startup di IA “Anthropic ” la quale, secondo quanto riporta la stampa, dopo avere fortemente appoggiato il progetto facendo presentare una serie di emendamenti ai propri referenti politici che sono stati accolti nel testo, avrebbe mutato direzione rinnegandone il testo in quanto i benefici della legge non ne avrebbero giustificato i costi.

La necessità di una regolamentazione attenta ai diritti fondamentali

Sotto il profilo della sussistenza o meno di un interesse pressante da parte delle imprese e dei titolari dei diritti stabiliti negli USA di regolare per legge l’utilizzazione dei sistemi di intelligenza artificiale, l’impressione che ne ricaviamo in base a quanto sopra evidenziato, è che le molteplici sfaccettature dei problemi generati da questa tecnologia richiedano – soprattutto da parte di coloro che ne detengono il controllo – uno stato di ulteriore progresso degli algoritmi che li informano e una maggiore consapevolezza dei limiti che tali sistemi incontrano nell’interfacciarsi con i contenuti e i dati che li alimentano.
Di contro, appare incontrovertibile che per i titolari dei diritti e per quei paesi in cui lo sviluppo di tecnologie capaci di competere con i modelli di I.A. sviluppati negli U.S.A. divenga una priorità “fissare i paletti” entro i quali la difesa dei valori fondamentali sia posta a rischio da un impego incontrollato degli apparati che sono destinati ad alimentare ogni comparto dell’attività umana, dalle scienze, alla produzione industriale, alla vita privata.

Le preoccupazioni del settore cinematografico statunitense

Sul terreno dei diritti d’autore – che, come abbiamo sopra visto, preoccupa anche i leader politici d’oltreoceano – vi sono state prese di posizione recenti delle imprese del settore cinematografico.

La posizione della MPA

Negli Stati Uniti, l’industria audiovisiva rappresentata dalla MPA (Motion Picture Association) ha espresso, in un documento di 77 pagine presentato il 30 ottobre 2023 all’U.S.C.O. (United States Copyright Office), i propri commenti in merito alle interrelazioni sussistenti fra diritto d’autore e intelligenza artificiale, evidenziando che seppure l’impiego dei sistemi di I.A. ponga una serie di nuovi problemi, essi possono essere risolti alla stregua delle norme esistenti che hanno un consolidato fondamento giuridico e giudiziale. A tale stregua, secondo l’associazione delle imprese del cinema statunitensi, non risulta necessario intervenire a livello normativo, almeno per il momento.

I timori dei doppiatori italiani

In Italia, dopo l’approvazione dell’AI Act da parte dell’Unione Europea, il tema dell’uso dei sistemi di intelligenza artificiale nell’industria dell’audiovisivo ha interessato di recente e in modo particolare, il settore del doppiaggio.
Proprio in occasione del rinnovo del contratto nazionale dei doppiatori, avvenuto lo scorso 6 dicembre 2023, sono state introdotte disposizioni riguardanti l’impiego dei sistemi di intelligenza artificiale nel contesto delle attività di adattamento dei dialoghi e nel doppiaggio delle opere audiovisive.

Le nuove normative del contratto nazionale dei doppiatori

L’art. 22 del già citato accordo collettivo prescrive che “- in assenza di espliciti accordi – la cessione dei diritti inerenti all’utilizzo del testo elaborato da ciascun dialoghista-adattatore relativa alla registrazione e alla riproduzione della voce di ciascun interprete sono considerati leciti e validi” (omissis) “solamente se riferiti al prodotto audiovisivo per cui sono stati realizzati e al suo conseguente sfruttamento e promozione in ogni forma, mezzo, canale e modalità per qualsiasi finalità e che è considerata illegittima ogni attività di estrazione di testo e di dati (text and data mining) e ogni campionamento, quali, a titolo esemplificativo e non esaustivo, la modifica, rielaborazione e utilizzo in qualsiasi altra forma della voce di ciascun interprete per sviluppare o addestrare algoritmi di intelligenza artificiale (machine-learning)”.

Limitazioni e obblighi per l’uso dell’IA nel cinema italiano

Risulta quindi, da un lato, che lo sfruttamento del doppiaggio e dei testi elaborati dai dialoghisti-adattatori è limitato alla sola opera audiovisiva cui tali contenuti si riferiscono ab origine. Dall’altro, si vietano l’estrazione, il campionamento, la modifica, la rielaborazione e l’utilizzo di tali opere e materiali, come pure le medesime operazioni sulla voce dei doppiatori, per il fine dell’addestramento e del funzionamento degli algoritmi di intelligenza artificiale.
Nell’ambito cinematografico nazionale, si sono di recente introdotte disposizioni volte a escludere dai costi detraibili ai fini dei finanziamenti dello Stato, attraverso il Ministero della Cultura, i costi sostenuti dai produttori per l’utilizzo degli apparati di intelligenza artificiale avuto riguardo alle prestazioni autorali e artistiche, eccezione fatta per l’impiego dell’intelligenza artificiale nell’ambito degli effetti speciali che riguardano i soli attori principali.

La normativa vigente ha inoltre introdotto l’obbligo per il produttore di dichiarare nei titoli di testa o di coda quali siano le parti dell’opera in cui si è fatto uso dell’intelligenza artificiale. E’ stato altresì previsto l’obbligo che fa capo alle imprese produttrici di inserire nei contratti sottoscritti con autori, interpreti ed esecutori dell’opera audiovisiva, una clausola che si traduce in una dichiarazione con cui tali soggetti assentono o negano che lo sfruttamento della propria opera creativa, ovvero della propria immagine, ovvero ancora della propria prestazione professionale, possa avvenire attraverso i sistemi di intelligenza artificiale.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4