La notizia che la diva statunitense Scarlett Johansson è in procinto di avviare un’azione legale nei confronti di Open AI va guardata con attenzione.
E non solo per il valore simbolico della notizia – l’attrice aveva dato voce a una intelligenza artificiale nel film Her di Spike Jonze (2013).
Quella storia – che non finisce bene per gli umani al confronto con l’AI – ora trova specchio nella polemica legale, che si aggiunge alle tante e crescenti intorno a diritti presumibilmente violati dall’AI.
L’attrice accusa OpenAI di avere usato la sua voce dentro il nuovo modello Gpt-4o che permette conversazioni realistiche. Lo stesso fondatore di OpenAI Sam Altman in un tweet aveva evocato il film Her, subito dopo il lancio di Gpt-4o.
Lo scontro tra Scarlett Johansonn e OpenAI
La circostanza è aggravata dal fatto che l’azienda che ha sviluppato il programma di “Conversational AI” aveva in precedenza chiesto all’attrice di potere utilizzare la sua voce inserendola nelle opzioni di voce dei propri programmi, tanto che Scarlett Johansson avrebbe deciso di revocare il consenso dopo avere ascoltato con gli amici la voce riprodotta dai computer, tanto da rimanerne scioccata.
Successivamente, alcuni giorni or sono, in assenza di qualsivoglia consenso dell’attrice, la sua voce sarebbe stata messa a disposizione degli utenti di Open AI fra le “modalità vocali” di un sistema di intelligenza artificiale emotiva che risponde alle domande, quella denominata “Sky“, derivata dalla voce dell’attrice americana, appunto.
Anche se OpenAI ha dichiarato che non si tratterebbe della voce di Scarlett Johansson e che la società non intenderebbe renderla ulteriormente pubblicamente disponibile, il problema, già da tempo sollevato[1] si pone come un inevitabile scontro frontale fra i diritti personalissimi della persona, i quali comprendono oltre al diritto al nome e all’immagine, anche il diritto alla riservatezza dei dati che “identificano o rendono identificabile, direttamente o indirettamente, una persona fisica” e i “dati biometrici”, fra i quali sono compresi, fra gli altri, “il timbro e la tonalità della voce”.
I diritti in gioco
Nel caso di specie, non solamente i diritti alla tutela dei dati personali entrano in gioco in questa vicenda.
La voce dell’attrice, infatti, oltre del suo indubbio fascino femminile, è portatrice di un valore economico che è legato ai c.d. “publicity rights”, cioè al diritto esclusivo che fa capo a ciascuna persona che gode di notorietà di disporre delle caratteristiche legate al proprio nome, voce, lineamenti, in ciò incluso financo l’abbigliamento che con essa si identifica e che la rende unica e allo stesso tempo identificabile.
In tal senso l’utilizzazione della voce di Scarlett Johansson da parte di Open AI, senza il suo consenso espresso, violerebbe anche questo ulteriore diritto personalissimo dell’attrice [2].
Tale rivendicazione sta alla base dell’azione legale avviata lo scorso anno da un partecipante del popolare reality show “Il Grande Fratello”, Kyland Young il quale nell’aprile 2023 ha rivendicato i suoi publicity rights in una causa intentata nei confronti della NeoCortext, Inc., la quale aveva sviluppato un software c.d. “deepfake” denominato “Reface”. Negli atti del giudizio Young ha affermato che tale applicazione utilizzava un algoritmo di intelligenza artificiale per consentire agli utenti di scambiare i volti abbinandoli a quelli di attori, musicisti, atleti, celebrità[3].
Il caso Lovo
Proprio in questi giorni, il 16 maggio 2024, un noto doppiatore statunitense Paul Lehrman, assieme ad altri colleghi che svolgono la stessa professione, fra cui l’interprete-esecutrice Linnea Sage, ha avviato una class-action di fronte alla Corte del Northern District di New York nei confronti della LOVO Inc., un’impresa che fornisce un servizio on-line attraverso il quale i suoi clienti sono in grado di generare una lettura vocale di un testo, connotata da determinate caratteristiche volute dall’utente, a un costo assai inferiore rispetto a quello praticato dai doppiatori che sono associati ai sindacati del settore (SAG-AFTRA, e altri).
La causa verte sull’appropriazione da parte della LOVO della voce dei doppiatori, i quali portano in giudizio alcune evidenze a sostegno delle loro tesi. Le domande svolte dagli attori sono rivolte a ottenere l’accertamento di numerose violazioni che includono: l’appropriazione della voce degli interpreti-esecutori per finalità pubblicitarie; le pratiche ingannevoli per avere taciuto le finalità per cui sarebbe stata registrata ed usata abusivamente la loro voce; l’attività ingannevole commessa nei confronti dei consumatori che ritenevano di avere acquisito un servizio lecito e legittimo da parte del loro fornitore; gli atti di concorrenza sleale per avere la LOVO generato un collegamento inesistente fra i ricorrenti e la stessa convenuta; l’indebito arricchimento; la frode commerciale e altre violazioni connesse agli addebiti di cui sopra.
A tale stregua, anche l’uso della voce riconoscibile di Scarlett Johansson per identificare abusivamente un servizio di risposte ai “prompts” di un sistema di intelligenza artificiale potrebbe essere letto come l’appropriazione di un diritto esclusivo di publicity che compete alla sola attrice, connotandone l’intera fisicità.
Vedremo cosa deciderà l’attrice e se dalle capienti tasche di Open AI la cosa troverà un componimento da cachet stellare per il danno causato.
Intelligenza artificiale e attori: i casi
Nel contesto delle controversie legali e delle sfide etiche riguardanti l’uso delle tecnologie come i deepfake e le voci sintetiche, alcuni casi notevoli includono:
- Bruce Willis e l’uso della sua immagine digitale: Bruce Willis ha venduto i diritti per creare una “versione digitale” di sé stesso a una società di deepfake, la Deepcake. Questo accordo ha suscitato dibattiti sull’etica e sulle implicazioni legali dell’uso di immagini digitali di celebrità, soprattutto dopo la loro morte.
- L’uso postumo della voce di Anthony Bourdain: Nel documentario “Roadrunner” su Anthony Bourdain, i filmmaker hanno utilizzato l’intelligenza artificiale per ricreare la voce di Bourdain e far “dire” qualcosa che non aveva mai registrato. Questo ha scatenato polemiche sull’etica di tale pratica.
- Cause legali contro TikTok per deepfakes: Nel 2020, TikTok è stato citato in giudizio per violazioni della privacy relative all’uso dei dati biometrici degli utenti, inclusi i dati necessari per creare deepfakes. La preoccupazione principale era che gli utenti non erano pienamente consapevoli di come i loro dati venissero utilizzati per creare contenuti generati dall’IA.
- SAG-AFTRA e le normative sulle voci sintetiche: Il sindacato degli attori di Hollywood, SAG-AFTRA, ha avviato discussioni su come regolamentare l’uso delle voci sintetiche e dei deepfakes. Questo include la protezione dei diritti degli attori nei confronti delle riproduzioni digitali delle loro voci o immagini.
Questi casi mostrano come le tecnologie emergenti stiano sfidando le normative esistenti e sollevando nuove questioni legali riguardanti il consenso e i diritti di immagine. Le risposte a queste sfide includono sia l’aggiornamento delle leggi esistenti sia la creazione di nuove normative per garantire che l’uso delle tecnologie rispetti i diritti delle persone coinvolte.
Redazione
Note
[1] Si può leggere questo articolo sul tema: https://www.agendadigitale.eu/cultura-digitale/robot-doppiatori-e-voce-come-dato-personale-quali-tutele-nel-nuovo-scenario-audiovisivo/
[2] Ai sensi del Lanham Act, i “publicity rights” rappresentano un diritto distinto da quelli che riguardano la persona ai sensi delle norme sulla privacy, come affermato in un caso che risale al lontano 1953, Haelan Laboratories, Inc. v. Topps Chewing Gum, Inc, 202 F.2d 866 (2d Cir. 1953).
[3] Causa: Young c. NeoCortext, Inc., 2:23-cv-02486 19 -United States District Court , Central District of California—Western Division.