Una diffusa preoccupazione per la messa in discussione del copyright da parte dell’intelligenza artificiale generativa comincia ad emergere nel contesto regolatorio e nella rappresentanza degli interessi del settore negli Stati Uniti.
Uso corretto dell’IA, di chi è la responsabilità
Secondo i Leigh Hennig di Humanity in Fiction, che raccoglie autori, editori, accademici, pubblicisti, non è responsabilità delle Big Tech, e in generale delle aziende, garantire un uso corretto dell’AI, ma è l’impegno delle autorità di regolazione che deve far rispettare le regole e tutelare in questo modo i diritti, a partire da quello sulla proprietà intellettuale.
Una espressa critica alle parole del Presidente Usa, Joe Biden che a sua volta si era pronunciato su rischi e opportunità dell’AI: “le aziende tecnologiche hanno la responsabilità, a mio avviso, di assicurare che i loro prodotti siano sicuri prima di renderli pubblici. I social media ci hanno già mostrato il danno che le potenti tecnologie possono fare senza le giuste tutele in atto” [1].
Si inserisce in questo complesso contesto il BluePrint di Microsoft, che propone un potere di controllo da parte di una autorità indipendente, basato su obbligazioni reciproche che devono spingere le imprese ad una maggiore responsabilità individuale e collettiva.
La strategia di Microsoft
Microsoft guida la pattuglia delle grandi aziende che investono nell’AI. Intende introdurla nel software in modo esteso, dai browser agli applicativi d’ufficio a quelli
specialistici. Il suo fronte di attacco al mercato è ampio: i potenziali competitor sono
tutte le altre Big Tech, Google per il browser, Amazon per il cloud, IBM per le
applicazioni specialistiche particolarmente in campo finanziario, per ricordare le
principali.
L’azienda di Redmond dispiega una strategia altrettanto ampia di lobby ad alto livello, che investe il governo, le agenzie della sicurezza, le agenzie di regolazione, in particolare per la tutela della privacy e la tutela del consumatore e il mondo della ricerca [2].
Il primo interlocutore richiamato in questa strategia, che è ad oggi quella più chiara
esposta da una delle Big Tech, è il National Institute of Standards and Technology del
Dipartimento del Commercio (NIST). Il NIST sta sviluppando un Centro di competenza
per l’intelligenza artificiale ed ha pubblicato recentemente uno strumento per la gestione volontaria dei rischi connessi all’intelligenza artificiale [3].
Si tratta della volontarietà dello strumento che interessa a Microsoft ovvero il fatto che non vengano messi bastoni tra le ruote nello sviluppo delle applicazioni di intelligenza artificiale.
Il secondo interlocutore è invece il governo, come amministratore della sicurezza delle infrastrutture critiche. Qui Microsoft fa un passo avanti in direzione della regolazione, indicando la strada dei requisiti di sicurezza dei sistemi di intelligenza artificiale e dei relativi servizi di supporto. Una scelta che comporta evidenti vantaggi per i grandi operatori, come Microsoft stessa, che gestiscono datacenter e sistemi AI certificati ai più alti livelli.
Questo spirito regolatorio si applica anche ai tre livelli della supply chain dell’AI:
applicazione, modello, infrastruttura. Qui l’interlocutore è il legislatore stesso e in
qualche misura il potere giudiziario che deve interpretare e non semplicemente
applicare le norme, secondo la tradizione della common law. Questo è il passaggio più
importante del Blueprint Microsoft.
L’azienda richiama quanto fatto nel settore bancario per evitare che dilaghino i sistemi di riciclaggio del denaro sporco, ovvero “conoscere il cliente”. Applicato all’AI, questo significherebbe che, sotto il controllo di nuove leggi e nuove potestà di regolazione, la catena AI verrebbe sottoposta a controlli sequenziali delle imprese nei confronti dei fornitori e dei clienti: chi costruisce i modelli deve conoscere l’azienda che produce i modelli e deve conoscere il cliente che li applica. Così pure il pubblico dovrebbe conoscere quali contenuti sono creati dall’AI, da uno specifico modello o da una applicazione specifica. Questi obblighi creerebbero una rete di reciproche responsabilità che spingerebbero il mercato verso comportamenti responsabili, senza bloccarne la crescita.
Al quarto punto, Microsoft si impegna a monitorare la possibilità di accesso della ricerca e del mondo non-profit alle
applicazioni di intelligenza artificiale, cercando di contemperare sicurezza e apertura. Il
quinto punto proposto da Microsoft suona come un omaggio agli inviti alla
collaborazione pubblico-privato che vanno molto di moda, ma che in genere producono
assai scarsi effetti.
BluePrint di Microsoft: un potere di controllo di una autorità indipendente
Preso nel suo complesso, il Blueprint rappresenta, con una qualità molto elevata, la
voglia di Microsoft di primeggiare: “Governing AI with Microsoft” per parafrasare il
titolo di uno dei capitoletti del Blueprint. Ma, come dicevamo, il terzo punto va assai
oltre quanto prevede il NIST: contiene la proposta più interessante.
Microsoft propone un potere di controllo da parte di una autorità indipendente, basato su obbligazioni reciproche che devono spingere le imprese ad una maggiore responsabilità individuale e collettiva. È assai probabile che questa impostazione trovi ancora impreparato il decisore pubblico e che quindi rimanga ancora per anni terreno di discussione.
Microsoft in questo caso potrà legittimamente sostenere: “l’avevo detto”.
Per il copilota AI, come lo chiama Microsoft, occorre quindi, secondo la stessa azienda
un regolatore specifico e norme specifiche, oltre ad una serie di interpretazioni di
accompagnamento da parte delle altre autorità esistenti in materia di privacy, copyright, sicurezza.
AI e copyiright: dov’è l’autore
Nei fatti né Microsoft né l’Unione europea dedicano attenzione all’infrazione e alla
tutela del copyright, le due questioni di diritto tra le quali si sviluppa tutto il ciclo
dell’intelligenza artificiale. La proposta di Regolazione dell’Intelligenza artificiale
(Artificial Intelligence Act-AIA) del Parlamento e del Consiglio europei non contempla
che AI minacci i diritti del copyright, pur citando una lista consistente dei diritti
fondamentali che AI minaccerebbe nel quadro normativo comunitario [4].
Da un lato, le applicazioni di AI attingono ai materiali coperti dal copyright per il proprio addestramento. Dall’altro, al momento della creazione dei prodotti della AI generativa (GAI) si pone la questione della “brevettabilità”, ovvero della tutela delle proprietà intellettuale dei prodotti dell’intelligenza artificiale.
L’innovazione tecnologica mette sovente in discussione l’assetto giuridico raggiunto
sulla base delle tecnologie precedenti. Con l’avvento degli ATM negli anni Settanta le
previsioni sulla fine dei cassieri di banca furono smentite dal fatto che essi hanno in realtà cambiato in parte mestiere, spogliandosi delle mansioni più stupide (controllare e contare le banconote) a favore dei contenuti relazionali più importanti già presenti nella loro attività [5].
L’altro esempio significativo, e per certi versi ricco di risvolti interessanti anche per
l’intelligenza artificiale è quello della riproduzione di fotografie.
Nel 1884 il fotografo Napoleon Sarony citò davanti alla Corte Suprema degli Stati Uniti
la tipografia Burrow-Giles per la riproduzione di una foto di Oscar Wilde fatta dallo
stesso Sarony, senza pagargli i diritti (figura 1).
La tipografia sosteneva che una “fotografia non è uno scritto né il prodotto di un autore” perché è creata da una macchina fotografica. L’estensione della copertura della legge sui diritti d’autore alla fotografia era quindi incostituzionale. Ma la Corte Suprema
confermò che la fotografia è senza dubbio un prodotto dell’attività intellettuale, poiché
“rappresenta la concezione originale dell’autore”, entrando nel cuore della definizione di che cos’è un autore.
E qui viene la parte più interessante, che può aiutarci nell’affrontare il tema della proprietà intellettuale nell’era dell’AI. “L’autore è colui a cui ricondurre ogni cosa,
l’ideatore, il facitore; uno che porta avanti un lavoro di scienza o di letteratura” spiegava la Corte Suprema, richiamando la sua natura umana, di persona dotata del “diritto di proprietà intellettuale sui prodotti del suo ingegno e della sua intelligenza” [6].
Sulla base di questa interpretazione “analogica” l’Ufficio per i diritti d’autore degli Stati Uniti ha emesso linee guida per la registrazione di lavori contenuti materiale generato dall’intelligenza artificiale. Avendo a che fare con circa mezzo milione di applicazioni che chiedono ogni anno la tutela del copyright, l’Ufficio ha bisogno di
ricevere informazioni aggiuntive per dirimere le questioni relative all’applicabilità o meno della tutela del copyright ai prodotti dell’AI.
La complessità delle nuove questioni poste dall’AI è ben esemplificata dal caso di una
graphic novel dotata di testo scritto da un autore e dalle immagini disegnate con-il
servizio Midjourney di intelligenza artificiale.
L’Ufficio ha concluso che la graphic novel poteva essere tutelata, ma che le singole
immagini non godevano della tutela del copyright [7].
I problemi relativi all’impatto di GAI sui diritti d’autore vanno oltre quanto stabilito dal AIA dell’Unione Europea e di quanto previsto dall’Ufficio per la tutela del copyright. Quest’ultimo, con le linee guida, cerca di dotarsi degli strumenti operativi e concettuali per dirimere la questione se un prodotto contenete materiali prodotti con AI, può o meno essere, ma non affronta il problema della spogliazione dei diritti in fase di addestramento e in fase di produzione: terreni riservati all’intervento della magistratura sulla base di nuove norme o della capacità di interpretare le orme e la giurisprudenza nel nuovo contesto.
Dal copilota al copyright
Una diffusa preoccupazione per la messa in discussione del copyright da parte di GAI,
comincia ad emergere nel contesto regolatorio e nella rappresentanza degli interessi del settore negli Stati Uniti. Il Communication Decency Act del 1996 intendeva contrastare la pornografia, ma introdusse la Section 230, destinata a proteggere i siti web e i servizi online che ospitavano contenuti non propri, dalle richieste di diritti d’autore. Quella legge è considerata dalle piattaforme internet essenziale per lo sviluppo del loro business, ma è considerata da molti una delle cause dell’accentramento di potere economico nelle mani di Big Tech a scapito dei produttori di contenuti.
La sensibilità del pubblico, delle aziende innovative e anche dei rappresentanti politici è
molto aumentata, negli anni recenti. Il timore è che GAI possa riprodurre in modo addirittura più pervasivo l’attacco al copyright degli anni dello sviluppo delle Big Tech
e di internet è ormai radicato.
L’Ufficio del copyright ha quindi deciso di ascoltare i rappresentanti degli interessi, per definire un quadro di riferimento il più possibile condiviso. L’Ufficio è spinto anche dalla consapevolezza che, secondo alcune stime, il 30% dell’occupazione e il 40% del PIL americano sono legati a settori con elevato contenuto di proprietà intellettuale [8].
Tra coloro che vengono ascoltati c’è naturalmente Microsoft, che anche in questa sede
ha deciso di esprimere tutto il suo ottimismo su AI, promuovendo senza alcuna esitazione la diffusione dell’intelligenza artificiale generativa (GAI): “Oggi l’AI d’avanguardia è uno strumento potente per promuovere il pensiero critico e stimolare
l’espressione creativa… In Microsoft usiamo la metafora del copilota per queste nuove
tecnologie: siedono a fianco dell’uomo per aiutarlo a creare, analizzare, imparare e
l’uomo rimarrà al centro di quell’attività” [9].
Per Microsoft il copilota si adatta a tutti gli ambienti, “potenziando” la professionalità
degli autori e in generale dei lavoratori impegnati in ruoli con contenuto intellettuale.
Ma l’ingordo copilota sembra fatto apposta per suscitare le preoccupazioni delle
associazioni e dei rappresentanti degli autori e degli editori. Microsoft sembra non
accorgersene.
Intanto, il tema del copyright su prodotti derivati da un originale di altro autore, è giunto
alla Corte Suprema, con il caso delle elaborazioni di Andy Warhol sulla foto originale
di Prince presa da Lynn Goldsmith nel 1981 (Figura 2). I due giudizi di livello inferiore
hanno dato risultati contrastanti, la sentenza della Corte Suprema avrà un certo peso nel prosieguo del confronto tra editori e servizi di AI [10].
Errare humanum…
Inoltre, il focus del contrasto editori/piattaforme si è spostato sul versante dell’addestramento dei modelli AI, lasciando all’Ufficio del copyright il compito di individuare se e come tutelare i prodotti di AI.
“Per i miei associati, non c’è questione di copyright più importante dell’impatto
dell’intelligenza artificiale” ha detto Keith Kupferschmid, Amministratore delegato
della Copyright Alliance che rappresenta i creativi individuali. “I lavori dei creativi
producono opere di elevato valore. Per la loro qualità esse sono spesso ideali per essere risucchiate dalle macchine AI per generare nuovi prodotti. Non deve stupire che vi sia già una domanda elevata di questi prodotti coperti da copyright per alimentare AI.
Soprattutto non trascuriamo che i proprietari di copyright stanno andando ad
incontrare questa nuova domanda entrando in associazioni volontarie di tutela dei loro
diritti” [11].
Decisi a non farsi travolgere più dal copilota impazzito, gli editori e gli autori cominciano ad affrontare le aziende e hanno incontrato OpenAI, Google, Microsoft e
Adobe. Partecipavano i più importanti editori: News Corp, Axel Springert, The New
York Times, The Guardian [12] . L’obiettivo dichiarato è di non ripetere l’errore della prima ondata di “traslazione on line” dei contenuti, quando molti editori corsero a regalare il loro prodotto pur di apparire sulle piattaforme, che si stavano organizzando per tagliarli fuori dal business.
Barry Diller, CEO di InterActivCorp (IAC) proprietaria tra l’altro di Expedia e TripAdvisor, al vertice inaugurale dei media di Semafor ad aprile ha ricordato con amarezza gli errori del primo attacco di internet ai media: “Quando Internet è iniziato per la prima volta, tutto era gratuito… e quindi tutti gli editori hanno detto di non avevano altra scelta… La quantità di distruzione che ha avuto luogo all’inizio è stata enorme, e penso che oggi sia potenzialmente analoga a quella” [13]
Alcuni interlocutori tecnologici tra cui Microsoft, si dicono abbastanza ottimisti rispetto alle possibilità di raggiungere un accordo. Google, invece, frena mentre alcuni editori per contro seguono una linea pessimista, ben espressa da uno dei loro manager che ha partecipato agli incontri: “Non c’è stata discussione, quindi ora dobbiamo cercare di
essere pagati dopo che è successo…Il modo in cui hanno lanciato questi prodotti, la
totale segretezza, il fatto che non ci sia trasparenza, nessuna comunicazione prima che accada, ci sono motivi per essere piuttosto pessimisti.” 14
La discussione in realtà ruota già su quali tariffe adottare per le informazioni usate al
fine di addestrare i modelli di intelligenza artificiale.
Mathias Doepfner, giornalista ed editore che detiene il 22% di Axel Springer, propone alle piattaforme di creare un modello quantitativo simile a quello della musica, dove ogni passaggio nelle stazioni radio, nei locali notturni, nei servizi streaming genera un fee per il detentore dei diritti.
Una soluzione solo apparentemente semplice, che comporterebbe da parte delle aziende AI di rendere noto il loro utilizzo dei contenuti in fase di addestramento. Cosa che adesso non fanno e che forse non sarebbe neppure facile fare in termini tecnici e
organizzativi.
Bibliografia
[1] The White House, Remarks by President Biden in Meeting with the President’s Council of Advisors on Science and Technology, April 4, 2023.
[2] Microsoft, Governing AI: A Blueprint for the Future, May 25, 2023.
[3] NIST, Artificial Intelligence Risk management Framework (AI RMF 1.0), January 20023.
[4] Officiala Journal of European Communities (18/12/2000) è esplicitamente citato il diritto alla proprietà intellettuale. Ma curiosamente tale diritto non è menzionato in AIA (Proposal for a Regulation of the Europea Paliament and of the Council. Layin down harmonized rule of artificial nintelligence (Artificial Intelligence Act) and amending certain Union legislative acts, Brussels, 21. 4. 2021.
[5] Council of Economic Advisers, European Commission, Joint Report on: The Impact of Artificial Intelligence on The Future of Workforces in the European Union and The United States of America, December 5 2022.
[6] Copyright Office, Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence, Federal Register/Vol. 88 n. 51.
[7] U.S. Copyright Office, Cancellation Decision re: Zarya of the Dawn (VAu001480196) at 2 (Feb. 21, 2023). Vedi anche: Tony Analla (ed Anirudh Jonnavithula), Zarya of the Dawn: How AI is Changing the Landscape of Copyright Protection, JOLT Digest, March 6, 2023.
[8] Drew Johnson, It’s time for Big Tech to play fair in IP, Fortune, January 17, 2022.
[9] Jule Sigall, in: Heritage Reporting Corporation, Copyright and Artificial Intelligence Literary Works, Including Software, Listening Session, Transcript of Proceedings, Washington, April 19, 2023.
[10] Nina Totenberg, The Supreme Court meets Andy Warhol, Prince and a case that could threaten creativity, npr October 12, 2022.
[11] Heritage etc. p. 13.
[12] Cristina Criddle, Madhumita Murgia, Daniel Thomas. AI and media companies negotiate lanfmark deals over news content, Financial Times, June 17, 2023.
[13] Joe Pompeo, “Don’t Get Screwed Again”: News Publishers Are Banding Together in the Face of AI Threat, Vanity Fair, June 20, 2023.
[14] Cristina Criddle etc. op cit.