L’intelligenza artificiale, al momento, è costruita con diverse attività sequenziali: la prima è l’addestramento del modello, che si basa su grandi quantità di dati possibilmente affidabili, per analizzarli e creare possibili pattern e correlazioni, che vengono consolidate dalla fase di inferenza, ossia di interpretazione dei pattern.
Il valore aggiunto dell’intelligenza artificiale può svilupparsi nella fase inferenziale e in quella applicativa, che vengono successivamente alla “digestione” dei dati. I dati – nella catena del valore – devono essere materia prima brutale, possibilmente a costo zero.
Lo scontro per il business e i diritti d’autore
Ed ecco dove sorge il problema: i dati non sono altro che i contenuti creati da altri, in primis dagli editori. Le cause intentate da questi e dalle loro organizzazioni sono volte a trattare con i fornitori di servizi di intelligenza artificiale per definire una quota dei ricavi di loro spettanza, insomma dei diritti di autore forfettari che proteggano almeno in parte l’attività editoriale.
Adesso in particolare in gioco c’è il futuro della ricerca AI, ovvero dei chatbot che riassumono le informazioni provenienti dal web. Questi “motori di risposta” AI potrebbero sostituire i motori di ricerca tradizionali come porta d’accesso predefinita a Internet.
Mentre i normali chatbot di intelligenza artificiale possono riprodurre – spesso in modo inaffidabile – le informazioni apprese con l’addestramento, gli strumenti di ricerca dell’intelligenza artificiale come Perplexity, Gemini di Google o SearchGPT di OpenAI, ora pubblico, mirano a recuperare e riconfezionare le informazioni da siti web di terzi. Restituiscono agli utenti un breve digest insieme ai link a una manciata di fonti, che vanno dai documenti di ricerca agli articoli di Wikipedia e alle trascrizioni di YouTube. Il sistema di intelligenza artificiale si occupa della lettura e della scrittura, ma le informazioni provengono dall’esterno.
Lo strumento mette OpenAI in competizione con i giganti della ricerca e contribuirà ad alimentare la sua prossima generazione di agenti AI.
Al meglio, la ricerca AI può dedurre meglio l’intento dell’utente, amplificare i contenuti di qualità e sintetizzare le informazioni provenienti da fonti diverse. Ma se la ricerca AI diventa il nostro principale portale di accesso al web, rischia di sconvolgere un’economia digitale già precaria.
Oggi la produzione di contenuti online dipende da una fragile serie di incentivi legati al traffico virtuale: annunci, abbonamenti, donazioni, vendite o esposizione del marchio. Proteggendo il web dietro un chatbot onnisciente, la ricerca AI potrebbe privare i creatori delle visite e dei “bulbi oculari” di cui hanno bisogno per sopravvivere.
Memori del disastro provocato sulle loro entrate pubblicitarie dalla norma americana sulla non responsabilità editoriale delle big tech all’inizio della loro galoppata sulla rete, gli editori intravedono nella diffusione di AI il rischio di annichilimento dei diritti d’autore, e non hanno tutti i torti.
Alcune cause, che negli Stati Uniti hanno sancito la non applicabilità dei diritti di autore a prodotti “creativi” realizzati dall’intelligenza artificiale, potrebbero consolare chi ritiene che così si difendono coloro che -giornalisti artisti scrittori etc- ritengono di essere i detentori dei “reali” diritti. Ma la consolazione, a nostro avviso, è viscida e quindi assai difficile da afferrare. Infatti, se l’intelligenza artificiale ha il potere di far sparire la titolarità del copyright dagli esiti delle sue elaborazioni, questa non è una buona notizia. E’ esattamente la ripetizione di quanto è avvenuto con internet vent’anni fa. Se il prodotto di AI non produce diritti è anche difficile retrocederne una parte a chi ha contribuito a crearli; inoltre un prodotto così spersonalizzato da non non essere riconosciuto come autoriale, facilmente può dimostrasi essere un prodotto che non presenta appigli in una causa volta a rivendicare plagi più o meno mascherati.
Le cause in corso
Una causa tra News Corp (la holding di Rupert Murdoch) e Perplexity AI pone l’accento su un aspetto nuovo del contenzioso. News Corp è proprietaria del New York Post, del Wall Street Journal, del Times, del Sun, per ricordare le testate principali. Ha da poco concluso un accordo con OpenAI per 250 milioni di dollari in cinque anni, parte dei quali saranno in forma di baratto, ossia a fronte dei diritti per l’utilizzo delle tecnologie di Open AI. L’intesa è piaciuta agli investitori e il titolo di Murdoch è salito del 7% alla notizia dell’accordo. OpenAI ha stretto accordi con diversi gruppi editoriali, tra cui Le Monde, Associated Press, Financial Times, El Pais, Axel Springer.
Il New York Times ha scelto la strada del conflitto con OpenAi e con Microsoft per aver usato senza autorizzazione i contenuti del quotidiano newyorkese.[2]
La start-up Perplexity deve confrontarsi con il colosso dell’editoria: Davide contro Golia. Questa analogia rende gli schieramenti altamente emotivi e contribuisce a far perdere l’oggetto vero del contendere. Da un lato News Corp, ma anche prima di lei Forbes, accusa Perplexity di “copia massiva dei contenuti”. Perplexity rappresenta il futuro dei motori di ricerca, quelli gestiti dall’AI, capaci di offrire ricerche più focalizzate e sintesi più significative delle ricerche in rete. Questi “servizi” dell’AI sono basati su una massa di informazioni raccolte da una enorme pluralità di fonti: il contributo individuale al momento è impossibile da riconoscere. In altre parole i motori di ricerca basati su AI mettono in crisi il già precario equilibrio “che riguarda la produzione di contenuti in rete, che ora dipende da un sete di incentivi legati al traffico: ads, sottoscrizioni, donazioni, vendite, esposizione dei brand.
Velando con una chatbot onnisciente la rete, il motore di ricerca AI potrebbe privare i produttori di contenuti del contatto diretto con gli utenti, necessario alla loro sopravvivenza”.[3] Se, come sembra dai dati disponibili, questi motori di ricerca intelligenti sostituiranno quelli tradizionali, verranno meno i meccanismi faticosamente definiti negli anni recenti per riconoscere agli editori un parte dei ricavi pubblicitari raccolti, in particolare, da Google. La quale, come Perplexity e la stessa Search GPT, ha predisposto il proprio motore di ricerca intelligente, Google Gemini, in risposta all’impressionante sviluppo di ChatGPT.
La competizione tecnologica
Forse la risposta di Google è un po’ affannosa, se è vero quello che Eric Schmidt, ha affermato di recente in una conversazione tenuta a metà agosto a Stanford. Schmidt, uno dei cofondatori dell’azienda, lasciò la posizione di CEO di Google nel 2015, ma rimane un importante investitore in start-up tecnologiche e un autorevole esperto che dialoga con Altman e Musk. In una intervista ha dichiarato che lo smart working è stato fatale a Google nel perdere il treno di partenza dell’AI basata sui sistemi linguistici allargati, quella che ha fatto la fortuna di ChatGPT. “Google ha deciso che l’equilibrio tra lavoro e vita privata, tornare a casa presto e lavorare da casa era più importante della vittoria.
E le start-up, il motivo per cui le start-up funzionano è perché le persone lavorano come matti. E mi dispiace essere così diretto, ma il fatto è che se tutti voi lasciate l’università e andate a fondare un’azienda, non lascerete che le persone lavorino da casa e vengano solo un giorno alla settimana. Per competere con le altre start-up il modello sono i primi giorni di Google, Microsoft etc”[4]. Schmidt ha poi voluto smentirsi in modo alquanto goffo con una lettera a The Wall Street Journal, in cui scriveva: “Ho sbagliato a proposito delle ore di lavoro a Google, mi scuso dell’errore”[5]. Ma Schmidt aveva comunque insistito sull’importanza della motivazione del lavoratore e dell’imprenditore nella fase dello start-up, dicendo che il modello per essere competitivi è quello di ispirarsi ai primi giorni di Google o di Microsoft: l’epopea del “garage” californiano. Ora le considerazioni sul lavoro a distanza più che riferirsi su differenziali di produttività, che le indagini statistiche non riescono a decifrare in modo netto, si riferiscono proprio alla motivazione, al lavoro “pancia a terra” come si diceva nelle fabbriche. Un impegno che più probabilmente è risultato di uno sforzo condiviso e motivato da un impegno di gruppo, gomito a gomito.
Il passaggio dai modelli basati sulle reti neurali ricorsive ai Large Language Models (LLM) lanciati da ChatGPT è stata una sfida raccolta da un piccolo gruppo di ricercatori di Google, che anche qui entra in scena, confermando ciò che ha affermato Schmidt (prima della autosmentita).
Le regole contano (anche quando non ci sono)
Ma che cosa succede a livello normativo? Fino ad ora i giudici americani hanno accolto più le ragioni di chi ha difeso la possibilità di trasformare i contenuti altrui in modo innovativo, ma se l’azione di News Corp da un lato e quella del New York Times dall’altro, avessero successo, il prerequisito di “accesso gratuito” ai dati, che è l’alimento principale dell’addestramento dei sistemi AI, verrebbe meno. Inoltre i governi stanno incominciando a cambiare la normativa, restringendo gli spazi di “libero pascolo” di big tech: in Canada, negli Stati Uniti, nell’Unione Europea, in Europa, in Francia, in Germania, in Giappone e nel Regno unito, per ricordare alcuni paesi, vengono introdotte nuove regole che vanno dall’obbligo del riconoscimento delle royalties ai produttori di contenuti, all’obbligo di giungere ad un accordo tra le parti.
Tuttavia questa ultima soluzione sembra destinata a favorire un piccolo numero di società di media, di grande dimensione. Anche perché è difficile estimare quale parte del traffico sulla rete è attribuibile alla ricerca di notizie e quale ai social media. Inoltre le piattaforme, i “gatekeepers” come li chiama l’Unione Europea, portano anche visibilità e quindi ricavi addizionali ai media, con una situazione di incertezza sul reale beneficiario della presenza in rete delle news.
L’accordo sulla ripartizione dei ricavi pubblicitari in nome del riconoscimento dei diritti d’autore è comunque una strada che può portare qualche risultato a favore dei media, poiché in assenza di accordo l’esigenza di introdurre regole diventa più forte e urgente, e questa può essere una buona ragione per le piattaforme per accedere agli accordi. Le regole sono importanti anche quando non ci sono.
Un discorso analogo si può fare, in prospettiva, per i motori di ricerca basati su AI. Anche qui esiste un possibile equilibrio che garantisce, da un lato, la produzione di contenuti e dall’altro l’accesso a questi contenuti come base di elaborazione delle risposte dell’AI. Ma non è detto che le asimmetrie da cui è caratterizzata la relazione tra media e piattaforme, si una buona garanzia per giungere ad un risultato equilibrato, ossia in grado di sostenere lo sviluppo anche dei media.
AI nella mente umana
Otto ricercatori hanno dato il via, all’interno del gruppo di Google sulla traduzione automatica, alla soluzione chiamata “trasformazione”. Il loro progetto si è sviluppato in un intenso lavoro di scambio e di aggregazione di idee al loro interno, e il risultato ha superato di slancio i limiti delle reti neurali precedenti. Gli otto protagonisti non sono stati riuniti dall’azienda, ma si sono “trovati” per comuni interessi e per condividere il progetto. Di quegli 8 ricercatori 6 vengono dall’estero e alcuni da condizioni di persecuzione: “stay hungry” diceva Jobs, e gli otto stavano hungry anche nella vita, oltre che nel lavoro.
Nelle reti neurali l’analisi del significato delle parole è determinata in modo sequenziale e probabilistico e la possibilità di fraintendimenti rimane molto elevata. Nel modello basato sulla trasformazione, il significato della singola parola nella frase è determinato non solo dalla sua posizione nella frase, ma dalle relazioni della parole con tutte le altre: il contesto diviene l’oggetto dell’indagine del significato. Occorreva non solo il modello sviluppato dagli otto ricercatori, ma anche l’hardware che fosse in grado di processare in parallelo le informazioni, e non si limitasse all’analisi sequenziale. Erano guidati adll’idea, giusta o sbagliata che fosse, ma comunque capace di sovvertire il modello di analisi precedente, della capacità di giudizio della mente umana. Il loro paper, firmato con una sequenza casuale dei loro nomi per non attribuire una primazia a nessuno, fu intitolato all’ultimo momento “Attention is All You Need”, che richiamava i Beatles di “All You Need is Love”, in omaggio ad uno dei membri della squadra, inglese[6]. Nel 2024 il paper risulta citato 100.000 volte, e già all’esordio aveva fatto scalpore. Ma ai piani alti di Google il progetto sembrava uno dei tanti interessanti esercizi sull’intelligenza artificiale. Impressionato dal successo del loro paper, no dei membri suggeri a Google di investire nei Trasformers, cominciando a sostituire l’intero sistema di ricerca in rete. Una proposta che fece sorridere l’azienda e le fece perdere tempo prezioso[7]
“Sei degli otto autori sono nati fuori dagli Stati Uniti; gli altri due sono figli rispettivamente di due tedeschi titolari di green card che si trovavano temporaneamente in California e di un americano di prima generazione la cui famiglia era fuggita dalle persecuzioni.” Non solo il fattore umano è decisivo nei processi innovativi, ma il suo contributo sboccia e matura molto spesso in condizioni di impegno costante, di capacità di sostenere le sfide e di assumere rischi. Virtù degli emigranti, ci permettiamo di suggerire Trump veri e alle copie in sedicesimo. Ora gli otto di Google sono usciti dall’azienda, alcuni hanno fondato start-up di intelligenza artificiale, capitalizzano la loro conoscenza e la soluzione che hanno saputo costruire.
AI ha lanciato sfide alla scienza, alla tecnica, alle aziende. Ha sfidato la mente: e la sfida è stata vinta da quest’ultima, non contro AI, ma per farla progredire.
Note
1) Steven Levy, 8 Google Employees Invented Modern AI. Here’s the Inside Story, Wired. March 28, 2024. ↑
2) Casey Crowhart, Why Microsoft made a deal to help restart Three Mile Island A once-shuttered nuclear plant could soon return to the grid, MIT Technology Review, September 26, 2024. ↑
3) OpenAI and Wall Strett JoAi search could break the web, Murnal owner News Corp sign content deal, The Guardian, 22 May, 2024. ↑
4) Benjamin Brooks, AI could break the web, MIT Technology Review, October 10, 2024. ↑
4) Orianna Rosa Royle, Google’s ex-CEO blames working from home for the company’s AI struggles: ‘Google decided that work-life balance was more important than winning’, Fortune, August 14, 2024. ↑
6) Joseph De Avila, Eric Schmidt Walks Back Claim Google Is Behind on AI Because of Remote Work, The Wall Street Journal, August 14, 2024. ↑
7) Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin, Attention Is All You Need, Arxiv, Computer Science>Computation and language, Cornell University, June 12, 2017. ↑