Un articolo di James Somers su The Atlantic (tradotto, nella sostanza in italiano qui) riassume la triste storia della Google Books Universal Library e suscita riflessioni su trade-offs non irrilevanti e su possibili limiti delle politiche pubbliche in merito alla messa a disposizione di prodotti culturali in digitale.
La storia di Google Books Universal Library
Nel 2002 Larry Page diede inizio, in segreto, ad un progetto visionario (il primo di quelli che Google avrebbe cominciato a chiamare moonshot, il sogno degli studiosi e dei letterati di tutto il mondo: ripristinare su scala immensamente più ampia i privilegi di quelli che frequentavano la biblioteca di Alessandria, sfidando l’immaginazione del Borges della Biblioteca di Babele e dando una mano, in termini di battaglia ideale, ai ricercatori che oggi protestano contro i prezzi da rapina degli abbonamenti alle riviste scientifiche: la digitalizzazione di tutto il patrimonio librario del mondo, a partire da quello posseduto dalle grandi biblioteche universitarie statunitensi, e la possibilità di accedervi in rete, gratuitamente per tutti i libri non più in stampa, con l’ausilio di tutti gli strumenti di ricerca che Google ha reso indispensabili. Una vera rivoluzione per la ricerca e per la didattica. Si veda un articolo su Science, del 2011, sulle prospettive della quantitative analysis of culture using millions of digitized books (in Public Access!).
Nel giro di una decina d’anni, furono stipulati accordi con decine di importanti biblioteche europee ed americane, e furono scansiti circa 25 milioni di volumi, appositamente spostati nelle sedi Google. L’investimento fu di 400 milioni di dollari, il team tecnico coinvolse 50 progettisti software. Furono risolti problemi tecnologici, informatici ed operativi molto complessi e la scansione fu realizzata in tempi molto più bassi di quelli inizialmente stimati. Del resto, se una sola stazione avesse lavorato ininterrottamente, 24/7, impiegando 40 minuti a libro (la stima iniziale per un libro di 300 pagine) quel risultato avrebbe richiesto 1900 anni.
Il progetto era stato reso noto al pubblico nel 2004 e nel 2010 e Google aveva dichiarato l’intenzione di fermarsi solo dopo aver digitalizzato i 130 milioni di libri censiti.
Erano stati evidentemente sottovalutati i problemi giuridici, regolamentari e competitivi del progetto e le differenze tra libri non in stampa e libri di pubblico dominio. O forse, come tante altre imprese hi-tech, Google voleva dare una spallata e contava sull’appoggio dell’opinione pubblica per questo suo moonshot. Google non avrebbe dovuto quindi sorprendersi per le azioni legali da parte di autori ed editori che confluirono nel 2005 in una class action della Author’s Guild per massive copyright infringement. Era un’accusa che, provata, avrebbe messo a rischio la stessa sopravvivenza di Google perché la sanzione poteva arrivare a migliaia di miliardi di dollari.
Google approntò immediatamente una difesa alquanto originale basata sul concetto di fair use: scansire l’intero libro serviva a niente più che a fornire un servizio analogo a quello di Google Books: una scheda bibliografica e brevi snippets accessibili a seguito del risultato di una search (su qualsiasi sottoinsieme del testo intero!). Qualsiasi entusiasta utilizzatore di scholar.google.com, lo strumento di search dedicato ai documenti accademici, sa che se la ricerca dà come risultato un link a book.google.com essa è di utilità limitata: il numero di pagine accessibili è molto basso, se il libro non è di pubblico dominio, e in caso contrario il libro va acquistato (a prezzi altissimi anche se c’è l’e-book, peggio ancora se ha valenza didattica). Viceversa Google scholar ti collega direttamente ad una miriade di working paper a libero accesso e, se hai la fortuna di essere discente o docente di una Università che abbia i mezzi per poter fare gli abbonamenti, a migliaia di riviste a pagamento di alta qualità.
Molto rapidamente i detentori del copyright si resero conto di quanto l’innovazione di Google ingrandisse la torta da spartirsi e le opportunità per loro di assicurarsene una fetta adeguata. Situazione analoga a quella di moltissime innovazioni nelle tecnologie di diffusione di contenuti, osserva Somers citando una review del 2003 di Tim Wu, che facilita la stipula di accordi di mercato tra le parti. In particolare, era nell’interesse di autori ed editori dare nuova vita a libri non più in stampa, anche se ancora soggetti a copyright e semplificare la gestione di innumerevoli casi particolari derivanti da accordi tra autori ed editori che lasciavano aperti dubbi su chi fosse il detentore e quale fosse la natura di questi diritti. Poter convincere un giudice ad approvare un accordo nell’ambito di una class action, avrebbe reso questo accordo di validità generale. Vincere o perdere serviva poco ad entrambe le parti.
Un primo Settlement Agreement fu raggiunto dalle parti nel 2008 e per un momento sembrò che norme valide per tutti che automaticamente ne scaturivano determinassero una situazione win-win per tutti gli attori in gioco. L’accordo prevedeva in particolare una spesa di 125 milioni di dollari da parte di Google per coprire spese legali e danni ai soggetti di cui erano stati violati i diritti di proprietà intellettuale, nonché lo sviluppo di un sistema (Books Rights Registry) attraverso il quale sarebbero affluiti ai detentori dei diritti la maggior parte dei ricavi che Google avrebbe ottenuto da un modello di vendita dei diritti di accesso ai contenuti a privati e biblioteche.
L’accordo fallì perché altri importanti soggetti erano stati esclusi dalla ripartizione della torta: i concorrenti di Google. Nel 2009 Amazon, Microsoft, Yahoo e una serie di associazioni minori di autori e giornalisti fondarono la Open Book Alliance (no, non erano lettori) con l’obbiettivo di opporsi al recepimento dell’accordo perché esso avrebbe dato a Google poteri monopolistici sulla commercializzazione di decine di milioni di libri.
Nel marzo 2011 questo punto di vista fu sostanzialmente accolto dal giudice in quanto avrebbe dato a Google significativi vantaggi sui competitori e la possibilità di sfruttare interi libri senza esplicito permesso dei detentori del diritto d’autore.
Paradossalmente lo stesso giudice riconobbe, nel novembre 2013, che l’utilizzo dei libri da parte di Google, con i limiti introdotti per limitare la visibilità dei testi sotto copyright, non violava i criteri del fair use e quindi rigettò le accuse iniziali di autori ed editori. Successivi tentativi e ricorsi da parte degli Autori, che avevano perso con il rigetto dell’accordo, più che con la sconfitta nella causa iniziale, sostanziali risultati economici, non ebbero esito.
Le lezioni apprese dalla storia della Google Books Universal Library
Quali lezioni trarre da questa lunga e intricata vicenda? Molte e su piani molto diversi.
In primo luogo, si è rivelata insuperabile la difficoltà di risolvere i problemi giuridici e di composizione di interessi contrapposti pur in una situazione in cui il surplus di utenti e autori sarebbe sicuramente aumentato e l’investimento del fornitore era già stato effettuato. I grandi player, e probabilmente Google, primo tra tutti, non hanno voluto creare precedenti sviluppando soluzioni che avrebbero potuto essere basate sull’ accesso a condizioni eque e ragionevoli al patrimonio informativo a disposizione di Google. E Amazon, da paladino della concorrenza nella causa del 2009, è ormai divenuto dominante nella commercializzazione di e-book.
In secondo luogo, questa vicenda ben esemplifica quanto siano inestricabilmente intrecciati nel carattere dei grandi imprenditori di quest’epoca (Larry Page, in questo caso, ma lo stesso si potrebbe dire per tanti, da Jeff Bezos a Elon Musk) l’attrazione per progetti visionari e romantici e la capacità di valorizzarli strategicamente. Quanto valgono quei testi, ad esempio, per chi sta rivoluzionando la traduzione automatica?
In terzo luogo l’esempio mostra come una grande impresa, ricca e molto determinata sia in grado di affrontare sfide culturali in cui i soggetti pubblici sono restati assai indietro per mancanza di mezzi, di leadership, di visione e di ambizione. Accordi bilaterali tra grandi biblioteche e fondazioni no-profit hanno ottenuto risultati splendidi (si veda il finanziamento della Fondazione Polonsky alle Bodleian Libraries di Oxford e la Biblioteca Apostolica Vaticana). La Library of Congress ha una ricca raccolta di Collezioni specialistiche ed è impegnata nella standardizzazione e nella formazione. Sul versante istituzionalmente dovuto della preservazione delle eredità culturali si fa molto ma non c’è attenzione sufficiente delle istituzioni né negli investimenti con maggiore potenziale di innovazione, né nella soluzione dei nodi normativi che bloccano il progresso.
E-lending e biblioteche italiane
Una piccola testimonianza personale esemplifica questo ultimo punto. Un servizio molto utile offerto dalle biblioteche pubbliche negli USA è l’e-lending: le biblioteche hanno il diritto di prestare gli e-book che hanno acquisito e lo possono fare senza che sia richiesta la presenza fisica dell’utente per attivare e terminare il prestito. Aumenta molto la comodità di utilizzo del servizio e quindi il numero di prestiti.
Perché non è possibile farlo con la stessa tranquillità e sicurezza in una qualsiasi biblioteca universitaria italiana? I bibliotecari sono terrorizzati dalle possibili conseguenze e rifiutano di promuovere l’acquisto e il prestito della versione e-book invece che di quella cartacea. Ciò rende molto più probabile danni come gli smarrimenti e i furti, occupa spazi eccessivi nelle sale di lettura, obbliga a spostamenti inutili gli studenti, aumenta il prezzo di acquisto, costringe a spedizione di pacchi nel caso di prestiti interbibliotecari.
Conosco la risposta: lo stesso servizio potrebbe essere erogato acquistando un numero inferiore di copie e quindi c’è un impatto sui diritti di autore.
Ma anche a questo non sarebbe il caso di dare una risposta innovativa? L’alternativa non è la difesa degli autori, ma la resa alle fotocopie illegali.