Ci sono due aspetti che mi paiono rilevanti della riforma copyright Ue che, nelle numerose posizioni critiche o favorevoli che ho letto, non ho riscontrato.
- La prima riguarda le fake news;
- la seconda l’inversione dell’onere della prova.
Ricordiamo che il testo della proposta di direttiva, all’articolo 11, introduce la cosiddetta link tax a beneficio degli editori i cui contenuti sono diffusi da social network (prevalentemente gruppo Facebook, Twitter) e aggregatori (prevalentemente Google News).
Link tax, come ripartire il magro bottino
Sarà interessante capire come poi, al momento della implementazione, i soldi saranno ripartiti.
I soldi, in realtà, sono assai pochi. Sono molti se consolidati su una base di miliardi di utenti in tutto il mondo, ma se si guarda agli importi per utente e quindi a quelli ragionevolmente riferibili a ciascun Stato europeo, non sono molti.
Secondo gli ultimi dati pubblicati, Facebook, ha un Ebitda margin del 57,4% e ricavi per 2,4 euro al mese per un utente europeo (Ebitda di 1,3 euro al mese). I dati per Twitter non sono disaggregati per area ma ha un Ebitda di 434 milioni all’anno con 330 milioni di utenti, pari a 10 centesimi al mese per utente. Diverso il discorso per Google News che non genera ricavi per Google ma che serve ad analizzare gli interessi degli utenti; dall’importo della licenza che sarà disponibile a pagare capiremo quanto questi singoli dati siano rilevanti. Se si guarda al noto caso spagnolo, verrebbe da pensare che non siano molto importanti.
Fake news, contenuti e tasso di conversione del traffico
Grandi o piccoli che siano gli importi, si genererà un flusso di danari dagli OTT alle imprese editoriali i cui contenuti vengono diffusi. Gli editori dei contenuti che circoleranno maggiormente online saranno quelli che otterranno la fetta maggiore di questo flusso di danari.
Oggi lamentiamo una presenza di fake e clickbaiting, contenuti e news diffusi da piccole aziende, con strutture di costi minime, che cercano di massimizzare l’attrazione di traffico verso le proprie properties per inondare gli utenti di pubblicità. Ma l’industria della pubblicità – ad eccezione di quella venduta bulk a prezzi risibili – è attenta all’effetto che produce, ai tassi di conversione e questi siti sono penalizzati dalla bassa qualità del loro traffico. La verifica ex post che riduce i loro ricavi, la spada di Damocle sui loro ricavi, è il tasso di conversione del traffico.
Una simile valutazione non può essere fatta con dei contenuti. Si può solo misurare il traffico generato dal social verso la property dell’editore e quello sarà il dato di diffusione del contenuto online su cui basare la ripartizione dei proventi della link tax. Gattini, clickbaiting, fake news ed editoriali impegnati pari saranno nella ripartizione delle risorse generate dalla link tax.
È un ulteriore incentivo, senza spada di Damocle, per la nascita di imprese editoriali con strutture di costi minime che diffondano questi contenuti.
Inversione dell’onere della prova con pre-giudizio informatico
L’altro articolo oggetto di controversie è il 13, in cui si prevedono – pur senza nominarli – i filtri dei contenuti caricati dagli utenti il cui fingerprint corrisponda a quello dei contenuti di cui una impresa editoriale afferma di possedere i diritti.
Il problema qui, secondo me, è che si inverte l’onere della prova su un illecito demandando un primo grado di giudizio ad un privato che usa un sistema che, per costruzione, che commetterà errori, e che per dinamiche naturali già verificatesi in casi simili, verrà successivamente applicato ad altri ambiti della vita online delle persone.
Solo i non tecnologi ripongono speranze salvifiche nella tecnologia e ritengono che sia infallibile: usando Excel e Word l’esperienza che ricavano è che gli strumenti siano deterministici e pensano che ciò valga in generale, ma non è così. Questi sistemi di classificazione si basano su meccanismi probabilistici ed è matematicamente dimostrato che commettono errori, sia falsi positivi che falsi negativi (piccola nota personale a margine: quando in parlamento cercavo di contrastare le armi letali autonome spiegavo ciò ad un collega portandogli esempi della sua vita quotidiana. Sembrava che lo avessi convinto ma poi lui disse “ma i sistemi militari sono più ‘sicuri’” ).
Su Youtube, in un’ora, vengono caricati video per una durata di oltre 65 anni (dato di qualche anno fa). Il numero di contenuti ingiustamente bloccati per decisione di un sistema di intelligenza artificiale sarà enorme.
In un sistema che tuteli la libertà di espressione non è tanto sui falsi negativi che dobbiamo concentrarci, ma sul procedimento che riguarda i falsi positivi ed il loro immediato ripristino online.
La proposta di compromesso su questo punto (“redress”) appare vaga, ipotizzando che poi ci sia qualcuno, per ogni paese, in grado di dirimere tutte le controversie in tempi brevissimi e con l’autorità per imporre alla piattaforma la ripubblicazione del contenuto bloccato.
Un giudizio privato algoritmico (che indiscutibilmente commette errori) afferma l’illecito e il cittadino deve invece dimostrare la liceità.
Le possibili derive “diversamente democratiche”
Una inversione dell’onere della prova, con una pre-giudizio informatizzato, privato, che deve far riflettere anche in chiave prospettica quando, per naturale evoluzione, l’adozione di sistemi simili sarà richiesta per il blocco preventivo di altri contenuti, come ad esempio quelli a sfondo terroristico o di hate speech, temi adiacenti ai quali le persone esprimono anche opinioni di natura politica.
Sbaglia chi ritiene che una simile estensione non possa accadere. Accadrà certamente. Chiunque abbia esperienza legislativa sui meccanismi di takedown e di “inibizione all’accesso” sa bene che gli articolati approvati poi vengono riutilizzati e copia-incollati in progetti di legge successivi.
D’altro canto, hanno funzionato, quindi che problema c’è? In realtà il problema potrebbe esserci ma non lo sappiamo. Non sono a conoscenza di alcuno studio che abbia fatto una approfondita analisi costi/benefici, con misurazione dell’efficacia e degli effetti collaterali inattesi.
Un domani la procedura di inversione dell’onere della prova con pre-giudizio informatico privato sarà usata anche per altro, non è detto con finalità nobili (reali o dichiarate).
Una simile infrastruttura, una volta realizzata, farà venire l’acquolina in bocca al “diversamente democratico” di turno.
Che delle multinazionali straniere abbiano il compito di garantire per le nostre società il non – cattivo uso di tali infrastrutture mi sembra decisamente non auspicabile; ritenere “che certe cose non possono succedere” è stato storicamente il modo con cui certe cose si sono verificate.
Ricordiamo tutti le multinazionali che, fino a pochi mesi fa, dichiaravano di voler “non fare il male”, e come oggi sotto la pressione di ricavi unitari in calo, si stanno comportando in Cina.
Come salvare capra, cavolo e lupo
Se l’Art. 13 verrà modificato annullando l’inversione dell’onere della prova ed evitando che il pre-giudizio informatico prevalga, facendo prevedere la presunzione di innocenza, si potrebbero definire procedure che salvano capra, cavolo e lupo.
Si potrebbero prevedere le basi giuridiche di un meccanismo che effettui una ripubblicazione in tempi estremamente brevi dei contenuti laddove l’uploader possa essere identificabile da una corte che valuti il caso. La regolamentazione europea eIDAS pone delle basi utili per la realizzazione di una forma di anonimato protetto, un sistema paneuropeo di fiduciari digitali che possano tutelare la privacy e l’anonimato degli utenti rispetto alle piattaforme (e rispetto agli altri utenti), ma rendendoli identificabili da una corte con le garanzie processuali previste dalla legge. Un tale sistema è descritto in maggior dettaglio da un position paper dell’Associazione Copernicani.