In questi giorni si sta discutendo molto circa i filtri preventivi per le piattaforme di condivisione online a tutela dei titolari dei diritti. Il tutto è in un molto contestato articolo 13 della riforma europea del copyright, in votazione nella UE.
I fronti sono schierati abbastanza nettamente a favore – i sostenitori degli argomenti dei titolari dei diritti – o contro – chi ritiene che ciò costituisca un limite alla libertà di espressione ed un onere eccessivo per i fornitori di servizi. Fa parte di questa seconda istanza il movimento Save your internet, sostenuto da alcuni padri fondatori della rete. La richiesta è di cancellare l’articolo 13.
Le ragioni degli uni e degli altri
Si può dire che, in una certa misura, abbiano ragione entrambi. Ogni controllo produce falsi positivi e falsi negativi. Contenuti perfettamente leciti che vengono ritenuti (erroneamente) in violazione e contenuti illeciti che non vengono rilevati. E’ un problema per certi versi analogo a quello di tutti i sistemi cui è demandata una verifica, di cui ho scritto in passato in materia di riconoscimento di sospetti di terrorismo ed in cui bisogna tenere contro del teorema di Bayes.
I titolari dei diritti rivendicano l’efficacia interessati prevalentemente alla riduzione dei falsi negativi; i difensori della posizione opposta sostengono che non funzionino adeguatamente osservando il numero dei falsi positivi. E’ una coperta corta.
Un ulteriore aspetto non secondario è l’investimento richiesto: va ricordato che il sistema Content ID di Google è costato – secondo le cronache – oltre 60 milioni di dollari, una cifra decisamente fuori dalla portata di piccole aziende e startup.
Il problema del redress
Un punto che mi pare non abbia il giusto rilievo nelle discussioni sui filtri preventivi è il cosiddetto redress, ovvero la procedura con cui si rimedi ad esclusioni errate.
La persona cui venisse bloccato qualcosa di perfettamente lecito (falso positivo), come fa ad ottenere giustizia? Come viene risarcito? E in che tempi ?
Se pensassimo che questi meccanismi siano assai accurati ed affidabili e che producano un numero trascurabile di falsi positivi potremmo pensare di prevedere un arbitrato vincolante che riconosca una somma – diciamo 50 euro – a chi ne sia danneggiato, con una decisione da assumere in un tempo molto ridotto (entro 2 giorni ?) trascorsi i quali le somme siano immediatamente dovute al denunciante la lesione.
Ci sarebbe qualche servizio online, titolare dei diritti o autorità in grado di accettare una simile condizione? Mi sembra assai poco probabile perché è tecnicamente chiaro che i falsi positivi (contenuti leciti filtrati per errore) sarebbero tantissimi.
Come nell’esempio numerico dell’articolo sul terrorismo sopracitato, rendendo gli strumenti efficaci nel ridurre i falsi negativi, si genererebbero molte più vittime di errori.
Come possiamo gestire il problema del redress per assicurare che la libertà di espressione non venga limitata? Ci possono essere meccanismi o procedure che assicurino la libertà di espressione ribilanciando questa equazione ?
Una soluzione da trovare
Io credo che possano esistere e che dovremmo cercare di ingegnarci per trovarle e per risolvere questo problema come elemento integrante del sistema. Detto in altri termini, un sistema che non preveda un meccanismo di redress in tempo reale (o quasi) a mio avviso risulterebbe sbilanciato e penalizzante.
Per questo ritengo sarebbe bene porre la cosa al centro della discussione. Il diritto all’espressione è importante quanto quello alla protezione di altri diritti economici (se non più importante).
Come citato, mi pare che purtroppo invece il tema sia assente dal dibattito.
E’ l’assenza grave di una voce importante. Così il coro rimane stonato.