L’attuazione della direttiva 2019/790 sul diritto d’autore e sui diritti connessi nel mercato unico digitale è in dirittura d’arrivo: il testo è ormai definitivo, e si attende la pubblicazione in Gazzetta Ufficiale a giorni. Una delle maggiori novità introdotte dalle nuove norme riguarda la nuova figura del “prestatore di servizi di condivisione di contenuti online”, corrispondente sostanzialmente ai gestori di grandi piattaforme online.
Questi prestatori di servizi sono soggetti a regole di responsabilità nei confronti di violazioni di diritti d’autore molto più stringenti rispetto a quelle previste dalla direttiva 2000/31 per i meri conduit provider, i caching provider e gli hosting provider passivi. Essi dovranno infatti impiegare i massimi sforzi per concludere licenze con i titolari dei diritti (almeno quelli più rilevanti), che copriranno e renderanno lecite anche le attività degli utenti. In ogni caso, le piattaforme dovranno adottare meccanismi di filtraggio dei contenuti protetti, sulla base delle richieste e dei dati forniti da parte dei titolari dei diritti.
Gli attuali sistemi di filtraggio
I sistemi di filtraggio attualmente disponibili sul mercato sono basati su tecniche di vario tipo, che comunque in tutti i casi conducono ad una identificazione automatica della corrispondenza dei contenuti caricati dagli utenti con i contenuti identificati come protetti, risultando nella disabilitazione preventiva dei post degli utenti. In linea generale, questi sistemi funzionano adeguatamente in relazione ai contenuti cosiddetti manifestamente illeciti, ovvero alle copie pedisseque di opere protette, costituenti evidentemente una violazione dei diritti degli autori, in quanto caricate senza alcun titolo da parte degli utenti della piattaforma.
Si possono tuttavia verificare anche casi di caricamenti diversi, definibili come casi dubbi, ove il contenuto non è costituito da una copia pedissequa (ma per esempio dalla ripresa di parti minoritarie del contenuto protetto, eventualmente unite a parti di opere di terzi, ovvero in forma elaborata). Allo stato i sistemi di filtraggio non sono in grado di discernere i contenuti manifestamente illeciti da quelli dubbi, con la conseguenza che questi contenuti rimangono generalmente disabilitati in via preventiva, anche se l’utente si può attivare con procedure di segnalazione o di reclamo di vario genere, per ottenerne che il suo contenuto sia rimesso a disposizione del pubblico.
Cosa prevede la nuova direttiva
La nuova direttiva prevede oggi espressamente che agli utenti delle piattaforme online debba essere consentito di utilizzare i contenuti protetti per avvalersi delle eccezioni previste dall’ordinamento, quantomeno quelle di citazione, critica, rassegna, nonché di caricatura, parodia o pastiche. Al fine di effettuare il bilanciamento fra gli interessi in gioco (ossia, da una parte, i diritti esclusivi degli autori e, dall’altra parte, la libertà di espressione degli utenti), la direttiva disciplina un meccanismo di reclamo alla piattaforma e di ricorso (che secondo la bozza di decreto legislativo italiano sarà gestito da AGCOM), in base al quale i titolari dei diritti devono indicare debitamente i motivi della richiesta. Il reclamo è trattato senza indebito ritardo ed è soggetto a verifica umana.
Alla luce di questa disposizione, ci si è chiesti se la direttiva lasci inalterato il meccanismo operativo degli attuali sistemi di filtraggio, come sopra descritti, o se invece lo disciplini in modo diverso. La questione attiene al momento della eventuale disabilitazione del contenuto caricato, e al soggetto che si deve attivare in relazione alla disabilitazione/abilitazione del medesimo: vi è infatti un primo scenario, sostanzialmente rispondente a quello attuale, in cui la piattaforma online non è tenuta ad effettuare distinzioni ed è quindi abilitata a impedire il caricamento sia dei contenuti manifestamente illeciti, sia dei contenuti dubbi, con la conseguenza che è onere dell’utente attivarsi per dare inizio alla procedura di reclamo, onde ottenere che il contenuto sia comunicato al pubblico; e vi è un secondo scenario, in cui invece il sistema impedisce in via preventiva unicamente il caricamento dei contenuti manifestamente illeciti, mentre per quelli dubbi è onere del titolare dei diritti dare inizio alla procedura di reclamo per ottenere la disabilitazione ex post. È interessante notare che l’implementazione italiana ha sposato nettamente la prima soluzione, prevedendo al nuovo articolo 102decies co. 3 l.a. che “nelle more della decisione sul reclamo, i contenuti in contestazione rimangono disabilitati”.
Implementazione italiana vs implementazione tedesca
In modo diametralmente opposto il legislatore tedesco ha invece previsto (con il recente Gesetz über die urheberrechtliche Verantwortlichkeit von Diensteanbietern für das Teilen von Online-Inhalten) che esistano degli usi presuntivamente legittimi e che in tali casi, al fine di evitare blocchi sproporzionati durante l’utilizzo di processi automatizzati, questi usi presuntivamente legittimi rimangono disponibili sulla piattaforma fino alla conclusione della procedura di reclamo.
Più in particolare, sono qualificati come usi presuntivamente legittimi quelli relativi a contenuti generati dagli utenti che contengano meno della metà di un’opera di terzi o più opere di terzi, ovvero che combinino parti di opere (per ciascuna per una quantità inferiore alla metà) con altri contenuti, ovvero che utilizzino solo opere di terzi in misura limitata (cd. usi “de minimis”), nonché infine che riportino un apposito contrassegno (“flag”) apposto dall’utente come segnalazione che si tratta di un uso legittimo. Da ultimo, il legislatore tedesco ha introdotto un rimedio speciale (il cd. “pulsante rosso”) per tutelare in modo più incisivo i titolari dei diritti in alcuni casi particolari. In questi casi il contenuto rimane bloccato in pendenza del reclamo, anche se presuntivamente legittimo. Il “pulsante rosso” è disponibile, tuttavia, soltanto per alcuni titolari di diritti, ossia quelli qualificati come affidabili, e solo ove ci sia un rischio di danno economico rilevante.
Il mercato europeo ancora lontano dall’armonizzazione
È certo che una tale implementazione così difforme da parte di due Stati membri dell’Unione Europea non sia affatto un risultato auspicabile, ed anzi costituisca proprio quanto si dovrebbe evitare nel processo di armonizzazione del mercato unico, che ovviamente risulta danneggiato da una frammentazione di questo tipo. D’altro canto, il bilanciamento degli interessi in gioco fra autori ed utenti ha costituito e tuttora costituisce uno dei terreni più scivolosi fin dalla prima introduzione della direttiva, come dimostrato dal ricorso presentato dalla Polonia contro l’art. 17, e che mira ad ottenerne l’annullamento nella parte in cui esso richiederebbe ai gestori delle piattaforme online di implementare meccanismi di filtraggio automatico, che si baserebbero sul controllo preventivo dei contenuti caricati dagli utenti. Secondo la Polonia “un siffatto meccanismo pregiudica l’essenza del diritto alla libertà di espressione e di informazione e non soddisfa i requisiti di proporzionalità e di necessità di limitazioni di tale diritto”. Il ricorso non è ancora stato deciso, ma sono state depositate le conclusioni dell’avvocato generale, secondo il quale il meccanismo di filtraggio previsto dall’art. 17 sarebbe legittimo, anche se presenta rischi di “overblocking” (in pratica, le piattaforme online, per scongiurare responsabilità potenziali nei confronti dei titolari dei diritti, potrebbero essere indotte ad adottare criteri ampi di filtraggio, finendo quindi per bloccare anche contenuti in realtà legittimi).
Inoltre, il filtraggio potrebbe provocare un “chilling effect”: gli utenti costretti a presentare reclamo per ottenere la comunicazione al pubblico dei loro contenuti in molti casi finirebbero per rinunciare alla pubblicazione o al reclamo. Lo stesso approccio è stato adottato anche dalla Commissione Europea, demandata a emanare linee guida interpretative (una cd. “soft law”) ai sensi dell’art. 17 co. 10 della direttiva 2019/790. Secondo la Commissione, infatti, in caso di conflitto fra uso legittimo e blocco dei contenuti dovrebbe prevalere in prima battuta l’uso legittimo. Ne consegue che i sistemi di filtraggio di tipo automatico dovrebbero applicarsi solo agli usi definibili come “manifestamente illeciti”; mentre per quanto riguarda usi diversi si dovrebbe ricorrere alla revisione umana; nelle more del reclamo l’uso individuato come non manifestamente illecito dovrebbe rimanere disponibile.
Conclusioni
Alla luce di quanto sopra ci sarà probabilmente spazio per chiedersi se l’implementazione italiana possa presentare aspetti di non conformità con la normativa comunitaria, dal momento che essa espressamente prevede l’obbligo per le piattaforme online di mantenere i contenuti sempre disabilitati fino alla conclusione del reclamo; e se comunque non sia auspicabile individuare modalità attuative che possano stemperare le divergenze fra le diverse implementazioni nazionali, eventualmente valorizzando in via interpretativa la circostanza che la cooperazione tra le piattaforme online e i titolari dei diritti non deve pregiudicare la disponibilità dei contenuti caricati dagli utenti in modo legittimo, attraverso la predisposizione di sistemi di filtraggio tendenzialmente calibrati sul solo blocco dei contenuti manifestamente illeciti.