La proposta della Commissione europea sul Digital Services Act punta a innestare germi di trasparenza e correttezza nell’offerta di servizi digitali. Il pacchetto nutre l’ambizione di dare impulso al mercato unico, assicurando la correttezza delle pratiche di mercato, la certezza dei diritti e la prevedibilità delle regole [1]. Ma rimangono ancora alcuni problemi da risolvere.
Il punto di partenza del Digital Services Act
Significative e attese sono le implicazioni e le correlazioni anche sul fronte della tutela dei diritti. L’affermazione dell’economia digitale ha aumentato la disponibilità in rete di prodotti contraffatti, non conformi o non autorizzati o di altri beni scambiati illegalmente, così come la proliferazione di contenuti illegali, da cui scaturisce il fenomeno dell’incitamento all’odio ovvero l’hate speech. I contenuti illegali, attraverso gli algoritmi di profilazione e personalizzazione dei servizi, facilitano poi la polarizzazione e radicalizzazione del dibattito pubblico.
L’enforcement del DSA
In fase di ricognizione da parte della Commissione europea, gli strumenti di enforcement offerti a livello europeo si sono rivelati inadeguati e comunque insufficienti rispetto alla disruption dell’ecosistema digitale. Oggetto di regolazione è stato un sotto-insieme di questioni: violazioni del copyright, contenuti terroristici, materiale illegale pedo-pornografico o incitamento all’odio, commercializzazione/ diffusione di taluni prodotti contraffatti o non conformi.
Le previsioni si sono concentrate su specifici contenuti e servizi, e comunque le misure di controllo e supervisione attivate si sono dimostrate prive di concreto effetto utile, soprattutto in caso di violazioni transnazionali.
I tentativi di armonizzazione
Dalla ricognizione si è passati all’azione. Si è assistito a un tentativo di parziale armonizzazione, consolidatosi a partire dall’utilizzo di codici di auto-regolazione, in relazione a quattro tipologie di contenuti illegali:
- Direttiva anti-terrorismo;
- Direttiva sull’abuso e lo sfruttamento sessuale dei minori;
- la decisione-quadro contro il razzismo;
- Direttiva di modernizzazione del diritto d’autore
Direttiva anti-terrorismo
Innanzitutto, la Direttiva anti-terrorismo si è concentrata sul fenomeno dell’istigazione/ l’incitamento pubblico a commettere un reato di terrorismo, richiedendo che gli Stati membri adottino, seguendo procedure trasparenti e con adeguate garanzie, misure di rimozione e blocco dei siti web che contengono o diffondono contenuti di matrice terroristica.
Direttiva sull’abuso dei minori
In secondo luogo, la Direttiva sull’abuso e lo sfruttamento sessuale dei minori ha imposto agli Stati membri di adottare misure di rimozione e blocco dell’accesso alle pagine web che contengono o diffondono materiale pedopornografico ospitate nel loro territorio (e si “adoperano” per ottenere la rimozione di tali pagine ospitate al di fuori dei loro territori).
La decisione-quadro contro il razzismo
Inoltre, la decisione-quadro contro il razzismo ha previsto che gli Stati membri garantiscano il perseguimento del fenomeno dell’incitamento all’odio razzista e xenofobo, non imponendo però obblighi dettagliati sulle pratiche di moderazione dei contenuti. Essi, invece, sono contemplati in un Codice di condotta volontario, secondo cui, quando il contenuto segnalato risulta illegale/illecitamente diffuso, la piattaforma si impegna a rimuoverlo ovvero a disabilitarne l’accesso in modo tale da non renderlo più visibile.
Direttiva di modernizzazione del diritto d’autore
Infine, la Direttiva di modernizzazione del diritto d’autore, che ha come oggetto i contenuti autoriali, ha introdotto un nuovo regime di responsabilità. Le piattaforme di condivisione di contenuti online diventano responsabili per le violazioni di diritti d’autore attuate dai propri utenti che caricano contenuti senza esserne autorizzati, a meno che non dimostrino di aver prodotto i massimi sforzi per rimuovere o limitare la diffusione di tali contenuti illeciti [2].
L’antidoto della Commissione Ue
Per evitare soluzioni a “macchia di leopardo”, la Commissione ha rilanciato, avanzando un’iniziativa orizzontale di armonizzazione massima che, come tale, impone ai fornitori di servizi di intermediazione di contenuti online l’obbligo di agire contro i contenuti illegali e, se richiesti, di fornire informazioni alle autorità giudiziarie o amministrative nazionali (artt. 8 e 9, Digital Services Act), garantendo, al contempo, il rispetto della libertà d’espressione.
La nozione di “contenuto illegale”
Per raggiungere l’obiettivo, il Digital Services Act allarga la nozione di “contenuto illegale”, estendendola alle informazioni, indipendentemente dalla loro forma, che sono di per sé illegali, quali l’illecito incitamento all’odio o i contenuti terroristici illegali e i contenuti discriminatori illegali, o che riguardano attività illegali, quali la condivisione di immagini che ritraggono abusi sessuali su minori, la condivisione non consensuale illegale di immagini private, il cyber-stalking, la vendita di prodotti non conformi o contraffatti, l’utilizzo non autorizzato di materiale protetto dal diritto d’autore o le attività che comportano violazioni della normativa a tutela dei consumatori [3].
Gli operatori del DSA
Quanto ai soggetti, il Digital Services Act si indirizza a diverse categorie di operatori online, a seconda delle sub-categorie di operatori, tramite la formulazione di obblighi via via più specifici, in ragione della loro dimensione economica.
L’insieme normativo definisce gli obblighi “a cerchi concentrici” ovvero a partire dagli obblighi applicabili trasversalmente a tutte le categorie di operatori sino a quelli indirizzati solo ad una categoria specifica.
In concreto, la proposta prevede quattro gruppi di operatori:
- gli Internet service provider (semplice trasporto/mere conduit; memorizzazione temporanea/cache; host);
- gli intermediari di servizi digitali;
- le piattaforme online;
- le “piattaforme di dimensioni molto grandi” (in quanto operatori sistemici).
Un insieme di obblighi è applicabile a tutti i fornitori che rientrano nell’ambito di applicazione soggettiva dal regolamento. Essi devono creare un punto di contatto unico per le autorità o, se non sono stabiliti nel territorio dell’Unione, un rappresentante legale (articoli 10 e 11).
L’obbligo di trasparenza
Di grande rilievo è l’obbligo di trasparenza dei fornitori di servizi che devono menzionare, nelle loro condizioni generali di utilizzo, le informazioni sulle restrizioni normative che impattano sui loro servizi, in particolare le misure restrittive (oggettive e proporzionate) per la moderazione dei contenuti, incluso il processo decisionale mediante algoritmi o la moderazione effettuata da esseri umani (art. 12).
Il rapporto annuale sulla moderazione
Un rapporto annuale sulle procedure di moderazione avviate (compreso un elenco di informazioni dettagliate) deve essere pubblicato da tutte le società, a esclusione delle micro o piccole imprese almeno una volta all’anno, in modo chiaro, comprensibile e dettagliato (art. 13).
La notifica dei contenuti illegali
Per quanto riguarda la notifica di eventuali contenuti illegali, la proposta opta per la definizione di meccanismi facilmente accessibili a qualsiasi persona fisica o entità. Il ricevimento di una notifica fa presumere la conoscenza di contenuti illegali, rendendo così responsabile la piattaforma se il contenuto palesemente illegale non sia stato rimosso tempestivamente.
Le piattaforme sono soggette a un obbligo di informazione in merito a tale procedura:
- sulla cancellazione dei contenuti o il blocco di accesso, informandone il beneficiario e specificandone i motivi;
- sulle informazioni minime della decisione, quali l’ambito territoriale, i fatti e le circostanze o i possibili rimedi.
Infine, i provvedimenti adottati e le loro motivazioni devono essere conservati in una banca-dati (senza riferimenti personali) accessibile da parte alla Commissione europea.
La gestione dei ricorsi
L’istituzione di un sistema interno di gestione dei ricorsi contro le decisioni che dichiarano il contenuto illegale o incompatibile diventa obbligatorio per le piattaforme online, che dovranno, tra le altre cose, fornire ai destinatari del servizio, per un periodo di almeno sei mesi, l’accesso ad un sistema interno che consenta loro di inviare reclami, in forma elettronica e gratuitamente, contro tali decisioni. I ricorsi devono essere trattati in tempi ragionevoli e in modo obiettivo e le piattaforme devono informare i ricorrenti della decisione presa e della possibilità di risoluzione alternativa delle controversie.
La sospensione degli account
All’entrata in vigore del Digital Services Act, le piattaforme, tramite le specifiche procedure e le dovute garanzie, avranno il potere di sospendere gli account che forniscono contenuti manifestamente illegali (art. 20).
La disposizione prevede che, dopo un avviso preventivo, le piattaforme online sospendano, per un periodo di tempo ragionevole, la prestazione dei loro servizi ai destinatari del servizio che forniscano frequentemente contenuti manifestamente illegali; oppure presentino notifiche o reclami manifestamente infondati.
Parametri di valutazione
Le piattaforme online valutano “in modo tempestivo, diligente e obiettivo”, se un destinatario o un reclamante commetta abusi. Criteri alla base della valutazione risulterebbero:
- il numero, di contenuti o di notifiche/reclami manifestamente infondati;
- la proporzione rispetto al numero di informazioni o di notifiche nell’anno precedente;
- la gravità degli abusi e delle relative conseguenze;
- l’intenzione del destinatario, della persona, dell’ente o del reclamante.
Obblighi per le grandi piattaforme
Il Digital Services Act impone alle piattaforme molto grandi [4] un certo numero di obblighi, spesso molto restrittivi. Tra le novità più rilevanti del DSA per le piattaforme molto grandi, vi è l’obbligo di un audit esterno e di una valutazione del rischio (risk assessment) dinanzi a un potenziale uso distorsivo del proprio servizio su diritti fondamentali.
DSA e rischi sistemici
L’analisi dell’impatto riguarda i rischi sistemici significativi derivanti dal funzionamento e dall’uso dei loro servizi, in particolare per i loro sistemi di moderazione dei contenuti e di raccomandazione, nonché i loro sistemi per selezionare e visualizzare annunci pubblicitari (art. 26, DSA).
I rischi sistemici sono considerati:
- la diffusione di contenuti illegali sui propri servizi;
- gli effetti pregiudizievoli sull’esercizio dei diritti al rispetto della vita privata e familiare, sulla libertà di espressione e di informazione, sul divieto di discriminazione e sui diritti del bambino;
- la manipolazione intenzionale dei loro servizi con effetti reali o prevedibili sulla protezione della salute pubblica, dei minori, del discorso civico o relativa ai processi elettorali e alla sicurezza pubblica.
La governance “a stella”
Quanto all’enforcement, la soluzione proposta passa per un sistema istituzionale e una governance “a stella”, in cui alla Commissione è riservato un ruolo di raccordo e coordinamento, mentre agli Stati membri spetta un’ineliminabile funzione di enforcement.
In questa prospettiva, il DSA punta sul principio del paese di origine, assoggettando le piccole e medie imprese che intendono offrire servizi a livello transnazionale ad una sola legge. Non solo. Le leggi dei Paesi di destinazione verranno attivate ogni volta che una condotta produca degli effetti in uno Stato membro e ne venga richiesta la rimozione attraverso la decisione di un’autorità.
Conclusioni
Dalla presentazione della proposta del Digital Services Act, il negoziato è andato avanti. I nodi da sciogliere sono delicati. La strada imboccata però lascia ben sperare. Ora si tratta di accompagnare il cambio di passo dell’ecosistema digitale, consentendo ai suoi protagonisti di conformarsi a più elevati standard di comportamento e di contribuire attivamente a evitare la diffusione di contenuti illegali e la commercializzazione di merci contraffatte.
*Questo articolo è parte della rubrica “Innovation Policy. Quo vadis?”, a cura dell’ICPC-Innovation, Regulation and Competition Policy Centre
Note
- V. Falce, Fairness e innovazione nel mercato unico digitale, Giappichelli, 2020.. ↑
- V. Falce, N. M.F. Faraone, Spunti di diritto
positivo sull’art. 17 della Direttiva Copyright, in Riv. Dir. Ind., 2021). ↑ - Considerando 12. ↑
- Per qualificarsi come molto grandi, le piattaforme devono fornire i propri servizi a un numero medio di utenti attivi mensilmente, all’interno dell’Unione, pari o superiore a 45 milioni. ↑