Contenuti illegali

Moderazione dei social, così il Digital service act (e Agcom) potrebbe risolvere le dispute

La proposta di regolamento Ue Digital Service Act (DSA) potrebbe contribuire alla gestione delle controversie legate a censura, contenuti illeciti e libertà di espressione online. L’Italia, dal canto suo, può già vantare un regolamento pilota messo a regime da Agcom per la tutela del diritto d’autore

Pubblicato il 25 Gen 2021

Enzo Mazza

CEO F.I.M.I. (Federazione industria musicale italiana)

Digital-service-act

Nel dibattito di questi giorni su come agire di fronte agli episodi di blocco degli account social da parte delle grandi piattaforme si è fatto poco riferimento alle potenzialità della nuova proposta di regolamento europeo, il Digital Service Act (DSA).

Il testo della proposta di regolamento è molto recente, infatti è stato pubblicato a dicembre 2020, ed quindi è probabile che molti commentatori non abbiano avuto il tempo di approfondirne i dettagli, complice anche l’assenza di un testo in italiano, ma sicuramente siamo di fronte a uno scenario innovativo in materia di contenuti illegali online. Ne ho scritto a pochi giorni dalla presentazione da parte della Commissione EU e varrebbe pertanto la pena di tornarci sopra alla luce degli ultimi avvenimenti che hanno accesso un forte dibattito su censura, contenuti illeciti e libertà di espressione.

Cosa prevede il Digital Service Act

Intanto, cosa prevede il DSA? Il regolamento stabilisce norme armonizzate sulla fornitura di servizi di intermediazione nel mercato interno. In particolare, stabilisce:

  • un quadro per l’esenzione condizionale dalla responsabilità dei prestatori di servizi di intermediazione;
  • norme sugli obblighi di dovuta diligenza specifici adattati a determinate categorie specifiche di fornitori di servizi di intermediazione;
  • norme sull’attuazione e il rispetto del presente regolamento, anche per quanto riguarda la cooperazione e il coordinamento tra le autorità competenti.

Moderazione dei contenuti

Con riferimento a cosa sono i contenuti illegali, l’articolo 2 della proposta li descrive in questo modo: qualsiasi informazione, che, di per sé o in base al riferimento a un’attività, compresa la vendita di prodotti o la prestazione di servizi, non è conforme al diritto dell’Unione o al diritto di uno Stato membro, indipendentemente dall’oggetto preciso materia o natura di tale legge.

Sempre all’articolo 2 si definisce cosa viene inteso per “moderazione dei contenuti“: le attività intraprese dai fornitori di servizi intermediari volte a rilevare, identificare e affrontare contenuti illegali o informazioni incompatibili con i loro termini e condizioni, forniti dai destinatari del servizio, comprese le misure adottate che influenzano la disponibilità, la visibilità e l’accessibilità dei quel contenuto illegale o quelle informazioni, come la retrocessione, la disabilitazione dell’accesso o la loro rimozione, o la capacità dei destinatari di fornire tali informazioni, come la chiusura o la sospensione dell’account di un destinatario.

Obblighi di due diligence

Nel capitolo 3 del DSA si entra nel merito di quello che è definito “Due diligence obligations for a transparent and safe online environment” e in questo contesto vale la pena di soffermarsi per comprendere quali opzioni offre la proposta comunitaria.

L’articolo 20 stabilisce che le piattaforme online sospendono, per un periodo di tempo ragionevole e previo avviso, la fornitura dei loro servizi ai destinatari che spesso forniscono contenuti manifestamente illegali. Le piattaforme online sospendono, per un periodo di tempo ragionevole e dopo aver emesso un preavviso, il trattamento delle comunicazioni e dei reclami presentati tramite i meccanismi di notifica e azione e i sistemi interni di trattamento dei reclami di cui agli articoli 14 e 17, rispettivamente, da individui o entità o da ricorrenti che presentano frequentemente comunicazioni o reclami manifestamente infondati.

Le piattaforme online valutano, caso per caso e in modo tempestivo, diligente e obiettivo, se un destinatario, un individuo, un’entità o un denunciante commette l’uso improprio di cui ai paragrafi 1 e 2, tenendo conto di tutti fatti e circostanze rilevanti evidenti dalle informazioni disponibili sulla piattaforma online.

Tali circostanze includono almeno quanto segue:

  • il numero assoluto di elementi di contenuto manifestamente illegale o di comunicazioni o reclami manifestamente infondati, presentati nell’ultimo anno;
  • la loro proporzione relativa rispetto al numero totale di elementi di informazione forniti o avvisi presentati nell’ultimo anno;
  • la gravità degli abusi e le sue conseguenze;
  • l’intenzione del destinatario, individuo, entità o denunciante.

Le piattaforme online definiscono, in modo chiaro e dettagliato, la loro politica in relazione all’uso improprio di cui ai paragrafi 1 e 2 nei loro termini e condizioni, anche per quanto riguarda i fatti e le circostanze di cui tengono conto nel valutare se alcuni comportamenti costituiscono un uso improprio e la durata della sospensione.

A questo punto è evidente che tali disposizioni potrebbero aiutarci, in coordinamento con altre nel DSA che prevedono, ad esempio all’art.17 un sistema di gestione dei reclami, la creazione all’art.32 del compliance officer e all’art.38 la designazione dell’autorità nazionale del Digital Service Coordinator competente che dovrà interfacciarsi con le piattaforme.

Il regolamento pilota italiano

A questo punto l’Italia può già oggi vantare un regolamento pilota a livello globale che è stato messo a regime per la tutela del diritto d’autore.

Ispirandoci al sistema gestito da Agcom anche per la gestione di contenuti illeciti di genere diverso sui social, si potrebbe definire un meccanismo di analisi e salvaguardia delle parti che da un lato consenta alla piattaforma di agire secondo i termini e le condizioni del servizio, e quindi procedere con eventuali sospensioni e blocchi degli account per violazione, ma dall’altro, tramite Agcom, sarebbe possibile prevedere un meccanismo di reclamo sotto la supervisione di un’autorità amministrativa terza, con una procedura cautelare, al fine garantire allo stesso tempo rapidità di intervento e superare il modello di “polizia privata” che oggi viene opposto da molti giuristi all’azione autonoma senza contraddittorio della piattaforma.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati