informazione

Il Digital Services Act tutela davvero la democrazia? I problemi dell’approccio Ue

Con il Digital Services Act le piattaforme di grandi dimensioni sono chiamate a collaborare con l’Ue per disinnescare sul nascere campagne architettate per creare disordine. Proteggere il dibattito e annichilire la disinformazione vuole dire tutelare la democrazia, ma l’Ue lo sta facendo nel modo adatto?

Pubblicato il 25 Gen 2023

Diego Fulco

Direttore Scientifico Istituto Italiano per la privacy e la valorizzazione dei dati, Partner netforLegaL

unione europea informazione

Il Regolamento Ue 2022/2065 sui servizi digitali (Digital Services Act, o Dsa), in vigore dal 16 novembre 2022 ma applicabile per la maggior parte delle sue norme dal 17 febbraio 2024, è rivolto a una platea di destinatari molto variegata al suo interno: i prestatori di servizi intermediari della Società dell’informazione.

Pure rivolgendosi all’intera platea, il Dsa definisce obblighi di diligenza differenziati in ragione del tipo, delle dimensioni e della natura del servizio digitale intermediario.

Explaining the EU's Digital Services Act and Digital Markets Act (DSA/DMA) | Platform Futures

Explaining the EU's Digital Services Act and Digital Markets Act (DSA/DMA) | Platform Futures

Guarda questo video su YouTube

Siamo di fronte all’ennesima disciplina europea di matrice comportamentale, che impone cioè ai destinatari di sostenere adempimenti più o meno onerosi a seconda di fattori che caratterizzano il prestatore del servizio da un punto di vista soggettivo e/o il servizio da un punto di vista oggettivo.

Adempimenti differenti

Gli adempimenti sono minori per fornitori di servizi tecnici di semplice trasporto come, per esempio i servizi internet, quelli di memorizzazione temporanea – come i servizi che facilitano le connessioni di reti condivise – e quelli di memorizzazione di informazioni come il cloud, il web hosting, i servizi di referenziazione a pagamento o di condivisione di informazioni e contenuti online.

Adempimenti maggiori sono stati previsti per le piattaforme online (come i marketplace) e, di gran lunga maggiori, ne sono messi in conto per i prestatori di piattaforme online e di motori di ricerca di dimensioni molto grandi, individuabili in ragione del numero medio mensile di destinatari attivi del servizio nell’Unione europea.

Secondo il Dsa, quando il numero di destinatari attivi di una piattaforma online o di un motore di ricerca (calcolato come media in un periodo di sei mesi) raggiunge una quota significativa della popolazione dell’Unione europea, i rischi sistemici negli ambiti della libertà di espressione e di informazione possono avere un effetto sproporzionato su tutta l’Ue.

Applicazione del Dsa

Per la sua prima applicazione, il Dsa stabilisce che questo significativo raggio d’azione della piattaforma online e del motore di ricerca sussiste quando l’entità della popolazione dell’Unione europea destinataria supera la soglia operativa di 45 milioni, ossia un numero equivalente al 10 % della popolazione dell’Ue. Visto che il Dsa si applica anche a imprese extra UE+ e nella misura in cui offrono servizi all’interno dell’Unione. Quando parliamo di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi, ci riferiamo a player come Meta, Twitter e Google.

Rischi sistemici

Secondo il Dsa, le piattaforme online e i motori di ricerca di dimensioni molto grandi possono essere utilizzati in un modo che può influenzare fortemente, fra l’altro, la definizione del dibattito e dell’opinione pubblica. Quindi, per tutelare il dibattito e l’opinione pubblica, il Dsa vincola i grandi player del mercato digitale come Meta, Twitter, Google ad analizzare i rischi sistemici derivanti:

  • dalla progettazione, dal funzionamento e dall’uso dei loro rispettivi servizi
  • dai potenziali abusi da parte dei destinatari dei servizi come la creazione di account falsi, l’uso di bot o altri usi ingannevoli di un servizio, altri comportamenti automatizzati o parzialmente automatizzati che possono condurre alla rapida e ampia diffusione al pubblico di informazioni che contribuiscono alle campagne di disinformazione.

Inoltre, il Dsa vincola questi player a adottare – dopo l’analisi – opportune misure di attenuazione dei rischi stessi, nel rispetto dei diritti fondamentali.

Prende forma la strategia europea sui dati, ecco l’importanza di DSA e DMA

Nello svolgere quest’analisi, le piattaforme online e i motori di ricerca online di dimensioni molto grandi sono obbligati a tenere conto della gravità dell’impatto potenziale e della probabilità di quattro categorie di rischi sistemici:

  • rischi associati alla diffusione di contenuti illegali, quale la diffusione di materiale pedopornografico o forme illegali di incitamento all’odio o altri tipi di abuso dei loro servizi per commettere reati, e lo svolgimento di attività illegali
  • effetti reali o prevedibili del servizio sull’esercizio di diritti fondamentali come la dignità umana, la libertà di espressione e di informazione, compresi la libertà e il pluralismo dei media, il diritto alla vita privata, la protezione dei dati personali, il diritto alla non discriminazione, i diritti del minore e la tutela dei consumatori
  • effetti negativi reali o prevedibili sui processi democratici, sul dibattito civico e sui processi elettorali, nonché sulla sicurezza pubblica
  • preoccupazioni relative alla progettazione, al funzionamento o all’uso, anche mediante manipolazione, delle piattaforme online e dei motori di ricerca online, con ripercussioni negative, effettive o prevedibili, sulla tutela della salute pubblica e dei minori e gravi conseguenze negative per il benessere fisico e mentale della persona o per la violenza di genere.

Secondo il Dsa, nel valutare i quattro tipi di rischi sistemici, le piattaforme online e i motori di ricerca di dimensioni molto grandi dovrebbero concentrarsi anche su informazioni che non sono in sé illegali, ma che contribuiscono ai rischi sistemici individuati nello stesso Dsa. Dovrebbero prestare particolare attenzione, per esempio, al modo in cui i loro servizi sono utilizzati per diffondere o amplificare contenuti fuorvianti o ingannevoli, compresa la disinformazione.

Disinformazione

Il Dsa non definisce la disinformazione e ciò sembrerebbe un’occasione perduta. Secondo la comunicazione della Commissione europea COM (2020) 790, la disinformazione è “un contenuto falso o fuorviante che viene diffuso con l’intenzione di ingannare o assicurare un guadagno economico o politico e che può causare un danno pubblico”. Sul piano oggettivo, falso è un contenuto non veritiero, non corrispondente ai fatti. “Fuorviante” è un contenuto che, pur non rappresentando i fatti in modo diverso da come sono andati, svia dalla verità.

Mentre il concetto di falso applicato all’informazione non stupisce, quello di fuorviante appare scivoloso. Sul piano soggettivo, non si vedono difficoltà a verificare “l’intenzione di ingannare o assicurare un guadagno economico o politico”. Più problematico appare il requisito dell’idoneità a “causare un danno pubblico”.

Cos’è un danno pubblico, come lo si può misurare? Siamo abituati a ragionare in termini di danno erariale, ma qui la Commissione europea si riferisce ad altro. Ciò che è danno pubblico (ossia danno collettivo, danno alla società intera) secondo la maggioranza, potrebbe essere “danno per il potere costituito”, “danno per i gruppi di potere dominanti” secondo le minoranze.

Gli obblighi dei player

Fatto sta che player come Meta, Twitter e Google vengono obbligati a valutare gli eventuali effetti negativi della disinformazione sulla società e sulla democrazia. Tra le misure idonee a prevenire i rischi, queste piattaforme online e i motori di ricerca di dimensioni molto grandi devono prendere in considerazione non meglio definite “azioni di sensibilizzazione”.

Inoltre, nel condurre le valutazioni dei rischi e nel mettere a punto le misure di attenuazione dei rischi, devono coinvolgere rappresentanti dei destinatari dei loro servizi, rappresentanti dei gruppi potenzialmente interessati dai loro servizi, esperti indipendenti e organizzazioni della società civile.

Infine, devono cercare di integrare tali consultazioni nelle loro metodologie di valutazione dei rischi e di elaborazione di misure di attenuazione, tra cui indagini, gruppi di riflessione, tavole rotonde e altri metodi di consultazione e progettazione.

Il sistema di conformità delineato dal Dsa per le piattaforme online e i motori di ricerca online non si limita a ciò.

Questi player del mercato digitale devono:

  • attrezzarsi a mettere in corsia preferenziale quanto portato alla loro attenzione dai “segnalatori attendibili”
  • dotarsi di una funzione interna di controllo della conformità
  • presentare una relazione annuale
  • interfacciarsi con la Commissione europea
  • rispondere, attraverso revisioni ad opera di terzi indipendenti, della loro conformità al Dsa e, se del caso, agli impegni supplementari assunti a norma di codici di condotta.

Tra i codici di condotta, spicca il codice di buone pratiche sulla disinformazione, emendato e rafforzato il 16 giugno 2022 con un importante lavoro cui hanno contribuito prestigiosi studiosi italiani. Se la piattaforma online e il motore di ricerca online di dimensioni molto grandi aderiscono al codice di condotta e se dimostrano – tramite la revisione indipendente – di rispettarlo, possono godere di benefici in sede sanzionatoria, il che non è banale visto che ai sensi dell’articolo 52 del Dsa, l’importo massimo delle sanzioni pecuniarie in caso di inosservanza di un obbligo stabilito è pari al 6 % del fatturato annuo mondiale del fornitore di servizi intermediari interessato nell’esercizio finanziario precedente.

Digital Services Act, passi avanti e nodi da sciogliere

Fragilità del Dsa

L’impressione che se ne ricava è quella di una miscela fra componenti tradizionali nelle normative europee: la fiducia per le analisi dei rischi e i piani di mitigazione, la spinta verso strumenti di auto-disciplina, l’impulso a forme di coinvolgimento di corpi sociali intermedi, l’idea di educare gli utenti.

Pur essendo l’approccio seguito dal Dsa in linea con quello seguito da altre norme europee simili, qualche perplessità è giusto averla. Qui, uno strumento tradizionalmente scientifico come l’analisi dei rischi è applicato ad un campo come l’informazione dove sarebbe opportuno un approccio laico e relativistico sul “chi” informando o esprimendo opinioni manipola “chi” e “con quali mezzi”.

L’auto-disciplina sulla disinformazione è una co-regolamentazione, frutto del serio lavoro di esperti e imprese, ma sostanzialmente promossa dall’alto. L’obbligo di consultazione dei corpi intermedi si manifesta in una veste corporativa: riesce difficile immaginare soggetti intermedi davvero rappresentativi di un’utenza immensa. L’afflato pedagogico si scontra con la genericità del concetto di sensibilizzazione. Tuttavia, almeno sulla carta, il sistema disegnato dovrebbe prevenire qualsiasi falsificazione volta all’inganno e dannosa per la collettività: sia la falsificazione del potere e dei circuiti mainstream, sia quella dei troll di Putin e i centri occulti di manipolazione.

In ogni caso, al legislatore del Dsa non è bastato replicare i suoi metodi un po’ asettici dello stile legislativo europeo a un terreno minato come l’espressione e l’opinione. In tempi di crisi, in base alle norme del Dsa, può diventare necessario “adottare con urgenza misure specifiche”.

I casi di crisi

Quando può accadere questo? Quando ci sono conflitti armati o atti di terrorismo (compresi conflitti o atti di terrorismo emergenti), catastrofi naturali quali terremoti e uragani, nonché pandemie e altre gravi minacce per la salute pubblica a carattere transfrontaliero. C’è una crisi quando circostanze eccezionali comportano una grave minaccia per la sicurezza pubblica o la salute pubblica in tutta l’Unione europea o in parti significative di essa.

È nel “meccanismo di risposta alle crisi” (articolo 36 del Dsa) che prende corpo la parte del regolamento meno digeribile per chi vorrebbe una Ue ispirata ai valori della società aperta.

Di fatto, il Dsa conferisce alla Commissione europea (organo politico espressione dei governi degli Stati membri) un potere di intervento censorio nelle dinamiche legate alla diffusione di informazioni e opinioni sulle piattaforme online e sui motori di ricerca di dimensioni molto grandi.

Il quadro attuale

Reduce dalla pandemia e dal relativo allarme sulla disinformazione “complottista” su Covid e vaccinazione, la democratica e liberale Unione europea si trova a due passi dalla guerra in Ucraina e mette l’elmetto.

Su raccomandazione del comitato europeo per i servizi digitali (gruppo consultivo indipendente di coordinatori dei servizi digitali per la vigilanza sui prestatori di servizi intermediari), la Commissione europea può adottare una decisione che impone a uno o più fornitori di piattaforme o di motori di ricerca online di dimensioni molto grandi di:

  • valutare l’eventualità e, in caso affermativo, la portata e il modo in cui il funzionamento e l’uso dei loro servizi possano contribuire in maniera significativa a una minaccia grave
  • individuare e applicare misure specifiche, efficaci e proporzionate per prevenire, eliminare o limitare tale contributo alla grave minaccia, come l’adeguamento delle caratteristiche o del funzionamento dei loro servizi, delle condizioni generali e della loro applicazione, delle procedure di moderazione dei contenuti, dei sistemi di raccomandazione, l’adozione delle misure di sensibilizzazione, nonché l’elaborazione, la sperimentazione e l’applicazione di protocolli di crisi.

Una versione misurata ed elegante del contrasto alla propaganda del nemico tipico dei governi (non solo autoritari) dei tempi di guerra. Non basta. Ai sensi dell’articolo 48 del Dsa, la Commissione europea può avviare l’elaborazione di protocolli di crisi volontari per coordinare una risposta rapida, collettiva e transfrontaliera nell’ambiente online, ad esempio nel caso in cui le piattaforme online sono utilizzate in modo improprio per disinformazione.

Conclusioni

I fautori di queste novità ritengono che un sistema democratico come l’Unione europea debba difendersi da seminatori di odio in una guerra ibrida che passa anche attraverso i troll. Costringere le piattaforme online e i motori di ricerca di dimensioni molto grandi a collaborare con il governo europeo sembra loro l’unica arma per arginare campagne camuffate costruite ad arte per creare disordine, sotto le mentite spoglie di opinioni di utenti qualsiasi.

A mio avviso, quando un ordinamento democratico crea il mito di sé stesso, quando invece di riconoscere di essere portatore di interessi si auto-convince della propria superiorità etica rispetto ai suoi avversari geo-politici, prende una strada poco laica, che porta a un arretramento nella vita delle libertà che professa. All’opposto, la forza di una società aperta dovrebbe essere quella di credere nella maturità e nel buonsenso dei suoi cittadini, soprattutto in tempi di crisi.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati