Il Digital Services Act ambisce a garantire un ambiente online sicuro e in cui i diritti fondamentali siano efficacemente tutelati.
Tuttavia, nonostante rappresenti un significativo passo avanti, vi sono ancora numerose questioni aperte che richiedono ulteriori chiarimenti e miglioramenti.
Analizziamo, quindi, i principali obblighi di trasparenza e due diligence previsti dalla normativa, soffermandoci in particolar modo sugli aspetti più controversi e che in potenza potrebbero generare ricadute sulle libertà fondamentali degli utenti.
Introduzione al Digital Services Act
La diffusione dei nuovi strumenti di comunicazione ha avuto importanti ripercussioni sul sistema democratico, al punto che l’informazione divulgata dai media tradizionali può dirsi ampiamente superata dai social networks, che rappresentano oggi il nuovo spazio in cui si svolge tanto la vita privata degli utenti, quanto il dibattito pubblico.
La trasformazione delle forme di partecipazione alla vita democratica non è però l’unica conseguenza della rivoluzione digitale; se da un lato è vero che i nuovi mezzi di comunicazione hanno notevolmente ampliato il pluralismo informativo, dall’altro non può negarsi che la libertà di informazione e di espressione sia stata sino ad oggi limitata dallo strapotere delle big tech che, in assenza di una regolamentazione della materia, hanno di fatto svolto il ruolo di arbitro dell’opinione pubblica.
Infatti, l’attività di moderazione dei contenuti è stata sino ad ora definita unilateralmente dai provider, nei “termini e condizioni del servizio” o c.d. “standard della community” il cui mancato rispetto ha legittimato, in nome dell’autonomia contrattuale, forme di “censura privata” attuate mediante la limitazione/rimozione dei contenuti o la sospensione/eliminazione degli account degli utenti.
Alla limitazione della libertà di espressione deve poi aggiungersi il rischio della manipolazione dell’informazione, effettuata ad esempio tramite tecniche di profilazione o di microtargeting degli utenti o della cattiva informazione/disinformazione dovuta all’assenza di verifiche ex ante circa la veridicità delle notizie diffuse (e che ha portato inevitabilmente alla diffusione del fenomeno delle fake news).
Per di più, la stessa attività di accertamento delle violazioni degli standard è spesso affidata ad algoritmi il cui dubbio funzionamento contrasta con l’idea stessa di pluralismo informativo [1].
D’altronde, «le piattaforme non sono (e non possono essere) neutrali rispetto ai contenuti dei terzi, proprio per il loro “modello di profitto”. Infatti, la durata dell’attenzione e il coinvolgimento degli utenti sono quantificabili come una risorsa economica che determina il profitto delle piattaforme» [2].
Di qui la necessità di regolamentare la materia, obbligando i prestatori di servizi intermediari (ISP) ad assumere maggiori responsabilità in relazione alle loro attività, al fine di garantire la tutela delle libertà fondamentali degli utenti.
Il Digital Services Act (DSA) nasce quindi per rispondere a tale esigenza, con l’obiettivo, dichiarato al considerando n.9, di «garantire un ambiente online sicuro, prevedibile e affidabile, in cui i diritti fondamentali sanciti dalla Carta siano efficacemente tutelati e l’innovazione sia agevolata, contrastando la diffusione di contenuti illegali online e i rischi per la società che la diffusione della disinformazione o di altri contenuti può generare».
Si tratta, dunque, di un atto pioneristico, cui va certamente riconosciuto il merito di aver colmato una lacuna importante, tuttavia, ci si chiede se l’intento del legislatore possa dirsi effettivamente raggiunto.
Digital Services Act: inquadramento generale
Definitivamente approvato dal Consiglio il 4 ottobre 2022, il DSA è parte di un più ampio pacchetto, che comprende anche il Digital Market Act (DMA),il cui fine è quello di riformare lo spazio digitale europeo, garantendo a tutti gli utenti europei un elevato livello di tutela, sia in qualità di consumatori, sia come titolari di diritti fondamentali.
Per fare ciò, stante la necessità di operare un corretto bilanciamento dei diritti fondamentali in gioco, il DSA prevede un’azione a doppio binario: l’eteroregolazione da parte del legislatore eurounitario in relazione ai contenuti illegali e l’autonormazione delle piattaforme per i contenuti in contrasto con i termini e condizioni del servizio, sulla base di indicazioni fornite dalla Commissione.
Si ritiene doveroso premettere che il DSA conferma il principio dell’assenza di una generale responsabilità delle piattaforme circa i contenuti illegali diffusi, giacché non sono loro imposti né obblighi generali di sorveglianza sulle informazioni trasmesse o memorizzate, né di accertamento attivo dei fatti o circostanze che indichino la presenza di attività illegali (art. 8), bensì vincola i medesimi ad agire per la rimozione degli stessi non appena ne acquisiscano la conoscenza.
Gli obblighi e i doveri di diligenza contenuti nel DSA mirano principalmente a disciplinare l’attività di moderazione dei contenuti effettuata dalle piattaforme e l’utilizzo dei processi algoritmici in essi coinvolti.
Nel dettaglio, il regolamento de quo è strutturato attraverso un sistema di previsioni stratificate dal basso verso l’alto, via via più pervasive, in ragione dei servizi offerti dagli ISP e della loro dimensione: si va da norme applicabili a tutti i prestatori di servizi intermediari (artt. 11-15); a norme aggiuntive per i prestatori di servizi di hosting, comprese piattaforme online (artt. 16-18); ad obblighi maggiori per le piattaforme online (artt. 19-28); fino alle regole più stringenti previste per le piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi (artt. 33-43).
Il ridimensionamento dello strapotere dei giganti tecnologici si realizza principalmente attraverso le previsioni che impongono ai provider l’obbligo di motivazione delle decisioni da loro adottate in relazione alla rimozione dei contenuti o la disabilitazione al loro accesso (art. 17); il dovere di dotarsi di un sistema di gestione dei reclami, le cui decisioni non possono essere adottate avvalendosi esclusivamente di strumenti automatizzati (art. 20); la possibilità di risolvere in via stragiudiziale le eventuali controversie (art. 21).
Si prevede altresì un obbligo di disclosure in capo a tutti gli ISP, tenuti a pubblicare annualmente relazioni chiare circa le attività di moderazione dei contenuti svolte durante il periodo di riferimento (art. 15).
Infine, si stabiliscono meccanismi di controllo pubblico, mediante l’istituzione di organismi pubblici nazionali e sovranazionali ed il conferimento di specifici poteri esecutivi alla Commissione.
Le definizioni di contenuto “illegale” e “dannoso”
Come evidenziato nei paragrafi che precedono, il dichiarato intento del DSA è quello di contrastare la disinformazione, la diffusione di contenuti illegali nonché di contenuti che, seppur legali, possono comportare rischi per la società.
Difatti, il DSA richiede alle piattaforme di grandi dimensioni di «concentrarsi anche sulle informazioni che non sono illegali» ma che possono mettere a rischio i processi democratici, il dibattito civico, i processi elettorali, la sicurezza pubblica, la salute pubblica, la violenza di genere, prestando altresì «particolare attenzione al modo in cui i loro servizi sono utilizzati per diffondere o amplificare contenuti fuorvianti o ingannevoli, compresa la disinformazione» [3].
Tuttavia, mentre all’interno del regolamento in esame troviamo una definizione ben precisa di contenuto illegale, descritto, all’art. 3 let. t), come «qualsiasi informazione che, di per sé o in relazione a un’attività, tra cui la vendita di prodotti o la prestazione di servizi, non è conforme al diritto dell’Unione o di qualunque Stato membro conforme con il diritto dell’Unione, indipendentemente dalla natura o dall’oggetto specifico di tale diritto» nulla è detto circa la nozione di “disinformazione” o di “contenuto dannoso”.
Trattasi, invero, di una scelta del legislatore, secondo cui, come sottolineato nei documenti di lavoro, i contenuti dannosi non dovrebbero essere definiti, in quanto si tratta di «un ambito delicato con gravi implicazioni per la tutela della libertà di espressione» [4].
La definizione di “contenuto dannoso” viene quindi lasciata alla libera discrezionalità dei provider e, come meglio si dirà nel prossimo paragrafo, la moderazione di tali contenuti resta unilateralmente regolata dagli stessi attraverso gli standard della community; basti pensare che, nei termini e condizioni del servizio dei social networks più diffusi, spesso non è neppure definito chiaramente quali contenuti possono essere classificati come dannosi o comunque le restrizioni degli stessi vengono gestite diversamente a seconda della piattaforma su cui vengono diffusi [5].
Alla luce di ciò, appare evidente come la delega quasi in bianco lasciata agli ISP nella definizione dei contenuti dannosi possa generare ricadute sulla libertà di espressione degli utenti. Proprio laddove è richiesto quel necessario bilanciamento dei diritti fondamentali da parte del regolatore, in conformità agli enunciati della Carta dei diritti, proprio quando si giunge al cuore del problema la soluzione legislativa è quella di abdicare in favore di uno degli attori in gioco, espressione di quei poteri privati che il regolatore aveva intenzione di contenere.
La disciplina dei termini e condizioni del servizio
La disciplina dei termini e condizioni del servizio rappresenta la questione più spinosa poiché, come già evidenziato, si tratta di atti di autonormazione delle piattaforme, che consentono all’utente la sola accettazione in blocco ed in virtù dei quali trovano giustificazione le più ampie forme di censura privata.
È attraverso gli standard della community che i singoli providers decidono cosa può considerarsi “dannoso” e quali sono le attività che possono essere svolte per contrastare la diffusione di tali contenuti.
Tuttavia, stando all’analisi dei termini e condizioni dei più noti social media, è stato dimostrato come essi siano caratterizzati da un’eccessiva vaghezza, specie rispetto alla loro applicazione pratica, rendendo difficoltoso per gli utenti prevedere le sorti dei contenuti da loro diffusi [6].
È proprio in relazione a tali aspetti che il DSA pecca di incisività.
L’art. 14 del DSA prevede infatti un generico obbligo di trasparenza circa il dovere delle piattaforme di includere nelle loro condizioni generali, con un linguaggio chiaro, semplice e comprensibile, ogni informazione riguardante «tra l’altro le politiche, le procedure, le misure e gli strumenti utilizzati ai fini della moderazione dei contenuti, compresi il processo decisionale algoritmico e la verifica umana, nonché le regole procedurali del loro sistema interno di gestione dei reclami».
Nulla è previsto circa specifiche procedure di dettaglio che disciplinino il contenuto dei meccanismi di moderazione o degli strumenti di reclamo, l’unica indicazione in tal senso, sempre di carattere generale, è disciplinata al par. 4 del medesimo articolo, ove si prevede che gli operatori debbano agire in modo « diligente, obiettivo e proporzionato (…) tenendo debitamente conto dei diritti e degli interessi legittimi di tutte le parti coinvolte, compresi i diritti fondamentali dei destinatari del servizio, quali la libertà di espressione, la libertà e il pluralismo dei media, e altri diritti e libertà fondamentali sanciti dalla Carta».
Anche in questo caso, l’assenza di indicazioni precise da parte del legislatore lascia ampio margine di manovra alle piattaforme, con possibili pericoli per la tutela dei diritti fondamentali dell’utente.
Benché gli obblighi di due diligence e di trasparenza previsti dal DSA, quali l’obbligo di motivazione, la previsione di meccanismi di reclamo per gli utenti e di controllo da parte delle autorità contribuiscano a limitare il problema dell’ampia discrezionalità dei providers, permangono dubbi circa l’effettiva tutela della libertà di espressione nel caso dei contenuti dannosi.
In effetti, non solo le piattaforme definiscono discrezionalmente quali contenuti possono considerarsi “dannosi” ma decidono anche in che modo devono essere moderati, con la conseguenza che lo stesso contenuto potrebbe subire sorti diverse a seconda del social network tramite cui viene diffuso.
Il riferimento al principio di proporzionalità e ai diritti fondamentali previsto dalla norma nella moderazione dei contenuti appare troppo generico per poter generare effetti sul piano reale. Invero, la norma non fornisce indicazioni su come rendere operativo questo obbligo nella pratica e non è chiaro in che misura gli ISP, considerata la loro natura privata, sono tenuti ad applicare i diritti fondamentali nelle loro pratiche di moderazione dei contenuti.
Il meccanismo di “segnalazione e azione”
L’art. 16 del DSA impone ai prestatori di servizi di hosting di predisporre meccanismi di facile accesso che consentano a qualsiasi utente, mediante segnalazione elettronica, di notificare la presenza di contenuti illegali.
Nello specifico, la norma in oggetto richiede che le segnalazioni in questionesiano «sufficientemente precise ed adeguatamente motivate» e stabilisce che le decisioni adottate in relazione alle stesse siano adottate in modo tempestivo, diligente, non arbitrario e obiettivo e che si dia atto degli strumenti automatizzati utilizzati eventualmente a tal fine.
Sebbene il legislatore eurounitario obblighi le piattaforme a predisporre tale meccanismo di segnalazione e azione solo con riferimento ai contenuti illegali, nulla vieta agli operatori digitali, come peraltro già accade, di estendere l’utilizzo di tali procedure anche ai contenuti legali che violano gli standard della community.
Se da un lato il meccanismo in questione consente alle persone fisiche di coadiuvare gli ISP nella lotta ai contenuti illegali, dall’altro potrebbe incentivare questi ultimi ad eliminare i contenuti che sembrerebbero essere illegali, ma che in realtà non lo sono, compromettendo così la libertà di espressione degli utenti.
In effetti, tanto il timore della pesante sanzione, quanto l’obbligo di trattare le segnalazioni in tempi ridotti rischiano di spingere le piattaforme all’adozione di politiche restrittive, attuate mediante il ricorso massivo a strumenti di intelligenza artificiale e d’altronde non potrebbe essere altrimenti, considerata la mole dei contenuti che vengono diffusi quotidianamente sui social network [7].
Invero, nonostante i progressi nell’elaborazione del linguaggio naturale, l’intelligenza artificiale non ha ancora raggiunto un grado di comprensione delle sfumature del linguaggio, quali l’ironia, il sarcasmo e altre forme di comunicazione non letterale. Inoltre, spesso sono proprio i gruppi di minoranze ad essere vittime di discriminazione algoritmica, in quanto gli algoritmi hanno la tendenza a riprodurre e replicare bias discriminatori, in particolare, «accade che i dataset utilizzati per allenare l’algoritmo non siano qualitativamente ottimali, soprattutto perché non rappresentativi del gergo e degli usi comunicativi tipici dei gruppi minoritari.
In molti casi, i gruppi marginalizzati sviluppano la tendenza a utilizzare termini ed espressioni in sé stessi insultanti e discriminatori (…) con la doppia finalità, tuttavia, di riappropriarsi di tali termini svuotandoli della loro carica negativa (…) e di aiutare i membri della loro stessa comunità a “farsi la pelle dura”» [8].
Ad esempio, la libertà di espressione potrebbe risultare compromessa e potrebbe essere influenzata la capacità della gente comune di discutere questioni come l’immigrazione, il genere, la religione e l’identità, colpendo proprio le minoranze che dai meccanismi di cui sopra dovrebbero trarre beneficio[9].
La distribuzione dei poteri degli organi pubblici
In merito all’architettura dei poteri di enforcement pubblico, non può non rilevarsi che alla Commissione viene riservato il ruolo di protagonista assoluto nei rapporti con le piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi, tant’è che ad essa vengono riservati poteri esclusivi per la vigilanza e l’applicazione del capo III, sezione 5 (artt. 33-43).
La competenza della Commissione è poi concorrente con quella degli Stati membri per quanto riguarda la vigilanza sui prestatori di servizi online in rapporto alle norme diverse da quelle sopra citate. Inoltre, l’avvio di un procedimento da parte della Commissione comporta l’esonero per qualsiasi autorità competente dall’esercizio dei propri poteri previsti dal DSA.
Infine, fatti salvi i casi precedenti, l’esercizio dei poteri di vigilanza e applicazione del DSA spetta agli Stati membri, nell’ambito dei rispettivi territori, per il tramite del Coordinatore dei servizi digitali.
Secondo quanto stabilito al considerando n. 112 del DSA, «le autorità competenti designate a norma del presente regolamento dovrebbero (…) agire in piena indipendenza da enti privati e pubblici, senza obbligo o possibilità di sollecitare o ricevere istruzioni, anche dai governi».
La Commissione non è però un’autorità indipendente, è un organo marcatamente politico cui è affidato il potere di iniziativa legislativa; sicché la scelta di riservare a tale organo il compito di far rispettare le previsioni del DSA alle big tech non può non avere implicazioni sul piano dei valori democratici e dei diritti fondamentali.
In effetti, la coesistenza dei principali obiettivi politici del DSA, quali la promozione del mercato unico digitale, la necessità di garantire un ambiente online sicuro, la lotta ai contenuti dannosi e illegali e la garanzia della protezione dei diritti fondamentali, risulta particolarmente articolata e richiede scelte politiche e continui bilanciamenti. Rispetto a ciò, la posizione della Commissione può dirsi parimenti complessa poiché l’organo esecutivo che detiene il monopolio dell’iniziativa legislativa si trova a svolgere anche il ruolo di garante del DSA.
Appare quindi improbabile che le attività promosse dalla Commissione in qualità autorità di controllo ai sensi del DSA non possano essere condizionate dall’agenda politica perseguita dalla medesima istituzione nei settori correlati al regolamento e in altri settori politici[10].
DSA, un cambio di passo ma ancora non basta
Il DSA rappresenta senza dubbio un cambio di passo nella lotta alla disinformazione, con l’ambizioso obiettivo di creare un’ambiente digitale sicuro, limitando lo strapotere dei giganti tecnologici che, in regime di oligopolio, svolgono attività rilevanti per l’assetto democratico.
In linea di principio, si tratta di una regolamentazione molto promettente e teoricamente in grado di garantire la libertà di espressione degli utenti.
Tuttavia, pur consapevoli della difficoltà di operare un corretto bilanciamento tra la tutela della libertà di impresa, la moderazione dei contenuti e le libertà fondamentali, la normativa in esame presenta alcuni limiti, potenzialmente in grado di svuotare di significato l’intero impianto.
Se da un lato la scelta del legislatore di coinvolgere proattivamente le piattaforme, lasciando loro ampi poteri di autonormazione, appare comprensibile in quanto disciplinare in modo compiuto i nuovi strumenti tecnologici avrebbe certamente comportato un’eccessiva rigidità del sistema in grado di frenare il progresso digitale; dall’altro non sfugge che la cornice para-pubblicistica delineata dal DSA entro cui gli ISP possono esercitare i loro poteri si traduce in una delega quasi in bianco.
In particolare, alle piattaforme è lasciata ampia discrezionalità, quantomeno in prima battuta, nella decisione dei contenuti che possono essere diffusi o meno e nelle attività di moderazione degli stessi, regolate unilateralmente nei termini e condizioni del servizio.
Tutto ciò in quanto il DSA equipara i contenuti legali ai contenuti dannosi senza però fornire una definizione di questi ultimi e l’art. 14 che disciplina i termini e condizioni del servizio pone solo obblighi di carattere generale, che non sembrano in grado poter arginare i problemi che derivano dalla vaghezza delle condizioni d’uso delle piattaforme.
Se, infatti, il regolamento prevede un obbligo di motivazione delle decisioni adottate dai providers in relazione alla rimozione/limitazione dei contenuti e riconosce agli utenti il diritto di ricorrere, mediante reclamo, dinnanzi agli stessi, nonché la possibilità di risolvere in via stragiudiziale le eventuali controversie, non può sottacersi, di contro, che alle piattaforme viene riconosciuto il diritto di decidere in autonomia, sulla base delle proprie condizioni generali, le sorti dei contenuti pubblicati.
Conclusioni
A ben vedere, nonostante il dichiarato intento di porre un argine ai poteri privati, il DSA sembrerebbe, per certi versi, rafforzare il ruolo delle piattaforme.
Limitatamente agli aspetti evidenziati nel presente articolo e con particolare riferimento alla libertà di espressione, si ritiene quindi che l’intento del legislatore non possa dirsi effettivamente raggiunto, non resta comunque che attendere la prova dell’applicazione pratica per valutare l’effettiva efficacia delle norme del DSA.
[1] Dunn, P., (2022), Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech. Riv. It. Informatica e diritto, n.1, 2022, 134 ss. secondo cui «La cura dei contenuti, che si basa generalmente sull’uso di sistemi automatizzati, quali i sistemi di raccomandazione, mirano a massimizzare l’engagement degli utenti e, di conseguenza, i profitti del prestatore di servizi: la letteratura ha rilevato come ciò possa andare a discapito di importanti valori democratici, quali la protezione del pluralismo mediatico e di pensiero, alimentando da un lato la creazione di camere dell’eco e la polarizzazione del dibattito democratico e impattando dall’altro lato la capacità di diffusione dei contenuti prodotti da gruppi minoritari».
[2] Caggiano, G. (2021), Il contrasto alla disinformazione tra nuovi obblighi delle piattaforme online e tutela dei diritti fondamentali nel quadro del Digital Service Act e della co-regolamentazione. Papers di diritto europeo, n.1, 2021, 46-47.
[3] Cfr. Considerando 80-84 DSA.
[4] https://councildsa.reset.tech/pdf/wk05155-re02.en21.pdf
[5] Van den Branden, B., Davidse, S., Smit, E. (2 agosto 2021), In between illegal and harmful: a look at the Community Guidelines and Terms of Use of online platforms in the light of the DSA proposal and the fundamental right to freedom of expression (Part 1 o f 3). DSA Observatory. https://dsa-observatory.eu/2021/08/02/in-between-illegal-and-harmful-a-look-at-the-community-guidelines-and-terms-of-use-of-online-platforms-in-the-light-of-the-dsa-proposal-and-the-fundamental-right-to-freedom-of-expression-part-1-of-3/
[6] Van den Branden, B., Davidse, S., Smit, E. (9 novembre 2021), In between illegal and harmful: a look at the Community Guidelines and Terms of Use of online platforms in the light of the DSA proposal and the fundamental right to freedom of expression (part 3 of 3). DSA Observatory. https://dsa-observatory.eu/2021/11/09/in-between-illegal-and-harmful-a-look-at-the-community-guidelines-and-terms-of-use-of-online-platforms-in-the-light-of-the-dsa-proposal-and-the-fundamental-right-to-freedom-of-expression-part-3-of-3/
[7] Barata, J. (27 luglio 2021), The Digital Services Act and Its Impact on the Right to Freedom of Expression: Special Focus on Risk Mitigation Obligations. DSA Observatory. https://dsa-observatory.eu/2021/07/27/the-digital-services-act-and-its-impact-on-the-right-to-freedom-of-expression-special-focus-on-risk-mitigation-obligations/
[8] Dunn, P., (2022), Moderazione automatizzata e discriminazione algoritmica: il caso dell’hate speech. Riv. It. Informatica e diritto, n.1, 2022, 137.
[9] Mchangama, J. (25 aprile 2022), The Real Threat to Social Media Is Europe. Foreign Policy. https://foreignpolicy.com/2022/04/25/the-real-threat-to-social-media-is-europe/.
[10] Buri, I. (31 ottobre 2022), A Regulator Caught Between Conflicting Policy Objectives. Verfassungsblog on matters constitutional. https://verfassungsblog.de/dsa-conflicts-commission/.