Lo scorso 27 ottobre è stato pubblicato sulla Gazzetta ufficiale dell’Unione europea il testo finale della proposta di Regolamento del 15 dicembre 2020, COM (2020) 825 final, “Proposal for a Regulation on a Single Market for Digital Services” (Digital Services Act).
Il Regolamento relativo a un mercato unico dei servizi digitali 2022/2065 replica in maniera parziale il contenuto della Direttiva 2000/31/CE (direttiva e-commerce), non senza elementi di novità, rappresentando, insieme al piano d’azione per una democrazia europea (EDAP), un punto di svolta nella tutela dei diritti fondamentali degli individui che agiscono nel contesto digitale e nella promozione di competitività, crescita ed innovazione del mercato, attraverso la definizione di obblighi di trasparenza nei confronti dei fornitori di servizi da una parte e adeguate garanzie procedurali per gli utenti, dall’altra.
Digital Markets Act, cosa dice la nuova legge: ecco l’impatto sui mercati digitali
L’approccio europeo al digitale
Come ormai noto, l’utilizzo crescente di internet ha permesso alle piattaforme digitali e ai motori di ricerca online di agire e qualificarsi come dei veri e propri gatekeepers (coloro che filtrano le informazioni) dei mercati e dei consumatori. Ciò ha portato all’emersione di un modello di business all’interno del quale gli operatori assumono un ruolo strategico, tanto nelle scelte dei consumatori quanto nell’esercizio del controllo sull’accesso e la relativa permanenza delle aziende sul mercato.
Nel contesto così delineato, è divenuta sempre più dirompente l’esigenza di regolamentare i principali aspetti operativi, dapprima mediante la direttiva 2000/31/CE, orientata a disciplinare i profili concernenti i servizi della società dell’informazione e, successivamente, con il Regolamento (UE) 2019/1150 sulla promozione della correttezza e trasparenza per gli utenti aziendali dei servizi di intermediazione online.
L’obiettivo principale dell’Unione europea è, infatti, quello di plasmare il futuro digitale dell’Europa. A tal proposito la Commissione europea ha esplicitamente dichiarato che: “la comunicazione digitale, l’interazione con i social media, e le imprese digitali stanno cambiando il mondo in maniera costante”, per cui assume precipua importanza porre l’attenzione sulla “sovranità digitale in un mondo aperto ed interconnesso, perseguendo politiche che mettano le persone e le imprese in condizione di cogliere un futuro digitale incentrato sull’individuo, più prospero e sostenibile”.
Di qui, la creazione di nuove regole e nuovi obblighi per i servizi digitali. Nelle linee guida della Commissione europea per il mandato 2019-2024, la presidente Ursula von der Leyen ha sostenuto che: “una nuova legge sui servizi digitali migliorerà le nostre norme di responsabilità e sicurezza per le piattaforme, i servizi e i prodotti digitali e completerà il nostro mercato unico digitale”.
Tra le sei priorità della Commissione per il 2019-2024, figura, infatti, quella che si inserisce nel piano di un’Europa pronta per l’era digitale, focalizzato su “rafforzare la sovranità digitale, con una chiara attenzione ai dati, alle tecnologie e alle infrastrutture, per una trasformazione digitale che sia al servizio di tutti gli europei”.
I profili generali del DSA
Il nuovo regolamento cerca di garantire le migliori condizioni per la fornitura di servizi digitali innovativi sul mercato interno, di contribuire alla sicurezza online e alla tutela dei diritti fondamentali e di stabilire una struttura di governance solida e duratura per un’efficace supervisione dei fornitori di servizi di intermediazione. Il DSA integra, ma non pregiudica, l’applicazione delle norme derivanti da altri atti del diritto dell’Unione che regolano alcuni aspetti della fornitura di servizi di intermediazione e che sono da considerarsi lex specialis in relazione al quadro delineato.
In questo senso, il DSA si candida ad essere lo strumento centrale per la strategia digitale della Commissione europea e si propone di sviluppare i principi sul mercato interno stabiliti dalla direttiva e-commerce, modificando la disciplina normativa per alcuni intermediari dell’internet regolamentando le modalità di rimozione dei contenuti illegali da parte delle piattaforme online.
Il DSA vuole rappresentare, insieme al Piano d’azione europeo per la democrazia (EDAP), un punto di svolta nella lotta contro l’hate speech digitale, concentrandosi su obblighi di trasparenza da parte dei provider e sulla fornitura di adeguate garanzie procedurali per gli utenti.
In particolare, le autorità giudiziarie e amministrative nazionali competenti possono ordinare ai fornitori di agire contro i contenuti illegali, a condizione che la richiesta contenga, in conformità con l’articolo 9 del DSA:
- una motivazione che illustri l’illiceità dei contenuti rispetto alla specifica disposizione del diritto dell’Unione o nazionale violata
- uno o più precisi Url (Uniform resource locator) e, se necessario, ulteriori informazioni che consentano l’identificazione del contenuto illegale in questione
- azioni rimediali a disposizione del fornitore di servizi e del destinatario del servizio a cui è stato fornito il contenuto.
Nel caso in cui tali condizioni non siano soddisfatte, il provider potrebbe non essere nemmeno ritenuto responsabile.
Seppure si inserisca in un percorso normativo senza soluzione di continuità, il DSA, oltre a rappresentare una fonte giuridica direttamente applicabile agli Stati membri, definisce un quadro procedurale molto più dettagliato con l’obiettivo di garantire una tutela uniforme per i diritti e gli obblighi delle aziende e dei consumatori sul mercato interno.
La struttura del DSA: gli obblighi
Il nuovo regolamento si articola in cinque capitoli:
- disposizioni generali
- responsabilità dei fornitori di servizi di intermediazione
- obblighi di due diligence per un ambiente online trasparente e sicuro
- attuazione, cooperazione, sanzioni e applicazione
- disposizioni finali.
Ai fini degli obblighi di due diligence, propone poi una distinzione tra quattro categorie di servizi, da quelli generali a quelli specifici:
- servizi di intermediazione
- servizi di hosting
- piattaforme online
- piattaforme online di grandi dimensioni (Very Large Online Platform, Vlop).
Il primo capitolo contiene disposizioni generali su ambito di applicazione territoriale ed oggettivo. Il DSA è stato concepito per assumere una portata che trascenda i confini dell’Unione europea: in buona sostanza, sarà applicabile ogni volta che un destinatario di servizi di intermediazione sia situato all’interno dell’Ue, indipendentemente dal luogo di stabilimento o di residenza del fornitore di servizi.
Per quel che concerne l’ambito di applicazione oggettivo, il DSA introduce nuovi obblighi per i fornitori di servizi digitali per quel che concerne i contenuti illegali. La definizione di contenuto illegale è ampia e comprende “qualsiasi informazione che, di per sé o in relazione a un’attività, tra cui la vendita di prodotti o la prestazione di servizi, non è conforme al diritto dell’Unione o di qualunque Stato membro conforme con il diritto dell’Unione, indipendentemente dalla natura o dall’oggetto specifico di tale diritto” (articolo 3, paragrafo 1, lettera h) del DSA.
I contenuti che risultino dannosi per il mercato interno, che non rientrino nella definizione di contenuto illegale, come accade per il fenomeno della disinformazione, non sono soggetti a rimozione obbligatoria, in quanto è necessario effettuare un accorto bilanciamento tra corretta informazione e tutela della libertà di espressione. Ciò non vale, però, nei confronti delle piattaforme online di grandi dimensioni, le quali, ai sensi del DSA, dovranno rispettare obblighi più severi, proporzionati ai significativi rischi sociali che comportano quando diffondono contenuti illegali e dannosi, compresa la disinformazione (si leggano, sul punto, i Considerando 84, 88 e 95 del DSA).
Come già anticipato, il DSA impone obblighi di trasparenza per i fornitori di servizi di intermediazione, i quali includono servizi di “mere conduit”, “caching”, e “hosting”. Tale distinzione, in seno alla categoria generale dei provider, si riferisce a coloro che offrono servizi di semplice trasporto dati (“mere conduit”), servizi di memorizzazione temporanea (“caching”) e, infine, servizi di “hosting” tramite i quali viene affittato uno spazio per consentire ai clienti di allocare tutti i dati di un sito.
Cloud, vantaggi e opportunità delle piattaforme cloud native e delle applicazioni composable
Hosting e piattaforme online
Oltre a disposizioni che si applicano a tutti i fornitori di servizi di intermediazione, il DSA propone maggiori obblighi per hosting provider e piattaforme online. La principale differenza tra questi è la seguente: mentre i servizi di hosting si limitano a memorizzare le informazioni, le piattaforme online le mettono a disposizione del pubblico.
Il DSA, dunque, introduce una struttura piramidale, con obblighi di diligenza generali che si applicano a un ampio gruppo di fornitori di servizi di intermediazione e obblighi aggiuntivi che riguardano solo alcuni fornitori di una categoria sempre più limitata di servizi di intermediazione.
Gli obblighi proposti si applicano cumulativamente, il che significa che le piattaforme online dovranno conformarsi anche agli obblighi di due diligence che si applicano ai servizi di intermediazione in generale, nonché agli obblighi a cui sono soggetti gli hosting provider. Pertanto, le piattaforme online di grandi dimensioni, non dovranno soltanto rispettare obblighi che riguardano specificamente la propria categoria, ma anche quelli previsti per le piattaforme online “ordinarie”.
Difatti, una delle caratteristiche più innovative del Dsa risiede nella previsione di obblighi aggiuntivi e separati per la sottocategoria delle piattaforme online, a cui si sovrappongono obblighi ancora più stringenti per le piattaforme online di grandi dimensioni.
In particolare, gli obblighi generali di due diligence per tutti i soggetti di servizi intermediari includono la creazione di un unico punto di contatto, l’inserimento di determinate informazioni riguardanti i termini e le condizioni dei provider, il rispetto degli obblighi di rendicontazione in materia di trasparenza. Di più: gli hosting provider sono tenuti ad implementare una procedura di notifica e di intervento facilmente accessibile per consentire a terzi di notificare al provider stesso la presenza di contenuti illegali rinvenuta sul servizio.
Per quanto riguarda la sottocategoria delle piattaforme online, il Regolamento mira a rafforzare la gestione dei reclami e gli obblighi di segnalazione alle autorità di vigilanza. Inoltre, viene definita l’istituzione di meccanismi di risoluzione stragiudiziale delle controversie, compresa l’introduzione di cosiddetti “segnalatori di attendibilità” e di un sistema che prevenga l’abuso di reclami. Per la limitata sottocategoria delle Vlop, la normativa prevede obblighi aggiuntivi in materia di gestione del rischio, accesso ai dati, conformità e trasparenza, attuazione di audit.
Definizione di Piattaforme online di grandi dimensioni
Il capo III, sezione 4 del DSA introduce i più severi requisiti di conformità, responsabilità e gestione del rischio per le piattaforme di importanza sistemica, ossia le Vlop. Secondo l’articolo 33, si tratta di piattaforme che forniscono i loro servizi a utenti attivi nell’Unione il cui numero medio mensile è di almeno 45 milioni di persone o il 10% della popolazione dell’intero territorio dell’Unione.
Le piattaforme di importanza sistemica sono, quindi definite – come nel caso del Regolamento Ue 2022/1925 sui mercati digitali (meglio noto come Digital Markets Act o DMA) – in base alla loro funzione di gatekeeping e al loro impatto sul mercato interno. Il metodo di calcolo tiene esplicitamente conto del numero di utenti attivi. La piattaforma non è soggetta al regime speciale fino a quando il coordinatore dei servizi digitali non abbia deciso in tal senso.
Ai sensi dell’art. 33 (4): “La Commissione, previa consultazione dello Stato membro di stabilimento o tenuto conto delle informazioni fornite dal coordinatore dei servizi digitali del luogo di stabilimento a norma dell’articolo 24, paragrafo 4, adotta una decisione che designa come piattaforma online di dimensioni molto grandi o motore di ricerca online di dimensioni molto grandi ai fini del presente regolamento la piattaforma online o il motore di ricerca online con un numero medio mensile di destinatari attivi del servizio pari o superiore al numero di cui al paragrafo 1 del presente articolo. La Commissione adotta la propria decisione sulla base dei dati comunicati dal fornitore della piattaforma online o del motore di ricerca online a norma dell’articolo 24, paragrafo 2, o delle informazioni richieste a norma dell’articolo 24, paragrafo 3, e di qualsiasi altra informazione a sua disposizione”.
Per tale tipologia di piattaforme, la Commissione ritiene necessari ulteriori obblighi a causa della loro portata in termini di numero di utenti e “[…] nell’agevolare il dibattito pubblico, le transazioni economiche e la diffusione di informazioni, opinioni e idee e nell’influenzare il modo in cui i destinatari ottengono e comunicano informazioni online […]”. La rilevanza sistemica è data dal fatto che il modo in cui vengono utilizzate le Vlop “[…] influenza fortemente la sicurezza online, la formazione del dibattito e dell’opinione pubblica, nonché la compravendita online”.
Piattaforme online di grandi dimensioni: obblighi e responsabilità
Come richiesto dall’articolo 34 del DSA, le Vlop saranno tenute a condurre un’analisi annuale, finalizzata all’esame di “[…] eventuali rischi sistemici nell’Unione derivanti dalla progettazione o dal funzionamento del loro servizio e dei suoi relativi sistemi, compresi i sistemi algoritmici, o dall’uso dei loro servizi”.
Basti pensare alla diffusione di contenuti illeciti con effetti negativi sull’esercizio dei diritti fondamentali, quali la libertà di espressione e di informazione e il divieto di discriminazione. Alla manipolazione intenzionale del servizio offerto con effetti negativi sulla tutela della salute pubblica, dei minori, del dibattito sociale, della regolarità dei processi elettorali e della sicurezza pubblica.
Queste valutazioni del rischio dovrebbero concentrarsi in particolare sull’impatto dei sistemi di moderazione e raccomandazione della piattaforma. Sulla base dell’articolo 35, tali rischi dovrebbero essere minimizzati da misure di mitigazione adeguate, proporzionate ed efficaci, quali l’adattamento dei sistemi di moderazione dei contenuti e dei sistemi di raccomandazione, la limitazione della pubblicità, il rafforzamento della supervisione interna, l’adattamento della cooperazione con segnalatori di attendibilità e l’avvio della cooperazione con altre piattaforme attraverso codici di condotta e protocolli di crisi.
Digital services act, la Ue a una svolta: cosa cambia per utenti, aziende e big tech
Codici di condotta
A tale proposito, la sezione 5 del capitolo III del DSA introduce dei codici di condotta (articoli 45,46,47) e protocolli di crisi (articolo 48) promossi dalla Commissione, come forme di autoregolamentazione. Le Vlop sono inoltre soggette ad un audit che deve essere effettuato periodicamente (almeno una volta all’anno, a proprie spese) da soggetti indipendenti con il fine di valutare l’osservanza degli obblighi di due diligence di cui al Capitolo II e gli impegni assunti in conformità ai codici di condotta (articolo 37).
Ulteriori obblighi di trasparenza sono imposti in relazione all’uso di sistemi di raccomandazione (articoli 27 e 38) e alla pubblicità online (articolo 39). Quanto ai primi, le Vlop devono indicare in modo comprensibile i principali parametri utilizzati ed elaborare tutte le opzioni che sono offerte agli utenti per usufruire dei servizi, inserendo:
- i criteri più significativi per determinare le informazioni suggerite al destinatario del servizio
- le ragioni per l’importanza relativa di tali parametri.
Inoltre, gli utenti devono poter disporre di almeno un’opzione che consenta loro di non essere profilati. La maggiore trasparenza della pubblicità online ha, inoltre, implicazioni particolari per particolari tipologie di piattaforme, ossia quelle ad-driven.
Si tratta di strumenti adatti alla gestione e al controllo delle campagne pubblicitarie online. L’utente di una piattaforma pubblicitaria può, quindi, creare e gestire le proprie campagne pubblicitarie senza l’intermediazione di un’agenzia pubblicitaria o di altri mezzi di comunicazione.
Tale categoria di piattaforme, è tenuta a predisporre e fornire specifiche informazioni sugli annunci e sull’inserzionista.
Infine, le Vlop devono garantire al coordinatore dei servizi digitali l’accesso ai dati (articolo 40), nominare un responsabile della conformità (articolo 41) incaricato di controllare l’osservanza del regolamento e redigere relazioni informative periodiche (articolo 42).
La struttura asimmetrica degli obblighi imposti dal DSA risulta, a ben vedere, vantaggiosa, in quanto riflette il ruolo centrale svolto dalle piattaforme più grandi nel limitare i contenuti illegali e veicolo di disinformazione.
Come fin qui illustrato, le Vlop sono soggette a un regime di applicazione ben dettagliato e distinto rispetto agli obblighi incombenti sulle altre tipologie di piattaforme. Se un coordinatore di servizi digitali dovesse appurare che la piattaforma viola uno degli obblighi previsti, sarà soggetta ad una vigilanza rafforzata che comprende l’adozione di misure mitigative dei rischi derivanti dalla violazione dei predetti obblighi e sarà necessario redigere un apposito piano d’azione (eventualmente corredato da una proposta di codice di condotta).
Nel caso in cui il piano d’azione non dovesse risultare soddisfacente, si procederà all’espletamento di audit ulteriori e la stessa Commissione europea potrà intervenire, esercitando i propri poteri, conducendo indagini, adottando misure provvisorie e irrogando, all’occorrenza, sanzioni pecuniarie ed ammende (articoli 59-60).
Inoltre, nel caso di reiterate violazioni, la Commissione potrà chiedere ai coordinatori nazionali di agire e alle autorità giudiziarie nazionali di sospendere temporaneamente i servizi della piattaforma o di inibirne l’accesso.
Ad ogni buon conto, la creazione di un organo ad hoc che vigili sulla corretta applicazione del Dsa potrebbe contribuire a garantire un approccio unitario ai requisiti di moderazione dei contenuti applicati alle piattaforme online di grandi dimensioni.
Ragionando in questi termini, alcuni tra i più attenti commentatori hanno osservato che l’interazione tra i coordinatori nazionali e la Commissione si rivelerà essenziale, dal momento in cui i fornitori di servizi dovranno trattare una grande quantità di dati personali nell’adempimento degli obblighi di gestione dei reclami.
Conclusioni
L’impatto del DSA dovrà essere necessariamente analizzato non soltanto in relazione a quanto sarà adottato dai singoli Stati membri ma anche alle altre fonti normative che contribuiscono a delineare la cornice dell’agenda digitale europea. Si tratta di un’impresa sfidante per tutti i soggetti coinvolti dalla nuova disciplina, dai provider, tenuti ad adeguarsi alle nuove misure, agli utenti per i quali non sarà semplice comprendere fino a dove potrà spingersi la tutela dei loro diritti.
Le piattaforme online avranno a disposizione 3 mesi (quindi fino al 17 febbraio 2023) per rendere noto il numero degli utenti finali attivi sui siti di propria competenza, mentre gli Stati membri dovranno attribuire i poteri spettanti ai coordinatori dei servizi digitali entro il 17 febbraio 2024, data in cui il Dsa sarà pienamente applicabile.