Il Digital Services Act (DSA), è il regolamento comunitario sui servizi digitali, approvato dal Parlamento Europeo il 5 luglio 2022, insieme al Digital Markets Act (DMA).
Entrambi fanno parte del Digital Services Package, un insieme di norme volte a disciplinare il settore digitale, entrato in vigore nel 2022. Dal 17 febbraio 2024, il regolamento si applica a tutte le piattaforme online, mentre già dalla fine di agosto 2023 le disposizioni erano operative per quelle designate con oltre 45 milioni di utenti nell’UE, ossia per i servizi digitali di maggiore rilevanza. La Commissione, in collaborazione con le autorità nazionali, garantirà l’applicazione delle regole, ponendo particolare attenzione agli obblighi specifici imposti alle piattaforme di grandi dimensioni per mitigare i rischi sistemici.
Il principio fondamentale del DSA è chiaro: ciò che è illegale offline deve esserlo anche online. L’obiettivo principale è assicurare il corretto funzionamento del mercato digitale dell’UE, proteggendo i consumatori e contrastando fenomeni come la disinformazione e la diffusione di contenuti illeciti.
Semplice a dirsi, complesso a realizzarsi.
Di seguito vengono esaminati i diversi aspetti del DSA, dall’ambito di applicazione agli obiettivi strategici, fino agli obblighi per le piattaforme, alle sanzioni previste, alle nuove figure di governance e alle misure per la tutela dei minori.
Indice degli argomenti
Ambito di applicazione del Digital Services Act
Il DSA riguarda un’ampia gamma di servizi digitali che fungono da intermediari tra utenti e contenuti, beni o servizi. Ne fanno parte social network e piattaforme di condivisione, come Meta, TikTok e YouTube, che influenzano la comunicazione online; marketplace digitali, tra cui Amazon ed eBay, che facilitano lo scambio di prodotti; e app store come Google Play e l’Apple App Store, essenziali per la distribuzione di software. La regolamentazione include anche servizi di cloud computing e hosting web, come AWS e Google Cloud, data la loro centralità nell’infrastruttura digitale.
Norma ISO 31700 e privacy by design: cosa devono sapere aziende e consulenti
Il regolamento si applica inoltre alle piattaforme di viaggio e alloggio, quali Airbnb e Booking.com, e ai servizi di intermediazione come i provider Internet e i registri di domini, fondamentali per il funzionamento della rete. Anche le piattaforme di economia collaborativa, come Uber e BlaBlaCar, sono coinvolte nel quadro normativo. In sostanza, il DSA disciplina tutti gli intermediari digitali che operano su richiesta degli utenti, spesso attraverso modelli di business basati su transazioni economiche o pubblicità, con l’obiettivo di garantire maggiore trasparenza, sicurezza e tutela dei consumatori.
Obiettivi del Digital Services Act
Il regolamento persegue una serie di finalità chiave per proteggere gli utenti, in particolare i minori, e garantire un ambiente online più sicuro. Tra gli obiettivi principali vi è la rimozione tempestiva di contenuti illeciti, compresi quelli che incitano all’odio o favoriscono la disinformazione. Le piattaforme sono tenute ad adottare misure efficaci per eliminare materiale dannoso, garantendo al contempo il rispetto della libertà di espressione ed evitando interventi eccessivi.
Un altro obiettivo è accrescere la trasparenza e la responsabilità delle piattaforme, imponendo regole sui sistemi di raccomandazione dei contenuti e sulla gestione della pubblicità online. Inoltre, il DSA punta a rendere il mercato digitale più competitivo e favorevole all’innovazione, sostenendo la crescita di startup e PMI e introducendo controlli più stringenti sulle piattaforme dominanti per prevenire rischi sistemici e abusi.
Gli obblighi del Digital Services Act per le piattaforme digitali
Il Digital Services Act classifica le piattaforme digitali in quattro categorie principali, ognuna delle quali è soggetta a specifici obblighi di conformità. Gli Intermediary Services, come i provider di servizi Internet, forniscono l’infrastruttura di base per l’accesso al web. I Hosting Services, tra cui i servizi di cloud storage, si occupano dell’archiviazione e gestione dei contenuti online. Le Online Platforms, che includono social media e marketplace, fungono da intermediari tra utenti e contenuti, facilitando la diffusione di informazioni e transazioni commerciali. Infine, vi sono le Very Large Online Platforms (VLOP) e i Very Large Online Search Engines (VLOSE), ossia le piattaforme che raggiungono più del 10% dei 450 milioni di consumatori europei e i motori di ricerca che, per il loro impatto, sono soggetti a normative più stringenti.
Questa normativa, delineata in particolare nel Capo III del DSA, impone ai fornitori di servizi digitali, con un’attenzione particolare verso quelli di maggiore rilevanza, specifici obblighi di diligenza (due diligence). L’obiettivo è stabilire un insieme minimo di regole fondamentali, garantendo trasparenza (art. 17), accountability (art. 34) e sistemi di verifica (art. 40), oltre a principi essenziali di conformità (art. 14).
Per contrastare la diffusione di merci, servizi e contenuti illegali online, il Digital Services Act introduce in modo specifico anche un sistema che consente agli utenti di segnalare tali contenuti, affidando un ruolo chiave ai cosiddetti “segnalatori attendibili“, costituiti da organizzazioni di esperti indipendenti, con cui le piattaforme sono tenute a collaborare. A tal proposito un funzionario della Commissione europea ha annunciato a MLex che, entro la fine dell’anno, le aziende online potranno beneficiare delle nuove linee guida sui segnalatori attendibili, che offriranno maggiore chiarezza nell’ambito del Digital Services Act dell’UE. La bozza di queste linee guida, il cui rilascio è previsto per il secondo trimestre di quest’anno, sarà sottoposta a consultazione pubblica; in precedenza, infatti, la Commissione aveva ipotizzato una pubblicazione all’inizio del 2025, ma la tempistica è variata a causa della complessità del fascicolo e della necessità di un coordinamento sia interno alla Commissione sia con il Consiglio della DSA. Le nuove linee guida, che si baseranno su uno studio condotto dall’istituto di ricerca lituano Visionary Analytics su incarico della Commissione, sono attese con grande interesse dai coordinatori dei servizi digitali, i quali stanno procedendo alla designazione delle organizzazioni come segnalatori attendibili negli Stati membri dell’UE.
Parallelamente a ciò, vengono imposti nuovi obblighi per garantire la tracciabilità degli utenti commerciali nei marketplace online, facilitando l’identificazione di venditori di merci illegali. A tutela degli utenti, il regolamento prevede garanzie efficaci, tra cui la possibilità di contestare le decisioni delle piattaforme in materia di moderazione dei contenuti.
La trasparenza diventa un pilastro centrale, imponendo alle piattaforme di rendere noti i criteri degli algoritmi utilizzati per la personalizzazione dei contenuti e della pubblicità.
VLOP e i VLOSE, per via della loro vasta portata e dell’impatto significativo sull’ecosistema digitale, sono soggetti a obblighi ancora più stringenti. Tra questi, c’è l’obbligo di eseguire analisi dei rischi sistemici, affrontando temi come la diffusione delle fake news e l’effetto dei contenuti sulla salute mentale degli utenti. Devono inoltre condividere dati rilevanti con le autorità e i ricercatori autorizzati, per consentire un monitoraggio più accurato delle loro operazioni. Per garantire la trasparenza e la correttezza, sono sottoposte a audit indipendenti regolari. Inoltre, devono permettere agli utenti di disattivare la personalizzazione dei contenuti basata sulla profilazione, assicurando una maggiore libertà nella fruizione delle informazioni.
L’applicazione delle nuove norme sarà supportata da Codici di condotta e norme tecniche specifiche, con particolare attenzione all’accessibilità per le persone con disabilità e alla regolamentazione della pubblicità.
Tutti gli intermediari online che operano nel mercato unico, indipendentemente dalla loro sede, devono conformarsi alle nuove normative. Le microimprese e le piccole imprese sono soggette a obblighi proporzionati alla loro capacità e dimensione, ma in caso di rapida espansione, avranno solo una temporanea esenzione da alcuni obblighi specifici per un periodo transitorio di 12 mesi, dopo di che dovranno necessariamente procedere verso la conformità al nuovo quadro normativo.
Insomma, tutte le piattaforme “operanti” nell’UE devono rispettare una serie di obblighi calibrati ma fondamentali.
Oltre alla massima trasparenza sugli algoritmi di raccomandazione e sulle modalità con cui viene gestita la pubblicità online, è vietata la pubblicità mirata ai minori e l’uso dei cosiddetti dark pattern, ovvero strategie progettate per manipolare inconsapevolmente le scelte degli utenti. Il Considerando 67 del DSA si distingue proprio per aver articolato in maniera precisa la definizione di “dark pattern”, identificando queste pratiche come quelle tecniche di design finalizzate a interferire con l’autonomia degli utenti, portandoli a prendere decisioni indesiderate o a ottenere risultati non voluti. Questa definizione rappresenta dunque un progresso significativo nella regolamentazione del settore, poiché offre una base solida per identificare e contrastare i comportamenti ingannevoli che molte piattaforme adottano.
Le linee guida previste dal Considerando 67 non si limitano a definire i dark pattern, ma forniscono anche esempi concreti di tali pratiche, pur non essendo un elenco esaustivo. Ciò significa che, sebbene le piattaforme non abbiano ancora regolamenti decisivi e vincolanti per eliminare completamente queste pratiche, la posizione chiara assunta dal DSA contro i dark pattern costituisce uno strumento di riferimento importante per le decisioni giudiziarie e le azioni delle agenzie nazionali per la protezione dei consumatori. E in effetti, questo orientamento normativo può rafforzare le indagini e le sanzioni a livello nazionale, come già dimostrato in vari casi gestiti dalla DPA francese, dalla CNIL e dalle autorità olandesi, che si sono occupate di dark pattern su piattaforme come Google, Meta ed Epic Games.
L’attuale designazione di 23 piattaforme online molto grandi (VLOP) e due motori di ricerca molto grandi (VLOSE) segna una tappa fondamentale nell’attuazione del DSA da parte della Commissione Europea. Queste piattaforme, operando su scala globale, esercitano infatti un’influenza determinante sull’ecosistema digitale, sulla privacy degli utenti e sull’integrità delle informazioni diffuse online. Tra i nomi più rilevanti figurano Meta (con Facebook e Instagram), TikTok, Google, Twitter (ora X) e YouTube. La loro importanza e il loro impatto sono tali che la loro gestione e il controllo delle loro pratiche possono determinare l’andamento delle dinamiche digitali globali, soprattutto in ambito di disinformazione, privacy e protezione dei minori.
DSA e “mere conduit”: esenzione per gli intermediari, ma con obblighi di intervento
Il DSA prevede un’esenzione rilevante per i provider che offrono servizi di “mere conduit“, ossia quei fornitori che si limitano al trasporto, caching o hosting dei contenuti, senza intervenire nella selezione o modifica delle informazioni trasmesse. Tali attività non comportano una gestione attiva o una valutazione dei contenuti, e per questo motivo i provider non sono ritenuti responsabili per le informazioni salvate o trasmesse su richiesta dell’utente. Questa distinzione riconosce la differenza tra chi gestisce attivamente i contenuti online e chi fornisce semplicemente l’infrastruttura tecnica per la loro trasmissione. I provider di “mere conduit” operano come canali di comunicazione, garantendo il trasferimento dei dati al destinatario finale senza un controllo diretto su di essi. Di conseguenza, il regolamento evita di imporre loro obblighi che potrebbero compromettere la neutralità della rete o rallentare il trasferimento dei dati.
Tuttavia, questa esenzione è soggetta a condizioni specifiche. Il provider deve dimostrare di non avere conoscenza effettiva di contenuti o attività illegali che vengono trasmessi o archiviati tramite i suoi servizi. Se il provider viene a conoscenza di contenuti illeciti, ad esempio a seguito di una segnalazione o controllo, è obbligato a rimuovere o disabilitare l’accesso a tali contenuti in modo tempestivo, per evitare responsabilità legali e sanzioni. Questo principio è in linea con il concetto di “safe harbor”, che protegge i fornitori da responsabilità diretta, ma solo se agiscono prontamente una volta informati del problema.
Nel caso in cui queste condizioni non vengano rispettate, i provider possono affrontare sanzioni pecuniarie significative e richieste di risarcimento danni da parte degli utenti. Tale responsabilità, unita alle sanzioni economiche previste per le violazioni, crea un forte incentivo per i provider a mantenere alti standard di vigilanza nella gestione dei contenuti e ad agire prontamente per rimuovere o bloccare contenuti dannosi o illegali, garantendo la sicurezza e i diritti degli utenti.
In sintesi, sebbene il DSA riconosca la necessità di preservare la neutralità dei provider che operano come semplici intermediari, stabilisce chiaramente che, pur non essendo generalmente responsabili per i contenuti, devono comunque intervenire tempestivamente per rimuovere o bloccare contenuti illegali, garantendo così la sicurezza online.
Le sanzioni per le violazioni del Digital Services Act
Per garantire l’effettiva applicazione del regolamento, il DSA prevede sanzioni severe per le piattaforme che non rispettano le norme. In particolare, le violazioni possono comportare multe fino al 6% del fatturato annuo globale, mentre per infrazioni legate a informazioni scorrette, incomplete o nel caso in cui non adempiano a specifici obblighi legati alla trasparenza e alla corretta gestione delle informazioni, le sanzioni possono essere inferiori, attorno all’1% del fatturato annuo. Queste misure rappresentano uno strumento fondamentale per incentivare il rispetto delle regole e per tutelare gli utenti, offrendo anche la possibilità di richiedere risarcimenti per i danni subiti a seguito delle inadempienze.
Governance: nuove autorità di controllo per l’attuazione del DSA
L’attuazione del DSA prevede un sistema multilivello di controllo che coinvolge:
- La Commissione Europea , responsabile della supervisione delle piattaforme online molto grandi (Very Large Online Platforms – VLOP ) e dei motori di ricerca molto grandi (Very Large Online Search Engines – VLOSE ), ovvero quelli con più di 45 milioni di utenti nell’UE. Per queste aziende, Bruxelles ha il potere di avviare indagini, richiedere documenti, condurre ispezioni e imporre sanzioni. Tuttavia, l’autorità non si limita a un ruolo sanzionatorio: ha anche il compito di verificare che le piattaforme attuino misure efficaci per ridurre i rischi sistemici, come la disinformazione, la manipolazione elettorale o l’abuso dei minori online.
- Le autorità nazionali degli Stati membri , che regolano e vigilano sulle piattaforme più piccole con sede nei loro territori.
- I Coordinatori dei Servizi Digitali (Digital Services Coordinators – DSC) , nominati da ciascuno Stato membro per supervisionare e applicare il regolamento a livello nazionale. Queste figure fungono da punto di contatto tra le autorità locali e la Commissione, garantendo che le norme del DSA vengano applicate in modo coerente in tutta l’Unione. Se un paese individua una violazione con implicazioni transfrontaliere, può segnalare il caso alla Commissione, che ha la facoltà di coordinare le indagini più ampie o adottare misure di emergenza.
- Il Compliance Officer, designato dalle piattaforme di maggiori dimensioni per garantire l’osservanza interna delle norme
A livello europeo, il Comitato Europeo per i Servizi Digitali, presieduto dalla Commissione Europea, ha il compito di coordinare le azioni tra i vari Stati membri, assicurando un’applicazione uniforme e armonizzata delle nuove regole.
Tutto il sistema si basa su un principio di collaborazione, non solo tra le istituzioni europee e nazionali, ma anche con soggetti esterni. Il regolamento incoraggia infatti la cooperazione con organizzazioni della società civile, ricercatori e altre autorità di regolamentazione, come quelle per la protezione dei dati personali. Inoltre, le piattaforme stesse devono fornire accesso ai loro dati per consentire studi indipendenti sugli effetti delle loro tecnologie.
Nonostante il quadro normativo sia strutturato in modo rigoroso, la sua applicazione pratica presenta però sfide complesse. Le prime indagini avviate dalla Commissione nei confronti di colossi come X, Meta e TikTok mostrano quanto sia difficile imporre restrizioni alle grandi piattaforme digitali. Queste aziende dispongono di risorse legali e tecniche considerevoli, spesso utilizzate per contestare le decisioni di Bruxelles o per aggirare le normative con modifiche alle proprie policy. Il caso di X, per esempio, ha dimostrato quanto possa essere lungo e complesso un procedimento sanzionatorio, con l’azienda di Elon Musk che ha sollevato numerose obiezioni formali sulle procedure adottate dalla Commissione.
Tutela dei minori online nel DSA
Il DSA pone particolare enfasi sulla protezione dei minori nel contesto digitale, riconoscendo la loro maggiore vulnerabilità rispetto ad altri utenti. Il regolamento proibisce espressamente l’uso di tecniche di targeting pubblicitario basate sui dati personali dei minori, impedendo così che informazioni sensibili vengano sfruttate per personalizzare annunci che potrebbero influenzare negativamente le loro percezioni o comportamenti. Inoltre, le piattaforme sono obbligate a impedire l’accesso a contenuti che possano avere effetti deleteri, come quelli potenzialmente correlati a disturbi alimentari o a comportamenti autolesionisti, mediante l’adozione di sistemi di controllo e moderazione sempre più sofisticati.
Parallelamente, il DSA impone alle piattaforme l’esecuzione di valutazioni d’impatto sui rischi sistemici, al fine di identificare e mitigare potenziali minacce derivanti dalla diffusione di disinformazione o dall’utilizzo improprio di algoritmi di raccomandazione. Tali analisi permettono di comprendere come le dinamiche digitali possano incidere negativamente sulla salute mentale e sullo sviluppo psicologico dei minori spingendo gli operatori a implementare misure adeguate per ridurre tali rischi.
Il regolamento, inoltre, promuove il coinvolgimento attivo dei genitori, incoraggiando le piattaforme a fornire strumenti intuitivi che permettano il monitoraggio e il controllo dell’attività online dei figli. In questo modo, non solo si rafforza la protezione diretta dei minori, ma si favorisce anche una maggiore consapevolezza e partecipazione da parte della famiglia nel gestire le potenziali criticità del mondo digitale.
Ulteriori dettagli su questo tema saranno trattati nei paragrafi successivi.
Il kit di strumenti elettorali della Commissione Europea: salvaguardare l’integrità dei processi elettorali nell’UE
Come abbiamo visto in precedenza, il DSA introduce una serie di obblighi per le piattaforme online di dimensioni molto grandi (VLOP) e per altri attori digitali, con l’obiettivo di garantire maggiore responsabilità e protezione online; ciò in particolare durante periodi delicati come le elezioni. Un aspetto fondamentale di questa regolamentazione riguarda infatti proprio la prevenzione di rischi legati alla diffusione di contenuti illegali, disinformazione e altre pratiche dannose che potrebbero influenzare i processi democratici.
In questo contesto, la Commissione Europea ha recentemente diffuso un kit di strumenti elettorali, destinato a fornire supporto pratico alle autorità nazionali di regolamentazione, note come coordinatori dei servizi digitali. L’obiettivo principale del kit è proteggere l’integrità elettorale, mitigando i rischi connessi all’uso delle piattaforme digitali durante le elezioni. Tra le principali minacce affrontate figurano la diffusione di incitamento all’odio e molestie online, nonché le strategie di manipolazione dell’opinione pubblica. Particolare attenzione è riservata all’uso improprio di contenuti generati dall’intelligenza artificiale e alle pratiche di impersonificazione, che potrebbero distorcere il dibattito democratico e influenzare le decisioni degli elettori.
Il kit si allinea dunque agli obblighi già stabiliti dal DSA per le VLOP e VLOSE, rafforzando ulteriormente la necessità di vigilanza e di intervento tempestivo da parte dei provider: obblighi che, come evidenziato in precedenza, includono la rimozione rapida di contenuti illegali o dannosi, la trasparenza degli algoritmi di raccomandazione e la collaborazione con le autorità competenti
In linea con i principi discussi il pacchetto di strumenti si articola in quattro ambiti principali. Il primo riguarda la gestione delle parti interessate, stabilendo linee guida per garantire un dialogo efficace tra le autorità regolatorie, le piattaforme online e gli altri attori coinvolti nel processo elettorale. Il secondo ambito si concentra sulla comunicazione e sull’alfabetizzazione mediatica, promuovendo strategie per accrescere la consapevolezza pubblica sui rischi legati all’uso delle piattaforme e aiutare i cittadini a distinguere le informazioni affidabili dalla disinformazione. Un altro aspetto chiave è la risposta agli incidenti, ovvero la capacità di intervenire rapidamente per contrastare la diffusione di contenuti dannosi o ingannevoli, garantendo una gestione tempestiva dei rischi nel periodo elettorale. Infine, il kit prevede strumenti avanzati di monitoraggio e analisi, volti a individuare tempestivamente potenziali minacce, come campagne di disinformazione o tentativi di manipolazione dell’opinione pubblica, permettendo così una sorveglianza continua dell’ecosistema digitale in momenti di particolare sensibilità politica.
L’esperienza acquisita tramite l’attuazione del Codice di buone pratiche sulla disinformazione, così come i dialoghi sull’integrità elettorale avviati con le piattaforme e le autorità pubbliche, hanno contribuito alla creazione di questo kit. Quest’ultimo infatti non solo integra le linee guida stabilite nel DSA, ma offre in più strumenti operativi che almeno sulla carta dovrebbero rafforzare la capacità delle autorità di regolamentazione degli Stati membri di monitorare attivamente il comportamento delle piattaforme, garantendo che le stesse si attengano agli obblighi di trasparenza e rimozione dei contenuti nocivi.
La Banca dati sulla trasparenza: un passo verso la responsabilità
Un altro aspetto chiave di questa regolamentazione è la necessità di monitorare e analizzare in modo efficace le pratiche di moderazione dei contenuti adottate dalle piattaforme online. In questa direzione, la Commissione Europea ha rilasciato una nuova API di ricerca che vuole rappresentare un passo significativo verso la concreta realizzazione di un sistema più trasparente e accessibile per l’analisi delle decisioni di moderazione dei contenuti.
La banca dati sulla trasparenza della legge sui servizi digitali viene riferita come una delle più grandi e avanzate al mondo per la raccolta e l’analisi dei dati relativi alle decisioni di moderazione dei contenuti. Dal suo lancio nel settembre 2023, pare abbia registrato oltre 26 miliardi di voci che contengono informazioni dettagliate su come le piattaforme online gestiscono i contenuti, indicando non solo le azioni intraprese (ad esempio, rimozioni, limitazioni o etichettatura), ma anche le motivazioni legali e contrattuali dietro queste decisioni. Dunque una sorta di fotografia quasi in tempo reale di come le piattaforme stanno applicando le proprie politiche di moderazione, mettendo in evidenza le pratiche legate a contenuti problematici, come l’incitamento all’odio, la disinformazione o la pornografia non consensuale.
Non solo la raccolta di dati permette di monitorare le piattaforme, ma favorisce anche applicazioni investigative e di ricerca, rendendo le informazioni accessibili a vari soggetti come le autorità di regolamentazione, i ricercatori e la società civile. In questo contesto, la trasparenza nelle decisioni di moderazione assume un ruolo essenziale per garantire che le piattaforme rispettino le normative in modo responsabile e che gli utenti siano protetti da interventi arbitrari o ingiustificati. Entriamo nel dettaglio.
L’API di ricerca: potenziamento dell’accesso ai dati
Grazie a un indice OpenSearch che aggrega informazioni relative agli ultimi sei mesi, la nuova API consente di effettuare analisi dettagliate e personalizzate, offrendo ai ricercatori un quadro esaustivo delle tendenze e dei modelli di moderazione su diverse piattaforme.
Questo approccio va ben oltre le tradizionali modalità di ricerca, rendendo possibile ottenere insight che prima risultavano difficili da rilevare. Il nuovo strumento è infatti progettato per sostenere ricerche accademiche, analisi strategiche e indagini investigative, offrendo agli esperti l’opportunità di monitorare come le piattaforme gestiscono politiche di moderazione in contesti critici, quali elezioni, lotta alla disinformazione e protezione dei gruppi vulnerabili.
Non a caso la Commissione ha sviluppato l’API rispondendo direttamente al feedback della comunità di ricerca emergente, che chiedeva un miglior accesso ai dati per ricercatori e attori della società civile interessati all’applicazione del Digital Services Act.
In sostanza, la nuova API non solo potenzia l’analisi delle pratiche di moderazione dei contenuti, ma vuol rappresentare anche un passo significativo verso una maggiore responsabilità delle piattaforme. Con strumenti analitici avanzati e accesso a dati in tempo reale, la Commissione intende proprio rafforzare la sicurezza, l’integrità e la fiducia nel mondo digitale, allineandosi perfettamente con gli obblighi previsti dal DSA per garantire trasparenza e protezione degli utenti.
Co-regolazione e trasparenza nel digitale: il Codice di Condotta e il Digital Services Act
La natura altamente innovativa e dinamica del digitale richiede una regolamentazione flessibile, capace di adattarsi rapidamente ai continui mutamenti tecnologici. In questo scenario, i codici etici assumono un ruolo complementare alle norme giuridiche, offrendo un quadro di principi che guidano l’azione degli attori, anche oltre gli obblighi di legge. La co-regolazione, intesa come collaborazione tra attori pubblici e privati, emerge dunque come un modello efficace per bilanciare le esigenze di innovazione con quelle di tutela, integrando principi etici nelle dinamiche regolative e rafforzando la legittimità e l’efficacia delle norme.
Un esempio significativo di questo approccio è rappresentato dai codici di condotta volontari previsti dal Digital Services Act (DSA). Elaborati in sinergia con le piattaforme digitali, tali codici mirano a mitigare i rischi sistemici, come la diffusione della disinformazione, e a garantire una maggiore responsabilità degli operatori rispetto ai contenuti dannosi pur non essendo illegali. Sebbene l’adesione a questi codici sia volontaria, il DSA ne riconosce il valore come strumento essenziale per una regolamentazione efficace del digitale, supportandoli con poteri di enforcement da parte della Commissione europea.
Tra le misure adottate, il Codice di condotta sulla disinformazione emerge come un pilastro innovativo nella lotta ai contenuti ingannevoli, bilanciando con equilibrio la tutela della libertà di parola e la trasparenza delle piattaforme. Il 13 febbraio 2025, la Commissione europea, insieme al Comitato europeo per i servizi digitali, ha ufficialmente integrato il codice nel quadro del DSA, assegnandogli un ruolo centrale nella regolamentazione dei Very Large Online Platforms (VLOP) e dei Very Large Online Search Engines (VLOSE), tra cui figurano Facebook, YouTube, Google Search e TikTok. Frutto di lunghe trattative iniziate nel 2018 e rafforzate nel 2022, il codice diventerà un parametro essenziale per verificare la conformità delle piattaforme ai requisiti normativi nella gestione della disinformazione, entrando in vigore il 1° luglio 2025.
In questo contesto, i principali operatori del settore digitale – tra cui Google, Meta, Microsoft e TikTok – hanno recentemente diffuso le loro ultime relazioni sulla disinformazione, descrivendo in dettaglio le misure adottate per contrastare la diffusione di contenuti fuorvianti, soprattutto in situazioni di crisi globale come la guerra in Ucraina e il conflitto Hamas-Israele. Questi aggiornamenti si inseriscono nel più ampio insieme di iniziative del DSA, volte a rafforzare la trasparenza e la responsabilità delle piattaforme online, come dimostrato dall’introduzione dell’API di ricerca della Commissione, che consente agli utenti di analizzare le decisioni di moderazione dei contenuti e di monitorare la gestione della disinformazione.
Le relazioni non solo forniscono un resoconto sulle azioni intraprese, ma affrontano anche tematiche cruciali quali la protezione dell’integrità elettorale, evidenziando l’impegno a vigilare e a contrastare la manipolazione delle informazioni in momenti critici. In conformità con le disposizioni del Codice di condotta, le principali piattaforme sono tenute a pubblicare rapporti semestrali, mentre gli altri firmatari lo faranno annualmente. I dati relativi al periodo luglio-dicembre 2024 sono già disponibili nel Centro per la trasparenza del Codice, offrendo così un’analisi approfondita delle attività di moderazione e delle scelte operative adottate dalle piattaforme.
Le sfide dell’attuazione concreta
Passare dalla teoria alla pratica non è mai un processo immediato, soprattutto quando si tratta di regolamentare un settore complesso come quello digitale. Pur disponendo di normative e Codici di condotta piuttosto definiti, tradurre questi strumenti in azioni concrete richiede tempo, coordinamento e un costante aggiornamento degli strumenti tecnici. Questo percorso di implementazione si intreccia strettamente con gli sforzi della Commissione Europea, che, attraverso strumenti come l’API di ricerca e il monitoraggio delle pratiche di moderazione, lavora per rendere operative le direttive del Digital Services Act e del Codice di condotta sulla disinformazione; ma la vera sfida sta nell’attuazione pratica degli obiettivi prefissati. Monitorare l’efficacia delle piattaforme e assicurarsi che rispettino gli impegni assunti richiede tempo, strumenti avanzati e un impegno costante da parte di tutte le parti coinvolte.
Futuro incerto per la pubblicità digitale
In tal senso il settore della pubblicità online sta attraversando una fase di incertezza in vista delle prossime mosse attese da parte della Commissione Europea[1]. Aziende di pubblicità, piattaforme Big Tech ed editori sono infatti in attesa di comprendere come i regolatori dell’UE affronteranno le problematiche legate alla diffusione di contenuti illegali tramite gli annunci pubblicitari. Nonostante la Commissione abbia organizzato una serie di workshop con il settore della pubblicità digitale, non è ancora chiaro se verranno introdotte nuove misure legislative, un codice di condotta specifico o se si attenderanno ulteriori analisi per affrontare questi problemi in modo mirato.
Al momento, uno dei problemi più urgenti riguarda la “grande scatola nera” del settore adtech, con i suoi meccanismi poco trasparenti e difficili da monitorare. Gli editori, in particolare, sono preoccupati per la collocazione degli annunci su siti inappropriati e per la gestione dei dati personali per la misurazione dell’audience. Inoltre, cresce l’allarme per la diffusione degli annunci falsi che finanzierebbero attività illegali, un problema che si prevede diventerà ancora più acuto con l’avanzamento delle tecnologie basate sull’intelligenza artificiale.
La Commissione Europea, sotto la guida della presidente Ursula von der Leyen, ha già dichiarato che la pubblicità online è una delle priorità per il suo portafoglio digitale. Ciò potrebbe tradursi in un nuovo strumento legislativo, il Digital Fairness Act, che vorrebbe affrontare anche altre problematiche emergenti come il design che crea dipendenza, i “dark pattern” e la trasparenza nelle pratiche degli influencer sui social media.
Per ora però la Commissione pare impegnata in un processo di mero ascolto, raccogliendo feedback su come le nuove tecnologie possano essere sfruttate per contrastare le pratiche dannose. Nel frattempo, resta da “colmare il vuoto” lasciato dal persistente Regolamento ePrivacy, attualmente in fase di revisione. Secondo le prospettive espresse, l’UE potrebbe avanzare fino a tre proposte legislative nell’ambito della politica digitale, spaziando dalla regolamentazione della pubblicità digitale alla protezione dei consumatori online e alla conservazione dei dati.
Un ulteriore elemento di riflessione proviene anche da studi precedenti commissionati da enti di consulenza come AWO, che avevano evidenziato come la mancanza di trasparenza nel settore adtech avesse contribuito a un marcato squilibrio di potere tra gli utenti, gli inserzionisti, gli editori e i colossi come Google e Meta. Le proposte avanzate in quei contesti includevano misure radicali come la centralizzazione delle scelte di privacy a livello di browser e la promozione della pubblicità contestuale, considerata un’alternativa meno invasiva rispetto al targeting basato sui cookie.
Il passo successivo sarà probabilmente una valutazione d’impatto che utilizzerà i risultati di questo e altri possibili studi per informare la revisione del DSA, prevista entro novembre 2025, e per definire se e come intervenire.
In definitiva, mentre il settore della pubblicità digitale attende con ansia le prossime mosse della Commissione, il quadro rimane complesso e in evoluzione. Vedremo.
Analisi della conformità delle piattaforme tecnologiche: una prospettiva critica del Digital Services Act
Il DSA impone alle cosiddette Very Large Online Platforms (VLOP) e ai motori di ricerca (VLOSE) di pubblicare report di trasparenza ogni sei mesi e di presentare valutazioni complete dei rischi. Per il momento, il primo ciclo di report, pubblicato lo scorso novembre, ha evidenziato delle lacune[2].
Le valutazioni, oltre a essere percepite come superficiali, non sono state sufficientemente integrate da un confronto con esperti e società civile. “I report richiesti ai sensi del Digital Services Act non sono stati particolarmente approfonditi”, ha dichiarato Asha Allen, segretario generale del Center for Democracy and Technology Europe (CDT Europe), in un’intervista focalizzata sulle sfide di segnalazione e applicazione del DSA.
Secondo Asha Allen i rapporti previsti dal DSA presentati da Meta, Google, X e TikTok non sarebbero sostanziali: molti dati citati erano già noti o già diffusi dalle stesse piattaforme, mentre le informazioni alla base delle affermazioni risultavano spesso insufficienti o mancanti. Questa mancanza di dettaglio e di una visione olistica emergerebbero soprattutto nella gestione dei rischi legati alla moderazione dei contenuti.
Sembrerebbe quindi che le piattaforme si concentrino prevalentemente sui rischi derivanti dai contenuti generati dagli utenti e dalle misure di moderazione, trascurando invece come il design dei loro prodotti e l’uso di sistemi algoritmici possano contribuire a rischi sistemici. L’assenza di una valutazione approfondita sul funzionamento effettivo dei sistemi algoritmici continua infatti a sollevare preoccupazioni, in particolare per quanto riguarda la gestione della violenza di genere online e la costante evoluzione dei modelli pubblicitari.
La Commissione non si scompone e prosegue il percorso iterativo già intrapreso ritenendo di dover continuare a seguire le aziende in altri workshop, oltre che utilizzare i prossimi report, compresi quelli che analizzeranno in dettaglio le valutazioni delle piattaforme, per affinare le linee guida.
In breve, sebbene il DSA possieda un potenziale enorme, tuttavia affinché riesca realmente a proteggere gli utenti e a garantire una moderazione efficace dei contenuti, rimane indispensabile un impegno costante e coordinato da parte di tutte le parti coinvolte. Senza un aggiornamento regolare delle pratiche di valutazione e delle strategie di mitigazione del rischio, c’è il pericolo che le misure adottate non riescano a tenere il passo con l’evoluzione rapida del panorama digitale. In altre parole, il successo della DSA dipenderà in primis dalla capacità delle autorità, delle piattaforme e degli altri attori di adattarsi continuamente ai nuovi scenari e alle sfide emergenti.
Protezione dei minori online: verifica dell’età e i controlli parentali nel Digital Services Act
Nel contesto delle sfide evidenziate in precedenza, la questione della protezione dei minori online assume una rilevanza ancora maggiore. Proprio come le valutazioni del rischio sulle pratiche di moderazione dei contenuti sono state criticate per la loro superficialità, anche il tema della verifica dell’età e dei controlli parentali nel DSA si configura come un punto critico. Secondo Prabhat Agarwal, funzionario senior della Commissione europea, le piattaforme saranno al centro di nuove linee guida, destinate a garantire una maggiore protezione dei minori prevedendo misure specifiche per garantire la verifica dell’età e l’adozione di impostazioni predefinite più sicure per i minori.
Il funzionario della Commissione europea Martin Harris Hess ha annunciato che la bozza delle linee guida sarà pubblicata nelle prossime settimane per una consultazione pubblica. Queste linee guida, che includeranno una vasta gamma di raccomandazioni per le piattaforme, affronteranno temi cruciali come la governance delle piattaforme, la configurazione degli account, la moderazione dei contenuti, i sistemi di raccomandazione, l’intelligenza artificiale generativa e, in particolare, la verifica dell’età. La Commissione non si aspetta che tutte le piattaforme adottino ogni singola raccomandazione, poiché alcune potrebbero non essere applicabili al loro modello di business, ma insiste sul fatto che tutte le piattaforme, grandi e piccole, debbano essere consapevoli del loro impatto sulla sicurezza e sulla privacy dei bambini e adottare le misure adeguate. Inoltre, le linee guida includeranno anche un modello per aiutare le piattaforme a valutare l’effetto dei loro servizi sulla protezione dei minori. Harris Hess ha anche sottolineato l’importanza di semplificare il processo di conformità per le piattaforme più piccole, che potrebbero non disporre delle risorse necessarie. Come già anticipato, un altro aspetto rilevante riguarda l’uso di strumenti di controllo parentale, che, sebbene utili, non sono sufficienti da soli per garantire la sicurezza dei minori. Il dibattito ha sollevato anche questioni cruciali sulla responsabilità delle piattaforme, con Leanda Barrington-Leach di 5Rights che ha enfatizzato l’importanza di attribuire alle piattaforme la responsabilità diretta per la protezione dei minori, piuttosto che delegarla ai genitori o agli utenti. Il problema, ha spiegato, non risiede nel contenuto in sé, ma nella progettazione dei sistemi, come gli algoritmi e i modelli di business che incentivano comportamenti dannosi. Karen McAuley, di Coimisiún na Meán, ha aggiunto che la garanzia dell’età non è una soluzione autonoma e deve essere integrata con altre misure per proteggere i minori online.
Infine, è stato discusso il ruolo dell’intelligenza artificiale nella moderazione dei contenuti, riconoscendo i benefici ma anche i rischi legati, ad esempio, alla creazione di contenuti dannosi tramite IA, sottolineando la necessità di mettere al primo posto gli interessi dei bambini.
Questa esigenza di definire con chiarezza le responsabilità e le modalità operative si collega dunque strettamente alle precedenti criticità emerse nei report di valutazione del rischio: se da un lato le piattaforme sono state accusate di fornire dati poco sostanziali sui rischi sistemici, dall’altro lato manca ancora una visione completa e olistica su come implementare efficacemente misure di protezione dei minori.
Iniziativa della presidenza polacca per la protezione dei minori online e la salute mentale
In linea con l’analisi precedente, anche la recente iniziativa della presidenza polacca del Consiglio dell’UE, incentrata sulla promozione della salute mentale per bambini e adolescenti nell’era digitale, offre un ulteriore tassello importante nel quadro delle politiche europee di protezione degli utenti vulnerabili.
Questa attenzione crescente verso la protezione dei minori si inserisce d’altra parte in un contesto più ampio di regolamentazione della sicurezza digitale, dove piattaforme come TikTok e Meta sono già state al centro di indagini per violazioni proprio del DSA, in particolare per quanto riguarda la protezione dei bambini.
La proposta polacca rivolta agli stati membri dell’UE affinché implementino programmi di alfabetizzazione digitale, che affrontano tematiche come il cyberbullismo e la disinformazione, si integra perfettamente con gli sforzi tesi a sviluppare politiche di protezione online più efficaci. Il documento sollecita un rafforzamento delle collaborazioni tra famiglie, educatori e aziende tecnologiche, prevedendo per l’appunto un approccio che potrebbe contribuire a mitigare gli effetti negativi della progettazione “avvincente” delle piattaforme digitali, già oggetto di discussioni a livello UE. Questo impegno trasversale è particolarmente rilevante se si considera che la progettazione delle piattaforme stesse può essere una delle cause principali di dipendenza digitale, un tema questo che continuerà ad essere affrontato nei futuri sviluppi normativi, come nel Digital Fairness Act, destinato a rafforzare la protezione dei consumatori nel contesto digitale.
TikTok sotto la lente dell’Unione Europea
Le indagini avviate dalla Commissione europea su TikTok ai sensi del Digital Services Act si inseriscono nel contesto di crescente attenzione normativa nei confronti delle grandi piattaforme digitali, soprattutto per quanto riguarda la protezione dei minori, la trasparenza e la gestione del rischio legato agli algoritmi. Questo peraltro non è un evento isolato, ma si colloca in una tendenza più ampia che ha già visto l’avvio di indagini simili su altre piattaforme[3] tra cui X (ex Twitter), Meta, e che potrebbe presto coinvolgere altre piattaforme designate come Very Large Online Platforms (VLOP).
La questione centrale che associa tutte le indagini relative a TikTok riguarda l’impatto della piattaforma digitale sulla società e sui loro utenti più vulnerabili, in particolare i minori. L’intento è quello di affrontare problematiche legate alla dipendenza da contenuti digitali, agli effetti dei sistemi algoritmici (come il cosiddetto “effetto rabbit-hole”, che spinge gli utenti a rimanere incollati allo schermo attraverso contenuti sempre più mirati), e alla trasparenza della pubblicità online. Tra le questioni oggetto di esame anche la presenza di possibili falle nei sistemi di verifica dell’età implementati da TikTok, che potrebbero consentire ai minori di aggirare i limiti di accesso.
Le misure già adottate da TikTok, come il limite giornaliero di utilizzo e le restrizioni sulla privacy per i bambini, mostrano infatti un tentativo di conformarsi alle normative, ma la Commissione vuole ancora verificare se queste siano realmente efficaci o se si tratti di mere iniziative di facciata. La mancata trasparenza nella gestione della pubblicità e nell’accesso ai dati da parte dei ricercatori rappresenta un altro punto critico, poiché limita il controllo indipendente sulla piattaforma.
Un ulteriore aspetto centrale dell’indagine riguarda anche il modello di business basato sull’algoritmo, che determina quali contenuti vengono spinti e quali vengono nascosti. Se la Commissione dovesse stabilire che l’algoritmo incentiva comportamenti dannosi, TikTok potrebbe essere costretta a rivedere ancora una volta in modo significativo il suo funzionamento, con conseguenze economiche rilevanti.
Il banco di prova del Digital Services Act tra Big Tech, resistenze legali e scontro con gli USA
Inutile dire che casi come quelli di TikTok rappresentano un banco di prova cruciale per il Digital Services Act e per la capacità dell’Unione Europea di regolare le piattaforme digitali globali. Se la Commissione adotterà misure esemplari, il DSA potrebbe affermarsi come un modello di riferimento a livello internazionale per la gestione dei rischi legati alle Big Tech. In caso contrario, le attuali regolamentazioni rischierebbero di rivelarsi inefficaci di fronte all’enorme potere di influenza esercitato dalle piattaforme digitali sul comportamento degli utenti, in particolare i più giovani.
Ad ora il processo di accertamento delle violazioni si sta rivelando lungo e complesso. Il caso di X ha dimostrato come Bruxelles debba affrontare un percorso accidentato prima di riuscire ad applicare sanzioni, tra contestazioni legali e ostacoli procedurali. Dalla Commissione ammettono che ogni provvedimento deve poggiare su basi solide per poter resistere a un eventuale ricorso in tribunale.
Nel caso di Meta, le difficoltà si amplificano ulteriormente a causa dell’assenza di strumenti adeguati per limitare la diffusione di contenuti problematici prodotti al di fuori dell’UE e poi circolati nei Paesi membri. Un vuoto normativo che potrebbe compromettere l’efficacia del regolamento.
L’unico vero successo tangibile è stato ottenuto con TikTok e la vicenda Lite Rewards, chiusa in appena tre mesi. Ma il confronto tra il social cinese e le aziende americane mette in luce una realtà più ampia: imporre regole alle Big Tech occidentali si sta rivelando un compito più arduo, con resistenze più strutturate e strategie più sofisticate per eludere le restrizioni europee.
Inoltre, aspetti critici come l’amplificazione dei contenuti da parte degli algoritmi rimangono poco regolamentati. La capacità degli algoritmi di favorire determinati tipi di contenuti, potenzialmente pericolosi o manipolativi, rappresenta un rischio sistemico che il DSA non è ancora in grado di affrontare in modo esaustivo. Questo gap normativo lascia spazio a dinamiche che possono influenzare in maniera significativa il dibattito pubblico e la formazione delle opinioni, rendendo difficile contrastare fenomeni come la disinformazione e l’incitamento all’odio.
Il vero banco di prova per il DSA sarà, dunque, la capacità della Commissione europea di concludere con successo le indagini e di applicare sanzioni efficaci. Fino a quando non verranno superati gli ostacoli procedurali e le resistenze legali, le piattaforme continueranno a sfruttare le ambiguità normative per evitare di essere chiamate a rispondere delle loro azioni.
Non ultimo rimane il fatto per cui anche il Digital Services Act si configura come uno dei nuovi fronti in cui si scontra la visione regolatoria europea con quella americana, in particolare per quanto riguarda la conformità delle grandi piattaforme digitali. Mentre Bruxelles impone obblighi stringenti in materia di moderazione dei contenuti, lotta alla disinformazione e trasparenza, funzionari come Brendan Carr della FCC definiscono il DSA come uno strumento di censura che limita la libertà di parola e penalizza le aziende statunitensi. Questa tensione è accentuata dalle critiche dei leader delle Big Tech, che vedono nelle nuove normative un vincolo eccessivo alla gestione dei contenuti e un ostacolo all’innovazione. Se le indagini europee su giganti come Meta e X dovessero tradursi in sanzioni concrete, è probabile che il governo americano intervenga per proteggere le imprese nazionali, innescando un conflitto politico su scala globale tra Washington e Bruxelles.
Conclusioni
Il Digital Services Act rappresenta un tentativo ambizioso di conciliare la libertà di espressione con l’esigenza di tutelare il dibattito e l’autodeterminazione del pubblico da manipolazioni e abusi. Sebbene le critiche di Trump e Carr possano apparire strumentali e prive di reale fondamento, esse riflettono comunque una frattura più profonda tra il modello statunitense, fondato sulla deregolamentazione, e quello europeo, che mira a rendere le piattaforme più responsabili. Questa divergenza non è casuale: L’Unione Europea ha dichiarato apertamente la sua ambizione di diventare il principale regolatore digitale a livello mondiale, e in questo senso ha ottenuto risultati significativi. Il progetto “Mapping the Brussels Effect“ del Center for European Policy Analysis – CEPA evidenzia come le normative tecnologiche europee, tra cui il GDPR, il Digital Services Act e il Digital Markets Act, si siano diffuse ben oltre i confini dell’UE. La mappa mostra chiaramente che in numerose nazioni al di fuori dell’Europa c’è un forte interesse per regole digitali simili, un segnale che il modello normativo europeo sta emergendo come un punto di riferimento globale. Questo fenomeno, noto come “Brussels Effect“, riflette il potere del mercato unico europeo: con 450 milioni di consumatori, l’UE impone standard elevati che le aziende globali devono rispettare per accedere a uno dei mercati più redditizi al mondo. Ma se da un lato l‘effetto Brussels sta plasmando il quadro normativo internazionale, dall’altro emergono interrogativi sulla reale efficacia di queste regolamentazioni nel contrastare le dinamiche manipolative dell’ecosistema digitale.
In definitiva, sebbene normative come il Digital Services Act rappresentino un tentativo significativo dell’UE di regolare il mondo digitale e di proteggere i diritti fondamentali, l’impatto rimane ancora incerto. Senza una definizione chiara e una valutazione robusta dei rischi sistemici, il DSA rischia di diventare una normativa che, pur esistendo “in teoria”, fatica a contrastare efficacemente le dinamiche manipolative che, da decenni, caratterizzano il panorama dell’informazione. Come osserva[4] Enrico Pelino, avvocato, partner dello studio legale Grieco Pelino Avvocati, “le dinamiche di manipolazione informativa, se non adeguatamente regolate, rischiano di compromettere la qualità del dibattito e dell’autodeterminazione del pubblico e di minare la fiducia dei cittadini nelle istituzioni democratiche”. In un’epoca in cui pochi centri di potere plasmano la nostra realtà digitale, la sfida rimane aperta: come garantire un’informazione libera e veritiera in un mondo dove la “propaganda” – come già dimostrato da Edward Bernays – è il vero motore del consenso democratico.
Note
[1]Il settore della pubblicità digitale è da tempo al centro delle preoccupazioni della Commissione Europea, che sta preparando un’iniziativa legislativa sul tema. Recentemente, è stato lanciato uno studio che esplorerà i principali sviluppi tecnologici e normativi nel settore, mappando le problematiche e identificando eventuali lacune legislative. L’iniziativa mira a integrare le disposizioni sul Digital Markets Act (DMA) e il Digital Services Act (DSA), analizzando anche l’impatto di tendenze come l’eliminazione dei cookie di terze parti e l’uso dell’intelligenza artificiale per annunci personalizzati.
[2]Si veda https://www.liberties.eu/f/xnurqn
[3]Le inchieste aperte ai sensi del DSA sono già numerose:
- Meta (Facebook e Instagram) è finita sotto indagine per il possibile impatto dei suoi algoritmi sulla dipendenza dei minori e sulla loro salute mentale. La decisione di eliminare il fact-checking negli Stati Uniti ha inoltre sollevato dubbi sulla futura cooperazione dell’azienda con le autorità europee nella lotta alla disinformazione.
- X (ex Twitter) è stata oggetto di due inchieste. La prima, avviata lo scorso luglio, riguarda l’uso improprio della spunta blu e la mancanza di trasparenza pubblicitaria. La seconda, più recente e complessa, si concentra su come il sistema delle Community Notes gestisce la moderazione dei contenuti e sul controllo dell’incitamento all’odio.
- TikTok, oltre a problemi relativi alla tutela dei minori online, è al centro di un’indagine per il ruolo avuto nella diffusione di contenuti filo-russi durante le elezioni in Romania. Bruxelles ha imposto alla piattaforma di conservare tutti i documenti relativi alle elezioni fino al marzo 2025, un periodo che comprende anche le elezioni federali in Germania .
Se TikTok ha già mostrato una certa collaborazione—ritirando in pochi mesi il controverso programma TikTok Lite Rewards —il confronto con le aziende statunitensi si presenta però più complesso.
[4]Per maggiori informazioni si veda: https://digeat.info/articolo-rivista/digeat12025-pelino/
Essere DPO nel 2025: quali sono le competenze e i requisiti necessari