Dalle parole ai fatti. La reazione ai presunti effetti collaterali “nocivi” provocati dall’inconsapevole utilizzo dei social media (soprattutto quando si tratta di ripercussioni che riguardano categorie particolarmente vulnerabili come i minori), passa dal contenzioso delle azioni legali al più proattivo livello regolatorio di possibili interventi normativi finalizzati a disciplinare le paventate implicazioni negative sulla salute dei giovani.
Prende, così, forma una nuova legislazione in materia. La concreta prassi applicativa dimostrerà, nei prossimi anni, se tale approccio sarà o meno satisfattivo sul piano della tutela predisposta.
La legge varata dal Governo australiano
Mentre è stata recentemente resa nota la causa legale promossa dalla città di New York contro i gestori delle piattaforme sociali per aver presumibilmente cagionato asseriti danni al benessere psico-fisico di bambini e adolescenti (esposti al prolungato rischio di dipendenza online, alimentato dalla progettazione algoritmica di meccanismi in grado di generare uno stato permanente di ansia da reazione immediata, secondo quanto prospettato dall’amministrazione municipale ricorrente), il Parlamento australiano ha ufficialmente varato una legge destinata a suscitare notevole interesse nel dibattito generale alla luce delle previsioni normative introdotte: il cd. “Online Safety Amendment (Social Media Minimum Age) Bill 2024” adottato all’esito di ampie consultazioni “multistakeholder” promosse con genitori, giovani ed esperti del settore, da cui è emersa una crescente preoccupazione sui potenziali risvolti pregiudizievoli determinati dall’uso dei social media.
In realtà, già in passato in Francia era stata emanata la legge del 7 luglio 2023, n. 566 (LOI n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne), mediante l’inserimento di una nuova disposizione rivolta specificamente ai “fornitori di servizi di reti sociali”, obbligati a comunicare informazioni precise e complete sui rischi legati all’ambiente digitale e sui mezzi di prevenzione, nonché tenuti a rifiutare la registrazione di utenti minori di 15 anni in assenza di una preventiva autorizzazione concessa da uno o entrambi i titolari della potestà genitoriale, necessaria anche per il mantenimento di account già creati e detenuti da minori di anni 15, sottoposti ai medesimi limiti ostativi di utilizzo.
Sulla scia di un simile tentativo di regolamentazione, nelle intenzioni del legislatore australiano, l’avvenuta approvazione della nuova disciplina prevista dal cd. “Online Safety Amendment (Social Media Minimum Age) Bill 2024” (con effetti applicativi comunque posticipati alla sua effettiva entrata in vigore non prima di 12 mesi dopo la validazione regia del cd. “Roayl Assent”), rappresenta il punto di inizio di un percorso di regolamentazione, soggetto a revisione di aggiornamento decorsi 2 anni dall’avvenuta introduzione, nonché basato sulla costante valutazione d’impatto e sulla sperimentazione tecnica di processi flessibili e pienamente partecipativi da perfezionare progressivamente, nell’ottica di individuare le migliori forme di protezione a presidio dei giovani.
La ratio della nuova legge
La “ratio” della nuova legge australiana sulla sicurezza online (recante la fissazione di un’età minima per accedere ai social media), ritenuta compatibile con le principali normative internazionali vigenti in materia, mira a “migliorare la sicurezza e il benessere online dei giovani […] generalmente più vulnerabili ai danni associati alle piattaforme”, al fine di salvaguardare, in modo preminente, “l’interesse superiore del minore […] di cui all’articolo 3 della Convenzione sui diritti del fanciullo” (cfr. Explanatory memorandum, p. 10).
In particolare, l’organo assembleare del Commonwealth ha approvato una nuova disciplina che, tra l’altro, modifica le vigenti disposizioni in materia di sicurezza online, con lo specifico intento di regolare, come fattore preventivo di tutela rafforzata contro i possibili pregiudizi configurabili nella sfera personale dei giovani, l’età minima prescritta al compimento dei 16 anni per l’utilizzo delle piattaforme dei social media, ponendo a carico dei gestori telematici una serie di vincoli da osservare mediante l’adozione di misure ragionevoli al fine di verificare il corretto rispetto delle restrizioni imposte dal legislatore.
Disciplina e obblighi per le piattaforme sociali
La Relazione esplicativa (allegata alla nuova legge) precisa che, allo stato attuale, in mancanza di specifiche disposizioni vigenti in materia, l’età minima per accedere ai servizi di social media è stata convenzionalmente fissata nel panorama regolatorio globale al raggiungimento di 13 anni secondo quanto desumibile, in via di interpretazione estensiva, dal richiamato Children’s Online Privacy Protection Act (approvato dal Congresso USA), pur trattandosi, invero, di una disciplina emanata in epoca anteriore all’avvento delle piattaforme sociali e, pertanto, da ritenersi “de facto” inadeguata quando vengono utilizzati tali strumenti da parte dei giovani “nativi digitali”, anche in ragione dei numerosi studi che riportano svariati indici di rischio sullo sviluppo del cervello umano durante la fase adolescenziale oltremodo vulnerabile (cfr. Explanatory memorandum, pp. 1 e 2).
La qualificazione di “piattaforma di social media”
Nell’ambito della Parte 4A della citata legge australiana, con l’intento di delimitare la portata operativa della normativa, viene positivizzata la qualificazione di “piattaforma di social media” rilevante ai sensi e per gli effetti della disciplina applicabile.
Al riguardo, tale nozione (cfr. Sezione 63C) include, in senso ampio e generale, “un servizio elettronico” (così come configurabile a tenore della Sezione 13 della legge sulla sicurezza online), cumulativamente in grado di “consentire l’interazione sociale online tra 2 o più utenti”, di “collegarsi”, nonché di “pubblicare” contenuti, con la sola esclusione delle forme di accesso, in modalità disconnessa, a piattaforme telematiche per la visualizzazione passiva di contenuti multimediali (come ad esempio, YouTube), o per consultare dall’esterno i contenuti pubblicati all’interno delle pagine pubbliche di Facebook (cfr. Explanatory memorandum, p. 4), fatte salve le ulteriori limitate eccezioni da individuarsi con apposite norme emanate dal governo, ad integrazione della legislazione primaria.
Facendo riferimento alla categoria di “piattaforma sociale” elaborata dal legislatore australiano, la relativa fattispecie definitoria, pertanto, identifica nella ricostruzione dei suoi elementi costitutivi le peculiari modalità di funzionamento degli strumenti generalisti utilizzabili massivamente dagli utenti.
Gli obblighi in capo ai gestori dei social media
I gestori dei social media sono tenuti a dimostrare, con onere probatorio posto a loro carico, di aver introdotto, mediante l’adozione di misure ragionevoli, sistemi e processi efficaci in grado di precludere ai minori di età inferiore a quella minima normativamente prescritta (rectius, 16 anni), la possibilità di creare account personali, prevedendosi, in caso di eventuali violazioni riscontrate, l’irrogazione di sanzioni.
La tecnica legislativa adoperata non stabilisce in modo dettagliato, “ex ante”, quali debbano essere le misure ragionevoli adottabili in via generale e astratta per conformarsi alle regole prescritte, probabilmente con l’intento di evitare un approccio definitorio eccessivamente rigido e poco flessibile rispetto alle peculiari specificità rilevabili nella concreta prassi tecnologica (in costante e rapido mutamento evolutivo). Tuttavia, viene comunque precisato, nel rispetto di adeguati standard tecnici, l’obbligo di implementare appositi meccanismi di identificazione, rimessi alla libera valutazione dei gestori delle piattaforme sociali, per consentire di verificare un effettivo accertamento dell’età, vietando l’accesso agli utenti che, in quanto minori di 16 anni, rientrano nei limiti ostativi all’utilizzo dei social media (cfr. Explanatory memorandum, pp. 3 e 4).
Tra gli obblighi positivizzati posti a carico dei gestori delle piattaforme sociali, a presidio della privacy viene, inoltre, sancito il divieto di utilizzare informazioni personali raccolte per scopi diversi da quelli previsti a garanzia delle attività di accertamento dell’età, in mancanza di una preventiva acquisizione del consenso validamente prestato dall’interessato, purché sia volontario, informato, aggiornato, specifico e inequivocabile. In caso contrario, sono stabilite sanzioni fino a 50 milioni di dollari ai sensi della Sezione 13G della legge sulla privacy (cfr. Explanatory memorandum, p. 7).
Il regime sanzionatorio
In virtù della finalità punitiva, dissuasiva e deterrente perseguita dalla nuova disciplina predisposta, tenuto conto del generale quadro normativo di riferimento, desumibile dal Competition and Consumer Act 2010 e dal Privacy Act 1988, il regime sanzionatorio del cd. “Online Safety Amendment (Social Media Minimum Age) Bill 2024” (Divisione 2, Sezioni 63D e ss.) stabilisce ingenti conseguenze patrimoniali a carico dei gestori delle piattaforme sociali nell’ipotesi in cui vengano accertati profili di responsabilità a causa degli inadempimenti addebitabili. Ad esempio, la mancata adozione di misure ragionevoli per impedire agli utenti iscritti al di sotto dei limiti di età fissati di creare un account comporta l’applicazione di 30.000 unità di sanzione civile (equivalenti a 9,9 milioni di dollari); somma aumentata a 150.000 unità di penalità (equivalenti a 49,5 milioni di dollari) se il fornitore è una persona giuridica, in applicazione della Sezione 82 del Regulatory Powers (Standard Provisions) Act 2014. Le predette sanzioni non sono, invece, irrogate agli utenti minori con limiti di età che accedono a una piattaforma di social media, né ai loro genitori, tutori o educatori. Del pari, l’eventuale mancata conformità a codici e/o standard di settore comporta l’applicazione di sanzioni da 500 a 30.000 unità di penalità civile (equivalenti a 9,9 milioni di dollari), elevate a 150.000 unità di penalità (equivalenti a 49,5 milioni di dollari) se la violazione sia stata commessa da persone giuridiche (cfr. Explanatory memorandum, p. 6).
Le proposte normative italiane
Focalizzando, infine, l’attenzione sull’analisi delle proposte normative presentate in Italia, con particolare riferimento alla tutela dei minori su Internet, risultano in corso di esame una serie di disegni di legge che mirano a introdurre nuove forme di protezione per i giovani “nativi digitali”.
Il disegno di legge n. 1771
In particolare, il disegno di legge n. 1771 (recante “Modifiche alla legge 17 ottobre 1967, n. 977, in materia di impiego dei minori nell’ambito delle piattaforme digitali di condivisione di contenuti multimediali, nonché disposizioni sulla diffusione dell’immagine e di contenuti multimediali di minori”) mira a regolare i fenomeni dei “baby influencer” e dello “sharenting”, riguardanti l’impiego e lo sfruttamento commerciale dell’immagine di minori famosi online per promuovere prodotti e servizi con finalità di profitto mediante la diffusione di contenuti multimediali ad essi riferibili, pubblicizzati e condivisi spesso anche con il diretto supporto dei genitori. A tenore dell’art. 1 del menzionato disegno di legge (che modifica a tal fine l’art. 4 della legge 977/1966) in tali ipotesi occorre sempre ottenere l’autorizzazione da parte della Direzione provinciale del lavoro all’impiego dei minori di 15 anni nello svolgimento di “attività lavorative di carattere culturale, artistico, sportivo o pubblicitario e nel settore dello spettacolo, purché si tratti di attività che non pregiudicano la sicurezza, l’integrità psicofisica e lo sviluppo del minore, la frequenza scolastica o la partecipazione a programmi di orientamento o di formazione professionale”, per un periodo non superiore a 6 mesi rinnovabile.
Peraltro, l’autorizzazione è suscettibile di revoca o sospensione in qualsiasi momento ove emergano situazioni potenzialmente lesive della sicurezza e della integrità psicofisica del minore. Inoltre, il nuovo 4-bis della legge 1967/977, introdotto dalla citata proposta normativa, estende il previsto regime di tutela “a qualsiasi impiego e sfruttamento commerciale di minore effettuato su registrazioni sonore e audiovisive o su immagini […] al fine di trasmetterle, a scopo di lucro, su una piattaforma digitale di condivisione di informazioni, suoni, video e immagini”. L’art. 2 attribuisce al minore il diritto alla riservatezza, vietando a “chiunque di diffondere notizie o contenuti multimediali” che lo riguardano “senza che ciò sia nell’interesse primario e oggettivo del minore, secondo i princìpi e i limiti stabiliti dalla Carta di Treviso”. Il successivo art. 3 pone a carico dei gestori delle “piattaforme digitali di condivisione multimediale” l’obbligo di applicare “le misure definite dall’Autorità per le garanzie nelle comunicazioni, di concerto con il Garante per l’infanzia e l’adolescenza e con il Garante per la protezione dei dati personali, sentito il comitato di applicazione del codice di autoregolamentazione media e minori”, con l’intento, tra l’altro, di incrementare il livello di sensibilizzazione in ordine ai “rischi, in particolare psicologici, associati alla diffusione dei predetti contenuti”, nonché di “adottare ogni misura utile per impedire il trattamento a fini commerciali, quali la selezione, la profilazione e la pubblicità basata sul targeting comportamentale, dei dati personali dei minori che verrebbero raccolti dai loro servizi”.
il disegno di legge 1863
Segue la medesima “ratio” ispiratrice il disegno di legge 1863 (recante “Disposizioni per la tutela dei bambini e degli adolescenti nell’utilizzo degli strumenti digitali”), che prevede per tutti i fornitori di servizi della società dell’informazione fruibili in Italia a prescindere dal luogo di stabilimento (cfr. art. 1), l’obbligo di verificare l’età degli utenti, nel rispetto delle modalità tecniche e procedurali stabilite dall’Autorità per le garanzie nelle comunicazioni (AGCOM), sentito il Garante per la protezione dei dati personali, ai fini dell’accertamento dell’età degli utenti (cfr. art. 2). Per rendere effettiva la tutela rafforzata predisposta dal disegno di legge, l’art. 3 precisa che “i contratti conclusi tra i fornitori di servizi della società dell’informazione e i minori di 15 anni sono nulli e non possono costituire idonea base giuridica per il trattamento dei dati personali ai sensi del Regolamento (UE) 2016/679, salvo che il consenso sia stato validamente prestato, per conto dei minori medesimi, da chi esercita la responsabilità genitoriale o dal tutore”. Il successivo art. 5 disciplina i proventi derivanti dalla diffusione di immagini di minori di 15 anni, istituendo un servizio di piattaforma online fruibile quando, rendendosi necessaria l’autorizzazione della Direzione provinciale del lavoro ai sensi dell’art. 4 della legge 1967/977, “la diffusione dei contenuti generati utilizzando l’immagine del minore non è occasionale e produce, o è finalizzata a generare, proventi diretti o indiretti di importo complessivo superiore a 12.000 euro annui”.
Il disegno di legge 1800
Il disegno di legge 1800 (recante “Modifiche all’articolo 37 del testo unico dei servizi di media audiovisivi, di cui al decreto legislativo 8 novembre 2021, n. 208, in materia di impiego dei minori nell’ambito delle piattaforme digitali per la condivisione di video, audio e immagini, e disposizioni concernenti il diritto del minorenne alla rimozione dei dati e dei contenuti che lo riguardano dalla rete internet e dai motori di ricerca”) interviene per rafforzare la tutela della privacy dei minori, esposti a rilevanti rischi di sfruttamento, anche commerciale, della propria immagine, veicolata sulle reti sociali telematiche, da cui discendono pericoli particolarmente insidiosi che incidono sulla riservatezza dei dati personali e sulla sicurezza digitale dei soggetti vulnerabili coinvolti.
Per tale ragione, l’art. 1 della menzionata proposta di legge prevede di effettuare una comunicazione obbligatoria all’Autorità per le garanzie nelle comunicazioni (AGCOM) da parte dell’esercente la responsabilità genitoriale o di chi ne abbia la rappresentanza legale, nel caso in cui avvenga “la diffusione, tramite un servizio di piattaforma per la condivisione di video, audio o immagini, di ogni tipo di contenuto […] nel quale un minore di anni 14 sia il soggetto principale oppure compartecipi al contenuto diffuso dal genitore, al fine di indicare se “il contenuto riguardante il minore sarà sfruttato per fini commerciali e se da tale sfruttamento deriverà un guadagno”. I relativi proventi, in ogni caso, “devono essere versati in un deposito bancario intestato al minore e sono inutilizzabili fino al compimento del diciottesimo anno di età”. L’art. 2 riconosce al minore che abbia compiuto i 14 anni di età la possibilità di esercitare il cd. “diritto all’oblio digitale”, nel rispetto di quanto previsto dagli artt. 17, 21 e 22 del Regolamento (UE) 2016/679, al fine di “ottenere la rimozione dalla rete internet e dai motori di ricerca dei contenuti e dei dati personali che lo riguardano, diffusi anche prima del raggiungimento della medesima età”. L’art. 3 prevede la predisposizione aggiornata del Codice di autoregolamentazione Tv e minori, unitamente all’adozione, mediante decreto del Presidente del Consiglio dei ministri, di “disposizioni e linee guida per i servizi di piattaforme per la condivisione di video, audio e immagini, nell’ottica di informare, con la collaborazione delle associazioni per la tutela dell’infanzia, i minori di 14 anni sulle conseguenze della diffusione di contenuti riguardanti loro stessi o altri minori”, nonché di “adottare le misure appropriate per impedire il trattamento dei dati personali dei minori a fini commerciali”.
Il disegno di legge 1217
Il disegno di legge 1217 (recante “Modifiche al codice in materia di protezione dei dati personali, di cui al decreto legislativo 30 giugno 2003, n. 196, in materia di verifica dell’età degli utenti dei servizi di comunicazione elettronica, e altre disposizioni per la tutela dei minori nella fruizione di tali servizi”) mira a integrare il quadro normativo vigente, al fine di garantire l’attuazione di controlli effettivi sulla verifica dell’età degli utenti digitali che si registrano nelle piattaforme sociali, qualificando come espressamente illecito “l’accesso dei minori di 13 anni ai servizi di comunicazione elettronica, individuati con decreto del Presidente del Consiglio dei ministri, che comportano maggiori rischi per la salute fisica e mentale dei minori e per la loro sicurezza e incolumità” (cfr. art. 1). Il successivo art. 2 stabilisce l’obbligo di installare nei sistemi operativi applicazioni di controllo parentale come specifico adempimento a carico dei “produttori di dispositivi abilitati all’utilizzo di servizi di comunicazione elettronica che danno accesso a contenuti o a modalità di interazione tra gli utenti che possono nuocere alla salute fisica e mentale dei minori e mettere a rischio la loro sicurezza e incolumità”.
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.