Garantire la tutela dei minori e, in particolare, quella degli adolescenti, nei confronti dell’uso quotidiano delle piattaforme digitali, attraverso le quali essi svolgono una incessante interazione virtuale con i propri simili, si pone come una necessità non procrastinabile del corrente millennio.
I pericoli dei social: l’azione legale avviata dalla “Città di New York
Seppure tale problema si sia posto da tempo all’attenzione di medici, psicologi ed esperti del settore dei media, la fotografia della situazione offerta dall’azione legale avviata dalla “Città di New York”, dal “Distretto Scolastico di New York” e dalla “New York City Health and Hospitals Corporation” nei confronti dei gestori dei principali social media desta forti preoccupazioni.
Con l’atto di citazione depositato alla “Superior Court” dello Stato della California il 14 febbraio 2024[1], articolato in sette corposi capitoli, suddivisi su oltre trecento pagine, i ricorrenti hanno convenuto in giudizio le società Meta Platforms Inc., Facebook Holdings LLC, Instagram LLC, Snap Inc., TikTok Inc., Bytedance Ltd, Google Inc. e YouTube LLC, con le relative collegate, formulando al giudice una serie di domande fondate sul presupposto che le istituzioni della città metropolitana di New York abbiano patito, e tuttora subiscano, danni permanenti alla salute e alla sicurezza pubblica, all’ordine sociale e al benessere psicofisico della cittadinanza, a causa dell’uso compulsivo delle piattaforme digitali di social network che i convenuti avrebbero deliberatamente progettato e sviluppato, con il fine di capitalizzare la vulnerabilità di bambini e adolescenti, attraverso l’inserimento nei loro algoritmi di alcune funzionalità destinate a generare in loro comportamenti basati sull’uso compulsivo e sulla dipendenza da tali strumenti di comunicazione e di condivisione sociale.Nel fare ciò i titolari dei principali social network avrebbero omesso di informare gli utenti dei rischi connessi all’utilizzazione estensiva dei loro servizi, essendo peraltro consapevoli, alla stregua dei dati in loro possesso, delle possibili conseguenze derivanti dalla frequenza e dall’uso compulsivo delle piattaforme online che ne avrebbero potuto fare gli utenti più giovani.
Effetti dell’utilizzo incontrollato dei social media sui minori
I ricorrenti, nel citare a giudizio le imprese convenute, rispettivamente titolari dei social media Facebook, Instagram, Snapchat, TikTok e YouTube, hanno formulato in atti la richiesta di fissazione di un “Jury Trial”[2], affinché in esito dello stesso venga emesso un ordine del giudice volto ad accertare l’avvenuta violazione dei gestori di tali piattaforme online delle norme di legge dello Stato di New York volte a contrastare gli illeciti commessi contro la salute dei cittadini posti in essere interferendo con i diritti del pubblico in generale (c.d. “Public Nuisance”), una forma di responsabilità extracontrattuale o aquiliana, a volerla tradurre nelle disposizioni del nostro ordinamento giuridico.
Conseguentemente, gli attori chiedono alla Superior Court adita di ordinare ai convenuti di porre fine agli atti di disturbo pubblico loro ascrivibili, prevenendo ogni ulteriore futura ripetizione degli illeciti, con la liquidazione ai ricorrenti del risarcimento del danno, che viene chiesto debba includere – oltre ai danni puntivi – una somma atta a finanziare forme di educazione preventiva all’uso dei social media da parte degli utenti danneggiati e così pure il trattamento sanitario riabilitativo per coloro i quali ne avessero bisogno come effetto degli illeciti attribuiti alle imprese citate in giudizio.
L’esame della narrativa offerta dai legali della Città di New York e dagli altri attori propone un’immagine inquietante di quelli che vengono descritti alla stregua di effetti diretti dell’utilizzo incontrollato dei social media, in particolare nei riguardi degli utenti di età inferiore ai 13 anni, i cui dati personali non potrebbero essere trattati, e i quali non dovrebbero avere accesso a tali piattaforme senza il controllo dei genitori (c.d. “parental control”)[3] ma che, invece, li utilizzano in maniera massiva per le scarse misure di vigilanza di cui sarebbero munite le piattaforme digitali oggetto di causa.
In base alla prospettazione dei fatti attribuiti in termini generali a tutti i soggetti convenuti in giudizio[4], questi ultimi avrebbero indirizzato i loro servizi online ai bambini in età scolare, i quali rappresenterebbero l’obiettivo principale da raggiungere, in quanto essi, attraverso un utilizzo compulsivo di dette piattaforme, ne diverrebbero fortemente dipendenti, tanto da potere essere influenzati anche dai messaggi pubblicitari profilati in base alle loro abitudini e veicolati dai gestori sulle pagine web degli utenti.
Il senso di ansietà e depressione legato al desiderio di riconoscimento social
Gli attori si soffermano, a sostegno delle proprie tesi circa l’improprio coinvolgimento degli adolescenti nell’impiego sfrenato dei social, su taluni studi scientifici che riguardano il funzionamento dell’apparato cervicale delle fasce più giovani degli utenti i quali, per la conformazione non totalmente sviluppata della corteccia cerebrale prefrontale, avrebbero maggiori difficoltà a prevenire atti impulsivi e a regolare le loro risposte emozionali verso i contenuti e gli stimoli provenienti dall’uso dei social media.
Secondo le tesi dei ricorrenti, il fatto che gli utenti adolescenti, molte volte studenti delle scuole primarie, ricorrano all’uso sistematico, incontrollato e incessante dei social media, genera in loro il desiderio di ottenere il riconoscimento per quanto essi postano o scrivono, dicono o fanno in tale contesto, cioè l’ottenimento di un gesto di approvazione che si traduce nei “like” o in analoghi segni di consenso al loro operato da parte dei propri interlocutori.
Tali gesti generano nel cervello un rilascio di dopamina e di oxitocina (“ormoni felici”), che si ripete e si accresce ogni volta gli utenti ottengono il consenso altrui sul proprio agire. Di contro, quando l’attesa del gesto di approvazione viene a mancare – osservano i ricorrenti facendo leva sulle opinioni dei rapporti medico-scientifici richiamati in atti – la sensazione che ne deriva in particolare agli utenti in giovane età si esplica in un senso di ansietà e di depressione. Inoltre, in base a quanto intenso si presenti il venire meno del riconoscimento e, quindi, dell’emissione nel cervello della dopamina, i sintomi sopra descritti si acuiscono portando a sofferenza, alterazioni dell’umore, irritabilità.
Questi effetti, a parere degli attori, a lungo termine possono interferire con lo sviluppo corretto della corteccia cerebrale, incidendo potenzialmente sulla memoria, sul ragionamento, sulla capacità di pianificare, sull’attenzione, sul controllo dei freni inibitori e sulla valutazione del rischio.
Un rischio generato in maniera cosciente e deliberata
I fattori sopra descritti, che incidono sul funzionamento cerebrale dei giovani non ancora cerebralmente formati, sarebbero stati generati in maniera cosciente e deliberata da coloro i quali hanno ideato, sviluppato, posto in funzione e implementato gli algoritmi e le funzionalità dei social media in questione, tanto da prevenire il controllo, sia da parte degli adolescenti che dei loro genitori, di questi stimoli, che influiscono negativamente sul comportamento dei giovani quando essi vengono a mancare.
A tale negativa componente che caratterizza le piattaforme online, secondo quanto viene loro addebitato dai ricorrenti, essi aggiungono la circostanza che l’utilizzo da parte dei minori dei social media, così come essi sono stati oggi strutturati e sviluppati, porta a una competizione sfrenata fra i giovani partecipanti, tanto da incidere anch’essa sulla loro salute mentale, favorendo altresì nei soggetti più deboli, comportamenti volti al disordine alimentare e sintomi di depressione, che nel tempo possono condurre anche all’autolesionismo.
Verifica dell’età: sistema inefficace
Quanto sopra brevemente descritto sarebbe ulteriormente aggravato dal fatto che non esisterebbe un efficace sistema di verifica dell’età dei soggetti registrati sulle piattaforme in questione e non esisterebbero limiti orari o di durata di utilizzo dei social media da parte degli utenti, nel mentre i gestori delle piattaforme online avrebbero sviluppato sistemi di “riconoscimento individuale intermittente” (“IVR”), così da tenerli costantemente agganciati alla propria pagina web, rafforzando in tal modo la dipendenza e il desiderio di competizione, alimentati ad arte dai gestori dei social network.
Questi comportamenti genererebbero nel tempo sugli individui un effetto simile a quello prodotto dalle slot machine, in cui a seconda dell’esito del tiraggio della leva si gratifica o si frustra il giocatore, inducendolo a provare e riprovare l’esperimento per un numero indefinito di volte.
L’uso compulsivo generalizzato da parte dei più giovani delle piattaforme di social media detenute dalle imprese convenute, avrebbe condotto gli adolescenti a farne uso anche durante l’orario scolastico, con una tendenza all’incremento nel tempo e negli accessi, tanto da distoglierli dallo studio e da renderli dipendenti da tali servizi, incapaci di allontanarsene ed impossibilitati a farlo, anche a causa degli ostacoli frapposti dagli algoritmi inseriti dai gestori delle piattaforme alla loro dissociazione dal legame stretto che si è creato ed alimentato con il fornitore dei contenuti.
Social media: i danni causati all’intera comunità
In questo contesto fortemente critico – sostengono le istituzioni newyorkesi che agiscono in giudizio – gli investimenti e le iniziative da loro svolte non sono in grado di fronteggiare adeguatamente i gravi problemi causati alla salute mentale dei giovani utenti, in quanto i loro sforzi giustificati ed appropriati in termini di investimento sarebbero stati frustrati dal comportamento delle imprese convenute le quali, non solo favorirebbero l’accrescersi dei problemi riscontrati nella salute dei loro utenti di età scolare, ma – pur consapevoli de rischi provocati dall’uso dei social media da essi gestiti ed orientati – avrebbero causato gravi danni all’intera comunità cittadina e al bilancio del governo locale, impegnato in un impari sforzo diretto a rimediare alla situazione di deterioramento fisico e mentale dei soggetti che si trovano in stato di costante dipendenza nei confronti dei servizi online offerti dai convenuti.
Se questa, quindi, potesse costituire una rappresentazione dei fatti conforme alla realtà, i problemi e le domande svolte dagli attori di fronte alla Superior Court della California, non dovrebbero essere ignorate dalle istituzioni che operano dall’altra parte dell’Atlantico e in quei paesi che – a differenza di quelli che impongono severi divieti a un uso dei social media da parte di studenti e minori per minutaggi non eccedenti le due ore al giorno[5] – vedono le giovani generazioni fare un uso intenso dei social media, ma non hanno ancora avuto la percezione o la contezza di situazioni analoghe a quelle sopra illustrate.
Le normative europee e italiane a tutela dei minori nell’ambito digitale
Dato atto dei temi principali che sono oggetto di controversia negli Stati Uniti, è opportuno proporre al lettore un quadro sintetico delle norme sui servizi media che costituiscono la spina dorsale della tutela dei minori nell’Unione Europea e, in particolare, in Italia[6]. Nell’ordinamento giuridico comunitario europeo e nel nostro paese, la tutela dei minori in ambito televisivo risale al lontano 1989, quando, con l’approvazione della Direttiva 89/552/CE, nota con il titolo di “Televisioni senza Frontiere”, si era stabilito (all’art. 22, primo comma) che: “Gli Stati membri adottano le misure atte garantire che le trasmissioni delle emittenti televisive soggette alla loro giurisdizione non contengano alcun programma che possa nuocere gravemente allo sviluppo fisico, mentale o morale dei minorenni, in particolare i programmi che contengano scene pornografiche o di violenza gratuita”[7].
A bene guardare, l’esigenza che si manifesta oggi è proprio quella di garantire che i servizi audiovisivi, al pari delle piattaforme digitali e i social media in esse ospitati, non nuocciano gravemente allo sviluppo fisico, mentale o morale dei minorenni. Tale esigenza, irrinunciabile e indifferibile, va perseguita adeguando al mutamento tecnologico, la normativa in materia.Sovvengono, a tale proposito, le disposizioni introdotte nell’Unione Europea attraverso la Direttiva 2018/1808 del 14 novembre 2018 di modifica della normativa riguardante i servizi media audiovisivi[8].
Invero, gli artt. 37, 38, 41 e 42 del D.lgs. 208 dell’8 novembre 2021, nel dare attuazione al sopra citato provvedimento comunitario, hanno stabilito precise regole cui devono attenersi i fornitori di servizi di “condivisione di video” rispetto all’uso di tali piattaforme da parte dei minori.[9] L’art. 37, nel porre divieti afferenti all’offerta televisiva e a quella dei servizi audiovisivi non lineari estendendo l’ampiezza delle disposizioni adottate in precedenza, richiama le regole del “Codice di autoregolamentazione media e minori”, precisando al comma 9 che “I dati personali relativi a minori comunque raccolti dai fornitori di servizi di media audiovisivi in applicazione delle disposizioni del presente articolo non possono essere trattati a fini commerciali e, in particolare, a fini di marketing diretto, profilazione e pubblicità mirata sulla base dei comportamenti rilevati”.
Avuto riguardo ai “servizi di piattaforma per la condivisione di video” (Art. 41), questa disposizione richiama i dettami stabiliti per la tutela dei minori, già previsti per la programmazione televisiva e per quella attuata attraverso i media audiovisivi (par. 7, lett. a), introducendo con il successivo art. 42, l’obbligo per gli intermediari di adottare misure di tutela dei minori, in particolare per evitare che i programmi e le comunicazioni commerciali possano nuocere al loro sviluppo “fisico, mentale o morale.”
A tale scopo il comma 3 della citata norma prevede che vengano promosse forme di co-regolamentazione e di autoregolamentazione della materia, “sentito il Comitato di applicazione del Codice di autoregolamentazione media e minori”, con la finalità (comma 4) di “ridurre in maniera efficace l’esposizione dei minori di anni dodici (12) alle comunicazioni commerciali audiovisive relative a prodotti alimentari, inclusi gli integratori, o bevande che contengono sostanze nutritive e sostanze con un effetto nutrizionale o fisiologico, quali in particolare i grassi, gli acidi grassi trans, gli zuccheri, il sodio e il sale, la cui assunzione eccessiva nella dieta generale non è raccomandata. I codici garantiscono inoltre che le comunicazioni audiovisive commerciali non accentuino la qualità positiva degli aspetti nutrizionali di tali alimenti e bevande”.
La stessa norma include ulteriori obblighi che fanno capo agli intermediari dei servizi di condivisione, stabilendo che essi siano tenuti a:- predisporre sistemi per verificare, nel rispetto della normativa in materia di protezione dei dati personali, l’età degli utenti delle piattaforme di condivisione di video per quanto attiene ai contenuti che possono nuocere allo sviluppo fisico, mentale o morale dei minori (lett. f);- dotarsi di sistemi di controllo parentale sotto la vigilanza dell’utente finale per quanto attiene ai contenuti che possano nuocere allo sviluppo fisico, mentale o morale dei minori (lett. h).Questi obblighi devono essere assolti escludendosi in ogni caso che i dati personali dei minori, raccolti o altrimenti generati, possano essere trattati dai gestori delle piattaforme online a fini commerciali.
Appare chiaro quindi che le norme sopra citate mirano tutte a creare un ambiente online più sicuro per i minori e a garantire che le piattaforme di social media si assumano seriamente le proprie responsabilità nel proteggere i giovani utenti da potenziali danni o dallo sfruttamento dei loro dati personali.
Le recenti delibere dell’Agcom a tutela dei minori nel cyberspazio
Sullo stesso piano normativo, inteso a regolare e ad impedire che i minori subiscano danni psico-fisici derivanti dall’uso dei servizi on-line, si collocano due importanti Delibere dell’Agcom: la n. 160/21/CONS del 24 giugno 2021 che avvia il procedimento istruttorio di attuazione dell’art. 7-bis del D.L. 28/2020 in materia di “Sistemi di protezione dei minori dai rischi del cyberspazio” e la Delibera n. 9/23/CONS del 25 gennaio 2023 (entrata in vigore il 21 novembre 2023), la quale ha fissato le linee guida che identificano le categorie di contenuti che i genitori possono bloccare o limitare nell’accesso da parte dei minori, utilizzando sistemi di controllo parentale (SCP). La stessa delibera ha individuato i requisiti minimi di cui i fornitori dei servizi di connessione alla rete devono dotare tali apparati di controllo, le modalità con cui gli stessi devono essere realizzati, nonché i sistemi che debbono essere adottati per la loro configurazione e per l’impiego da parte degli utenti, a titolo gratuito.Le disposizioni da ultimo implementate in Italia, seppure non specificamente rivolte ai social media, provano che gli sforzi compiuti per la tutela dei minori nel mondo digitale necessitano solo di trovare adeguata e sistematica attuazione.
Digital Service Act e la protezione dei minori online
In questo senso, il Regolamento che incorpora il testo finale del Digital Service Act, pubblicato il 27 ottobre 2022 e in vigore per tutti i soggetti cui si indirizza dal 14 febbraio 2024, ha previsto all’art. 28 che i minori debbano usufruire di un “elevato livello di tutela della vita privata, di sicurezza e di protezione”, quando essi utilizzano le piattaforme online.
La stessa norma, seppure sintetica e non troppo chiara, esclude che i messaggi pubblicitari inseriti sulle stesse piattaforme possano essere indirizzati ai minori sulla base della profilazione dei loro dati personali, quando i fornitori di tali servizi siano “consapevoli con ragionevole certezza” che si trovano di fronte a utenti di giovane età. Rilevano nella lettura e nell’interpretazione della norma sopra ricordata i “Recital” che anticipano il contenuto precettivo della disposizione.
Vanno quindi presi in esame con l’art. 28, i “considerando” n. 81, 82 e 83 (cui vanno aggiunti il n. 34 e il n. 35) del Regolamento, la cui analisi sistematica ad uno con quella del precetto normativo consente di integrarlo con le seguenti indicazioni. I minori devono: essere posti in condizione di: a) conoscere il funzionamento del servizio online loro offerto; b) di evitare i contenuti per essi nocivi, anche per il tramite degli strumenti di parental control; c) di comprendere se e in che misura la progettazione delle piattaforme digitali possa comportare per essi dipendenza.
Conclusioni
Temi questi che abbiamo visto stare alla base delle contestazioni mosse dagli attori nella causa che la Città di New York ha avviato verso le principali piattaforme online di fronte ai giudici della California.Si tratterà quindi di valutare anche da parte delle istituzioni del Vecchio Continente se i problemi che sono stati evidenziati e portati all’attenzione dei magistrati statunitensi da parte dei soggetti danneggiati, i quali agiscono anche nell’interesse della collettività, si presentino anche nel contesto dei nostri giovani utenti. Ove la risposta fosse affermativa tali situazioni andranno recepite e affrontate per evitare conseguenze difficilmente reversibili.
Note
[1] Qui si trova il collegamento ipertestuale al testo del ricorso oggetto di esame: https://www.nyc.gov/assets/home/downloads/pdf/press-releases/2024/2024-02-14%20City%20of%20New%20York%20Complaint%20021424.pdf?utm_medium=email&utm_name=&utm_source=govdelivery
La competenza del tribunale della Superior Court of California è stata determinata dal fatto che i convenuti hanno tutti la sede operativa e svolgono le loro attività di impresa nello Stato della California.
[2] Si tratta della domanda giudiziale volta a fare sì che il processo venga demandato, dopo la fase istruttoria condotta dal giudice, a una giuria che dovrà prende la decisione in merito alla fondatezza delle domande svolte dagli attori e alla misura del risarcimento.
[3] I sistemi di controllo da parte dei genitori sui social media risultano spesso inadeguati, in quanto richiedono nella maggior parte dei casi la richiesta di adesione a tale strumento di controllo da parte dell’utente, pur se minore. Se un adolescente aderisce a tale richiesta, il sistema consentirà ai genitori di impostare sulla pagina del minore i limiti di tempo da essi stabiliti alla sua presenza on-line e di verificare chi segue o è seguito dal minore. Ai genitori sarà impedita la visione dei messaggi del minore scambiati con i terzi. Inoltre, negli Stati Uniti, il Children’s Online Privacy Protection Act (COPPA) mira a tutelare i dati personali dei minori di anni 13, imponendo restrizioni, oltre che avuto riguardo al consenso degli esercenti la potestà genitoriale per l’utilizzo dei dati del minore, anche alla pubblicità diretta all’utente di età inferiore ai 13 anni. La legge, entrata in vigore nell’anno 2000, è stata interata nel mese di dicembre 2012 con prescrizioni della Federal Trade Commission, la quale ha introdotto prescrizioni più stringenti sul consenso parentale e la conoscibilità da parte loro delle informazioni raccolte sul minore.
[4] Avuto riguardo a ciascuna piattaforma social gli attori hanno inserito nell’atto di citazione una ficcante analisi del loro funzionamento e degli effetti che essi assumono essere stati cagionati ai minori. La descrizione del funzionamento e dei presunti danni causati dalle piattaforme di social media oggetto della causa occupa le pagine da 19 a 254 del complaint.
[5] Questa è la posizione di recente assunta dal governo cinese secondo la CNN: https://edition.cnn.com/2023/08/03/tech/china-minors-mobile-phone-limits-intl-hnk/index.html
[6] La tutela dei minori è stata ampiamente convalidata dai trattati internazionali in materia, a cominciare dalla Convenzione dell’Aja del 1961 fino alla Convenzione Internazionale dei diritti del fanciullo firmata a New York nel 1989 e alla Carta dei diritti fondamentali dell’UE firmata a Nizza il 7 dicembre del 2000.
[7] Tale norma, dal contenuto esplicitamente conforme alle esigenze di tutela dei minori che riscontriamo oggi in riferimento all’impiego dei social media, ha avuto nel tempo un’evoluzione progressiva sia nelle diverse revisioni della Direttiva T.S.F. sopra ricordata che nel contesto normativo nazionale che le ha recepite ed integrate. In tal senso, aveva provveduto in primo luogo l’art. 9 del Decreto legislativo 15 marzo 2010, n. 44, il quale, nel dare attuazione alla Direttiva 2007/65/CE relativa ai servizi media audiovisivi, aveva modificato l’art. 34 del nostro Testo Unico dei Media Audiovisivi (TUSMA) in materia di programmazione media per i minori. Tale disposizione prevedeva, oltre ai limiti di programmazione dei film per adulti, il divieto di trasmissioni che “possono nuocere gravemente allo sviluppo fisico, psichico o morale dei minori (…)” facendo salve le norme speciali per le trasmissioni ad accesso condizionato (…) che “comunque impongano l’adozione di un sistema di controllo specifico e selettivo che vincoli alla introduzione del sistema di protezione tutti i contenuti di cui al comma 3”.
[8] Sui contenuti della normativa in argomento si può leggere il seguente articolo: https://www.agendadigitale.eu/mercati-digitali/product-placement-verso-lautoregolamentazione-per-produttori-emittenti-e-concessionarie/ il quale riporta informazioni anche sull’attuazione in Italia del nuovo testo della Direttiva AVMS del 2018.
[9] Nei confronti di detti intermediari della società dell’informazione si applicano le regole del D. Lgs. 70/2003 che stabiliscono i criteri di responsabilità previsti dalla Direttiva sul Commercio Elettronico e ora quelli introdotti dal Regolamento denominato “Digital Service Act” (Regolamento EU/2022/2065) che ha modificato la precedente Direttiva.