Il minore è un soggetto emblematicamente fragile e riconosciuto come destinatario di tutele e garanzie da parte dell’ordinamento giuridico affinché il suo sviluppo psicofisico sia protetto da rischi e pericoli.
All’interno del contesto digitale, poi, il minore risulta essere ancora più esposto: il web è infatti connotato da un’elevata capacità di produrre effetti significativi per magnitudo d’impatto, propagazione e persistenza e, pertanto, è ancor più sentita e significativa l’esigenza di individuare e definire delle tutele adeguate.
Minori e Social Network
I minori si approcciano sin da giovanissimi al mondo dei social network, che spesso è il principale ambiente digitale all’interno del quale si trovano ad operare. Da ciò deriva una forte necessità di protezione che può e deve concentrarsi su molteplici ambiti quali ad esempio l’accesso ai contenuti, il ruolo di utente attivo nella produzione o diffusione degli stessi, nonché le relazioni sociali che possono sviluppare al suo interno.
Se infatti, in generale, è interesse del gestore dei social network rendere il proprio ecosistema non solo accessibile al più ampio numero possibile di utenti ma anche in grado di alimentare e generare un significativo numero di attività al suo interno, è opportuno considerare che, ove la fruizione dei detti social network venga effettuata da soggetti non in grado di adottare un approccio consapevole, diventa necessario bilanciare adeguatamente i rischi generati da questa partecipazione. In caso contrario saranno inevitabilmente esposti a tutti gli effetti negativi che potrebbero derivarne quali danni psicologici – fra cui rientrano ad esempio dipendenze o depressione – nonché l’esposizione a pericoli per la propria integrità fisica.
Pertanto, tenendo conto dell’evoluzione tecnologica e riconoscendone tutti gli spunti ed opportunità naturalmente connaturati ad essa, diventa essenziale individuare dei principi di diritto che non seguano la tecnologia ma possano ragionevolmente guidarla, prevederla ed adeguarsi su un piano operativo, declinandosi e andando a definire i confini di quell’utilizzo – o anche: accesso – accettabile da parte di tutti quei soggetti che si trovano in posizioni di particolare fragilità.
La risposta, è bene ricordare, non può che essere trasversale per istituzioni e famiglie, richiedendo una sinergia nella continua ricerca di un percorso per un sano sviluppo della socialità digitale del minore tenendo conto, da un lato, della sua non esclusione e dall’altro della prevenzione ponderata di rischi e pericoli.
Il caso “Blackout Challenge” e le reazioni
I rischi e pericoli da considerare sono tutt’altro che inattuali o il frutto di eccessi di astrazione: nel gennaio 2021 c’è stata la tragica notizia di cronaca riguardante una bambina palermitana di 10 anni ritrovata dai familiari in gravissime condizioni, impossibile da salvare nonostante l’intervento dei sanitari. Già stando alle prime ricostruzioni dei fatti, la piccola sarebbe morta soffocata a seguito della partecipazione alla c.d. Blackout Challenge, una sfida lanciata su TikTok, consistente nel dimostrare la propria resistenza allo svenimento e all’asfissia mantenendo un qualche tipo di cintura stretta al collo. Anche oltreoceano la stessa sfida è stata oggetto di cronaca in seguito alla morte di una bambina di 8 anni di Temple (Texas) e una bambina di 9 anni di Milwaukee (Wisconsin) per per auto-strangolamento. In risposta a queste ultime due tragiche morti, la Social Media Victims Law Center (SMVLC)[1], su mandato dei genitori, ha intentato una causa di risarcimento nei confronti di TikTok con l’accusa di aver intenzionalmente e ripetutamente reso visibili i video della sfida ai bambini per effetto del funzionamento del proprio algoritmo, incentivandoli così a partecipare alla stessa ed anteponendo di conseguenza il conseguimento del profitto – in termini di maggiori visualizzazioni e introiti pubblicitari – alla salute dei propri utenti.
Social e minori, la guida per i genitori: come evitare gli effetti tossici
Negli Stati Uniti la Social Media Victims Law Centre ha recentemente dichiarato di aver depositato una causa nei confronti delle piattaforme “Discord” e “Roblox” per aver consentito e facilitato lo sfruttamento sessuale di una ragazzina – che al momento in cui ha iniziato a frequentarle aveva 9 anni – esponendola a dipendenze e tentativi di suicidio. In questo caso le piattaforme, stando alle accuse, assumono il ruolo di media degli intenti criminali originati da altri e consentendone una realizzazione più efficace.
La gamma di fenomeni di sfruttamento e violenza del minore, nelle sue manifestazioni tradizionali, è purtroppo ben nota alla società e alle istituzioni in quanto affonda le proprie radici nella più ampia disciplina della tutela dei minori che da sempre mette alla prova legislazioni e Autorità nel provvedere a strumenti efficaci di contrasto e prevenzione, tuttavia, le loro manifestazioni digitali assumono un carattere più pervasivo e pericoloso. Infatti, secondo i dati di Telefono Azzurro esposti alla giornata contro la pedofilia e la pedopornografia 2022, si rileva un aumento del 64% della segnalazione online di materiale CSAM – Children Sexual Abuse Material.
Il Garante Privacy italiano e TikTok
In Italia, all’indomani della notizia della tragedia verificatasi a Palermo, il Garante Privacy, che già nei mesi precedenti aveva avviato un procedimento nei confronti di TikTok contestando una “scarsa attenzione alla tutela dei minori, divieto di iscrizione ai più piccoli facilmente aggirabile, poca trasparenza e chiarezza nelle informazioni rese agli utenti, impostazioni predefinite non rispettose della privacy”, aveva così disposto d’urgenza il blocco dei trattamenti dei dati degli utenti fino all’implementazione di procedure efficaci per la verifica dell’età. Efficacia che è tutt’ora vigilata dall’Authority dal momento che TikTok ha adempiuto alle richieste in seguito ad un’interlocuzione e all’inserimento di misure ulteriori per escludere utenti al di sotto di 13 anni; tali misure includono, ad esempio, anche la proposta di impiegare un sofisticato sistema di intelligenza artificiale capace, tramite analisi di alcuni elementi come il linguaggio, gli interessi o i gruppi frequentati, di stabilire l’età effettiva dell’utente. A completamento delle stesse società si è inoltre resa disponibile a fornire informative maggiormente accessibili agli utenti e finanziare campagne di sensibilizzazione per ribadire il limite d’età per l’iscrizione e l’impiego della Piattaforma.
L’age verification come soluzione imperfetta
Per quanto le iniziative di TikTok siano apparse certamente lodevoli, già a suo tempo hanno portato ad alcune considerazioni circa le criticità emergenti. Innanzitutto, la richiesta di una data di nascita per consentire l’accesso ad una piattaforma non pare una misura particolarmente efficace poiché il minore, minimamente smaliziato e fortemente determinato, potrebbe superare tale ostacolo con estrema semplicità come dopotutto avviene per gran parte dei siti per adulti. Per quanto riguarda invece la proposta di creare un’intelligenza artificiale che, mediante una serie di input, sia capace di individuare con estrema certezza l’età del soggetto, ci si domanda quali siano i criteri determinanti per distinguere 12 o 13 anni, ad esempio, oppure che grado di apertura si vorrà garantire per l’algoritmo decisionale e quali tutele si prevederanno per garantire il rispetto dell’art. 22 GDPR. È di chiara evidenza, infatti, che il sistema non potrebbe essere in grado svolgere adeguatamente il compito cui è destinato senza svolgere un’attività di profilazione approfondita e continua non solo del minore ma di ogni utente della community. E dunque la proporzionalità deve trovare applicazione, contemperando diritti fondamentali in una misura tale che l’uno non si ponga come tiranno sull’altro, in ossequio al considerando n. 4 GDPR.
L’ulteriore orizzonte prospettato per la risoluzione del problema indicato riguarda l’opzione di verifica dell’identità a mezzo SPID o altro mezzo garantito da un sistema pubblico. Anche qui però non può che porsi un dubbio a riguardo: è davvero necessario – e sicuro – che piattaforme commerciali siano in possesso dell’effettiva verificata identità dei minori insieme all’enorme quantità di dati che già possiedono? Non ci sarebbe il pericolo, ben evidenziato all’interno del GDPR, di aumentare la capacità identificativa dei soggetti e così esporli a maggiori pericoli per le libertà individuali?
E ancora, poiché la raccolta dati sull’identità del minore comincerebbe già ben prima della maggiore età, una volta adulto, le piattaforme avrebbero un profilo estremamente preciso dello stesso. Questo non porterebbe – ancora e maggiormente – a pericoli per le sue libertà fondamentali?
La possibilità di qualsivoglia secondary use di tutti i dati ricavati per effetto di tale attività andrebbe radicalmente escluso, altrimenti la finalità di tutela cui può provvedere un sistema di age verification non sarebbe altro che un pretesto per l’applicazione di impieghi massivi di sistemi di monitoraggio e raccolta dati in difetto, innanzitutto, di un’adeguata base giuridica e trasparenza.
Gli interventi normativi in Italia
TikTok non è ovviamente l’unica piattaforma da prendere in esame per avere cognizione di pericoli e tutele per i minori. Nel caso della bambina palermitana, infatti, dall’analisi del dispositivo sono stati riscontrati anche profili sulle piattaforme Facebook ed Instagram, entrambe gestite da Meta, evidenziando che tanto i contenuti quanto i canali da cui può potenzialmente derivare un danno sono molteplici e diffusi.
Il fenomeno della pornografia non consensuale, fra cui rientra anche l’attività di condivisione e trasmissione di materiale, è un tema di estrema attualità che ha portato all’inserimento tramite il c.d. Codice Rosso (l. n. 69/2019) del reato di “Diffusione illecita di immagini o video sessualmente espliciti” (art. 612-ter c.p.) e ha portato successivamente all’inserimento[2] nel c.d Codice della Privacy dell’art. 144-bis rubricato “Revenge porn”. Questa seconda disposizione consente al Garante di ricevere segnalazioni non solo da soggetti maggiorenni ma anche da parte di minori ultraquattordicenni che abbiano fondato motivo di ritenere che un proprio contenuto sessualmente esplicito in formato digitale[3] possa essere diffuso senza consenso. La norma prevede altresì il termine estremamente breve di 48 ore affinché l’Autorità disponga un provvedimento volto a bloccare alla fonte le condivisioni illecite del contenuto. È lapalissiano che per ottenere l’effettiva operatività della norma sia necessaria o quanto meno auspicata una cooperazione da parte dei gestori delle piattaforme. A tale riguardo, il Garante Privacy ha annunciato una collaborazione con Meta[4], la quale in seguito alla segnalazione dell’Autorità potrà impedire ab origine la pubblicazione del contenuto su Facebook e Instagram. In tal modo, potrebbe prodursi una tutela effettiva, non meramente riparatoria ma anche anticipatoria. Si rileva infine, la lungimiranza legislatore nel permettere, esclusivamente ai fini della presente segnalazione, una sorta di anticipazione della capacità d’agire del minore che non dovrà richiedere l’autorizzazione dei soggetti esercenti la potestà genitoriale, ponendosi in linea con il dispositivo dell’art. 2-quinquies Cod. Privacy che prevede la medesima soglia di età per la validità del consenso digitale del minore.
Il nodo del consenso digitale del minore
Al netto delle soluzioni che, di volta in volta, dalle autorità e dalla società civile vengono sperimentate e considerate, si aggiunge un’ultima notazione. Si parla spessissimo di minori e danni che questi possono subire ma si fa poca attenzione, a monte, al problema dell’accessibilità degli stessi alla rete. Ai sensi dell’art. 8 del GDPR, infatti, nel caso in cui i servizi digitali vengano offerti a minori, “il trattamento di dati personali del minore è lecito ove il minore abbia almeno 16 anni. Ove il minore abbia un’età inferiore ai 16 anni, tale trattamento è lecito soltanto se e nella misura in cui tale consenso è prestato o autorizzato dal titolare della responsabilità genitoriale. Gli Stati membri possono stabilire per legge un’età inferiore a tali fini purché non inferiore ai 13 anni.”[5]. Età che, come anticipato, per effetto dell’art. 2-quinquies Cod. Privacy è di 14 anni per l’ordinamento nazionale.
La condizione che integra la liceità nell’acquisizione di tale consenso è l’impiego nell’offerta dei servizi diretti ai minori di un “linguaggio particolarmente chiaro e semplice, conciso ed esaustivo, facilmente accessibile e comprensibile dal minore”, rafforzando così gli obblighi già contemplati dall’art. 12 GDPR di adottare una forma nelle informazioni e comunicazioni dirette agli interessati “concisa, trasparente, intelligibile e facilmente accessibile, con un linguaggio semplice e chiaro, in particolare nel caso di informazioni destinate specificamente ai minori”.
Giuridicamente, alcuni degli atti negoziali compiuti dal minore sul web, vengono considerati – parallelamente a come accade nel mondo “analogico” – come “atti minuti di vita quotidiana” che possono essere compiuti in quanto non sono idonei ad incidere negativamente sul patrimonio del minore, quali possono essere l’acquisto di bene di scarso valore online, analogamente a come avviane nel mondo “analogico”. In questi casi si realizza una sorta di fictio iuris di rappresentanza in forza della quale il minore agisce in nome del genitore. Per la partecipazione ai social media, tuttavia, la questione è oggettivamente differente dal momento che gli atti compiuti in tale ambito non impatterebbero soltanto – ed eventualmente – sul patrimonio del minore ma sulla propria personalità, sulla formazione della stessa e, come precedentemente detto, si porrebbe il concreto rischio di essere esposto a contenuti non idonei. Una tale partecipazione, dunque potrebbe risultare idonea ad incidere su diritti che l’ordinamento stesso pone in una sfera di inviolabilità tale da renderli finanche indisponibili.
Il ruolo dell’educazione digitale
Sebbene però la norma possa prevedere dei comportamenti e tentare di regolamentarli, è la società ad esprimerli e dunque non può che essere necessario un intervento pedagogico attuato tanto dallo Stato quanto dalle famiglie. L’educazione digitale non deve riguardare solo i minori ma anche i soggetti che ne hanno obblighi di responsabilità e tutela. Diversamente, l’inconsapevolezza di questi ultimi potrebbe portare a maggiori vulnerabilità dei primi.
L’art. 8 del CAD contempla specificamente l’alfabetizzazione informatica dei cittadini, prevedendo la promozione di “iniziative volte a favorire la diffusione della cultura digitale tra i cittadini con particolare riguardo ai minori e alle categorie a rischio di esclusione”, ma tale norma spesso resta nel novero di buone intenzioni e narrazioni, ben lungi dall’attuazione.
E se il sonno della ragione genera mostri, quello della consapevolezza produce facili vittime per tutti quei molteplici mostri che già popolano il mondo, digitale o meno che sia.
Note
- Come si legge sul sito “The Social Media Victims Law Center (SMVLC) works to hold social media companies legally accountable for the harm they inflict on vulnerable users” ↑
- Con il d.l. 8 ottobre 2021, n. 139, convertito, con modificazioni, dalla legge 3 dicembre 2021, n. 205. ↑
- A questo proposito pare interessante notare come la norma indichi in “registrazioni audio, immagini o video o altri documenti informatici a contenuto sessualmente esplicito che lo riguardano” il formato elettronico/digitale del contenuto censurabile a conferma della apertura della norma e validità della stessa nei confronti delle nuove sfide della tecnologia. ↑
- Programma Pilota sulle immagini intime non consensuali (NCII) Programma pilota NCII | Non senza il mio consenso (facebook.com) ↑
- La ratio di tale specifica disposizione, per quanto di immediata comprensione, viene adeguatamente spiegata nel considerando n.38 “I minori meritano una specifica protezione relativamente ai loro dati personali, in quanto possono essere meno consapevoli dei rischi, delle conseguenze e delle misure di salvaguardia interessate nonché dei loro diritti in relazione al trattamento dei dati personali. Tale specifica protezione dovrebbe, in particolare, riguardare l’utilizzo dei dati personali dei minori a fini di marketing o di creazione di profili di personalità o di utente e la raccolta di dati personali relativi ai minori all’atto dell’utilizzo di servizi forniti direttamente a un minore. Il consenso del titolare della responsabilità genitoriale non dovrebbe essere necessario nel quadro dei servizi di prevenzione o di consulenza forniti direttamente a un minore. “ ↑