Sulla scia dei recenti fatti di cronaca, deve necessariamente (ri)aprirsi una seria riflessione sull’utilizzo del web da parte dei minori, e sui rischi a cui gli stessi possono andare incontro, spesso all’insaputa dei genitori.
La verifica anagrafica dell’età dell’utente, attraverso meccanismi cosiddetti di “age verification” come altre forme di tutela improntate su un meccanismo di “parental control”, sono solo alcune delle misure da implementare per la creazione di uno spazio internet che costituisca una opportunità di crescita e non di pericolo per i minori.
Ma con la consapevolezza che nessuna soluzione “tecnica” potrà mai sostituirsi all’educazione che deve partire da famiglia e scuola.
La tutela del minore in Europa
Il Regolamento europeo sulla protezione dei dati personali 679/2016 (Gdpr), sebbene da un lato apra alla possibilità a che anche il minore infrasedicenne possa fruire di servizi resi dalla società dell’informazione esprimendo validamente il suo consenso, dall’altro, ancora tale facoltà ad un assetto normativo fondato sul principio di necessaria tutela del minore, considerato nella sua dimensione fisica e psicologica.
Il considerando n. 38 del Regolamento sancisce chiaramente che “I minori meritano una specifica protezione relativamente ai loro dati personali, in quanto possono essere meno consapevoli dei rischi, delle conseguenze e delle misure di salvaguardia interessate nonché dei loro diritti in relazione al trattamento dei dati personali. Tale specifica protezione dovrebbe, in particolare, riguardare l’utilizzo dei dati personali dei minori a fini di marketing o di creazione di profili di personalità o di utente e la raccolta di dati personali relativi ai minori all’atto dell’utilizzo di servizi forniti direttamente a un minore.”
I profili di fragilità dei minori sono prevalentemente connessi alla difficoltà di discernere il significato e le conseguenze di ciò che agli stessi viene proposto o suggerito, e alla mancanza di capacità di attivare un pensiero critico. Tali aspetti sono stati presi in considerazione dell’European data protection board (di seguito “EDPB”) sotto più profili.
Ricordiamo in questa sede l’adesione dell’EDPB a un orientamento generale volto a scoraggiare le organizzazioni a profilare i dati dei minori per finalità di marketing diretto (Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del regolamento 2016/679 – WP 251); nonché alla particolare attenzione loro dedicata in sede di definizione dei criteri per procedere obbligatoriamente ad una valutazione di impatto in ragione della debole inclinazione ad “opporsi e acconsentire deliberatamente e consapevolmente al trattamento” (Linee guida in materia di valutazione d’impatto sulla protezione dei dati e determinazione della possibilità che il trattamento “possa presentare un rischio elevato” ai fini del regolamento (UE) 2016/679 – WP248)
Sotto il profilo della validità del consenso prestato dal minore l’EDPB sostiene che “Nel fornire servizi della società dell’informazione ai minori sulla base del consenso, il titolare del trattamento dovrà compiere ogni ragionevole sforzo per verificare che l’utente abbia raggiunto l’età del consenso digitale, e le misure dovrebbero essere proporzionate alla natura e ai rischi delle attività di trattamento” (Linee guida 5/2020 sul consenso ai sensi del regolamento (UE) 2016/679 vers. 1.1). Sforzi che devono essere tanto più dettagliati quanto più il rischio connesso al trattamento è alto, e che devono essere realizzati prima dell’inizio del trattamento, in un’ottica conforme al principio di data protection by design.
Questo aspetto costituisce il punto centrale del provvedimento emanato dal Garante per la protezione dati il 22 gennaio 2021 nei confronti di Tik Tok, con il quale, ha disposto “la misura della limitazione provvisoria del trattamento, vietando l’ulteriore trattamento dei dati degli utenti che si trovano sul territorio italiano per i quali non vi sia assoluta certezza dell’età e, conseguentemente, del rispetto delle disposizioni collegate al requisito anagrafico”.
Tale misura ha effetto immediato a decorrere dalla data di ricezione del presente provvedimento dalla società destinataria, fino alla data del 15 febbraio 2021 (salva successiva ulteriore valutazione).
Misure di protezione tecniche e educazione digitale
La presa di coscienza dei rischi insisti nella rete, e l’oggettiva difficoltà dei minori di proteggere sé stessi, ci porta a una importante ricerca sulle modalità con cui è possibile tutelare i giovani utenti, attraverso misure che siano concretamente efficaci e adeguate a tutelare i minori su internet.
Il provvedimento del Garante, benché adottato nei confronti di TikTok, apre ad una riflessione generalizzata circa la mancanza di una tutela effettiva del minore su tutte le piattaforme social e su internet in generale.
Le forti esigenze di protezione, pertanto, non si fermano al mondo dei social network, ma coinvolgono tutto il web e tutte le possibili interazioni tra applicazioni, siti internet, piattaforme e minori. In che modo il minore si collega a internet? Con quali dispositivi? Quali siti internet può visitare? Su quali piattaforme può registrarsi? Può accedere liberamente ai giochi online? A quale community partecipa? Chi ne fa parte oltre a lui?
La molteplicità delle interazioni, connessa alla fragilità, oltre che plasmabilità psicologica del minore, spesso orientata a guardare al “web” come vita reale ricca di amicizie e nuove emozioni, a scapito della vita materiale, sempre più vuota e noiosa (anche per effetto delle misure di distanziamento sociale), possono essere il veicolo per pedofili e malintenzionati, oltre che per l’emulazione di “challenge” nocive spesso lanciate per il soddisfacimento di sadiche ambizioni.
Si comprende chiaramente che la necessità di tutelare il minore sorge dal momento in cui quest’ultimo maneggia un dispositivo con accesso a internet, in quanto la semplice possibilità di navigare in rete dà al minore la possibilità di visualizzare una serie di contenuti non protetti, scandalosi, talvolta macabri oltre che pericolosi per la sua crescita e per la sua integrità psico fisica. In molte piattaforme i contenuti sono visibili da ciascun utente, non richiedendo infatti alcuna registrazione al sito.
Come intervenire quindi?
Educazione digitale
Il problema deve essere affrontato, ancora prima che sotto il profilo tecnico, sotto l’aspetto culturale. Lo Stato, le istituzioni, le associazioni operanti nel settore della tutela dei minori online, ma soprattutto la scuola e la famiglia, devono farsi carico di un nuovo e ben preciso onere formativo che coinvolge quella che potremmo definire “educazione digitale”.
Lo sviluppo esponenziale delle nuove tecnologie impedisce infatti di trovare anticipatamente una soluzione per i singoli casi. Ancora prima della necessaria adozione di un approccio generalizzato ai principi di accountability e di privacy by desing e by default, è fondamentale educare i giovani utenti fin da bambini ad un uso consapevole della rete e dei social network, renderli consci dei rischi, e responsabilizzarli sulle azioni da adottare. La soluzione, quindi, non è demonizzare i social network, ma educare al loro corretto utilizzo.
Meccanismi di age verification
Sotto il profilo tecnico sicuramente l’adozione di meccanismi di age verification può costituire una misura astrattamente idonea a impedire l’accesso ai minori a determinati contenuti, ma è fondamentale che il meccanismo non sia in qualche modo “aggirabile” da parte del giovane utente.
Si precisa che, al fine di permettere il rilascio di un valido consenso, non si tratta di riconoscere l’utente maggiorenne, bensì l’utente che ha compiuto i sedici anni (quattordici in Italia per effetto dell’entrata in vigore del D.lgs. 101/2018) richiesti dal regolamento europeo sulla protezione dati (Reg.UE 679/2016), il quale prevede che, per i trattamenti basati sul consenso che si sostanziano nell’offerta dei servizi della società dell’informazione ai minori, “il trattamento di dati personali del minore è lecito ove il minore abbia almeno 16 anni. Ove il minore abbia un’età inferiore ai 16 anni, tale trattamento è lecito soltanto se e nella misura in cui tale consenso è prestato o autorizzato dal titolare della responsabilità genitoriale.” (art. 8 GDPR)
Da ciò deriva l’inadeguatezza di meccanismi di verifica dell’età basati sulla verifica documentale o sul possesso o meno della patente di guida o di una carta di credito.
Considerata l’importanza e l’urgenza di queste misure di protezione, ma soprattutto la necessità di definire una linea di intervento che non solo TikTok, ma tutti i social network dovranno seguire per implementare il livello di sicurezza delle rispettive piattaforme, e per far sì che le misure di tutela e i meccanismi di age verification che verranno adottati possano essere non solo idonei ad assicurare una adeguata tutela dei giovani utenti, ma rispondenti ad una logica coordinata e armonizzata della protezione dei minori su internet, si rivela quanto mai necessario un intervento unitario dell’EDPB che potrebbe consistere nell’adozione di linee guida per la tutela dei minori su internet e sui social network.
Conclusioni
La tutela del minore è un meccanismo più ampio che deve essere ripensato e ridefinito a tutto tondo nell’era di Internet. Questo comporterà un importante impegno da parte dello Stato, delle Istituzioni, tra cui l’Autorità Garante per la protezione dei dati personali a livello nazionale, e l’European data protection board a livello europeo. Ma l’impegno più importante sarà sicuramente richiesto a coloro che hanno il compito di educare e vigilare sulle attività dei minori online e offline.
“Il mondo di Internet” riferisce Paola Pisano, ministra per l’innovazione tecnologica e la digitalizzazione “è e deve essere uno spazio di libertà. Ma non della libertà di permettere che siano danneggiati soggetti deboli, quali sono i minori, creando sofferenze e permettendo ingiustizie gravi e in troppo casi irreversibili”.