I recenti casi di cronaca che hanno acceso, giustamente, i riflettori sull’utilizzo dei social da parte dei bambini ci portano a riflettere non tanto sui necessari adempimenti che le piattaforme, volenti o nolenti, sono costrette ad attuare per verificare l’età degli utenti, quanto sul ruolo di controllo che devono svolgere i genitori e sull’indirizzo al corretto utilizzo degli strumenti digitali da parte di scuola e educatori.
Senza questa supervisione attiva, che mette il minore al centro del discorso, difficilmente i pur preziosi e puntuali provvedimenti dei garanti potranno sortire un qualche effetto.
Il caso TikTok
Questi temi sono tornati alla ribalta in seguito alle polemiche suscitate da TikTok, il sociale più amato dai ragazzini.
Polemiche non del tutto nuove: già nel 2019, la Federal Trade Commission, l’agenzia statunitense a tutela dei consumatori, aveva comminato al social network di proprietà della società cinese ByteDance una multa di 5,7 milioni di dollari – la più alta sanzione dell’ente statunitense per un caso che riguarda la privacy – per aver raccolto dati dei minori di 13 anni senza il preventivo e necessario consenso dei genitori.
Anche in Europa TikTok è da tempo sotto l’osservazione di varie Autorità: il garante francese e quello britannico sollevarono dubbi circa il fatto che all’interno della piattaforma l’utente (anche minorenne) potesse ricevere messaggi da chiunque e, nell’ambito dell’iscrizione al social, si potesse facilmente aggirare il controllo sull’età minima.
Con un comunicato stampa sul proprio sito web, il Garante italiano, palesando anch’esso le proprie perplessità sui trattamenti operati dal social network, ha annunciato l’apertura di un procedimento volto a verificare che tutte le disposizioni privacy, in particolare quelle riguardanti i minori, siano state rispettate dalla società nell’erogazione dei servizi.
Le polemiche sula verifica dell’età degli utenti
Nel mirino del Garante anzitutto le modalità di iscrizione al social network.
Il divieto di iscrizione al di sotto dei 13 anni di età è apparso facilmente aggirabile utilizzando una data di nascita falsa. Ciò ha dimostrato come non fosse impedito ai minori di anni 13 di iscriversi, e inoltre che, in ogni caso, la verifica sull’età dell’utente venisse demandata alla compilazione di un form, con la conseguente omissione circa la raccolta del consenso autorizzato dei genitori in caso di minori di 14 anni.
Ma non è tutto, se si considera la specifica disciplina nazionale sul trattamento dei dati dei minori nella società dell’informazione.
Con riguardo alla disposizione violata, nello specifico, l’art. 8 del GDPR stabilisce che, qualora nell’ambito dell’offerta diretta di servizi della società dell’informazione ai minori si applichi la base giuridica del consenso, il trattamento di dati personali del minore è lecito ove il minore abbia almeno 16 anni. Ove il minore abbia un’età inferiore ai 16 anni, tale trattamento è lecito soltanto se e nella misura in cui tale consenso è prestato o autorizzato dal titolare della responsabilità genitoriale. Invero, tale limite può essere ulteriormente abbassato dagli Stati nazionali: per esempio, attraverso il decreto di adeguamento del Codice Privacy, il legislatore italiano ha fissato il limite di età da applicare in Italia in 14 anni.
Dunque, TikTok non solo non ha verificato l’età anagrafica dei propri utenti, ma ha omesso di dare applicazione alla disciplina italiana in occasione della erogazione dei propri servizi presso la nostra region.
Inoltre, il social network, preimpostando il profilo dell’utente come “pubblico”, consente di default la massima visibilità e l’accesso ai contenuti pubblicati. Tale impostazione predefinita è apparsa palesemente in contrasto con le previsioni che stabiliscono l’adozione di misure tecniche ed organizzative che garantiscano la possibilità di scegliere se rendere o meno accessibili dati personali ad un numero indefinito di persone, per non parlare delle possibili conseguenze dannose che un’esposizione così massiva e non verificata può cagionare ai minori, in questo modo facilmente raggiungibili da qualsiasi tipo di contenuto illecito e/o richiesta fraudolenta.
Senza contare quanto rilevato in punto di informativa poco chiara ed accessibile al pubblico dei minori, l’aspetto della data retention indefinita e l’omessa indicazione in ordine alle garanzie per il trasferimento dei dati all’estero (si ricordi la provenienza cinese del titolare del trattamento).
Il blocco degli account e le misure adottate
Il 22 Gennaio, alla luce del gravissimo fatto avvenuto a Palermo, dove una bimba di soli 10 anni è morta soffocata nel bagno mentre partecipava ad una “challenge”, il Garante ha disposto il blocco di tutti gli account “per i quali non è stata accertata con sicurezza l’età anagrafica”, inoltrando il provvedimento di blocco anche all’Authority irlandese, considerato che TikTok ha recentemente fissato i propri stabilimenti europei in Irlanda.
Nel procedimento instaurato dal Garante italiano, la società cinese ha avuto tempo sino al 21 gennaio 2021 per inoltrare memorie difensive o chiedere di essere sentita sugli aspetti rilevati in istruttoria.
A partire dal 9 febbraio, dando attuazione alle richieste del Garante, a quanto pare TikTok si adopererà per bloccare l’accesso agli utenti italiani per una ulteriore verifica sull’età anagrafica: una volta identificato un utente al di sotto dei 13 anni, il suo account verrà rimosso.
In che modo TikTok opererà la verifica? La società si è impegnata a valutare l’uso di sistemi di intelligenza artificiale a fini di “age verification”.
Considerati gli elementi della ricorrenza di una decisione automatizzata, dell’elaborazione in larga scala e delle categorie vulnerabili impattate, questa attività presenta una peculiare delicatezza che non potrebbe prescindere dal prior-check dell’Autorità di controllo – a questo punto a capofila irlandese – in sede di valutazione d’impatto sul trattamento, obbligatoriamente prescritta dall’art. 35 del GDPR.
Tra le misure, TikTok ha anticipato l’introduzione direttamente nell’app di un pulsante per la segnalazione di utenti apparentemente minori dei 14 anni, che verrà anticipata da una campagna informativa sia sulla app che su altri canali.
Accolte le indicazioni del Garante sull’informativa, TikTok si impegna a darvi aggiornamento in modo tale da spiegare, in modo accessibile e coinvolgente, i tipi di dati che raccoglie e le modalità del trattamento, anche e soprattutto ai più giovani.
Scorza: “Social e minori, segnata la strada per maggiori tutele”
La campagna del Garante con Telefono Azzurro
“Se non ha l’età, i social possono attendere” è il claim dello spot, realizzato dal Garante per la protezione dei dati personali in collaborazione con Telefono Azzurro, dedicato al tema della protezione dei minori sui social network e non casualmente tempestivo rispetto alle vicende fin qui illustrate.
La campagna istituzionale ha come destinatari i genitori e mira a richiamarli perché svolgano correttamente il ruolo attivo di vigilanti dei minori in famiglia, in particolare durante il loro approccio al web ed alla società dell’informazione.
Il Garante può “bloccare” i social ma il primo controllore è il genitore, ha affermato il Presidente Pasquale Stanzione in una recente intervista.
Segue “Tocca ai genitori”, il messaggio ancora più forte che viene dal Safer Internet Day di quest’anno, la giornata mondiale per la sicurezza in rete.
Viene da chiedersi in che modo si possa immaginare effettivo il controllo avendo riguardo di una generazione di nativi digitali, spesso introdotti all’uso delle app proprio dalle famiglie già in tenera età, consumatori del mercato degli smart toys e da ultimo costretti dalla pandemia all’interazione prevalentemente virtuale con amici ed insegnanti.
Ma il tema è più ampio e complesso, e a volte riguarda anche i soggetti con più di 14 anni.
Quali e quanti minori?
La scelta dei 14 anni in punto di adeguamento non è stata casuale: il “nuovo” Codice Privacy ha recepito le indicazioni del Garante, a parere del quale l’aggiornamento avrebbe dovuto tenere in debito conto altre disposizioni, come ad esempio la legge in materia di cyberbullismo (Legge n. 71/2017), normativa che prevede che il minorenne che abbia compiuto 14 anni e sia vittima di bullismo informatico possa rivolgere istanza al gestore del sito Internet o del social media o, comunque, al titolare del trattamento per ottenere provvedimenti inibitori e prescrittivi a sua tutela (oscuramento, rimozione, blocco di qualsiasi altro dato personale del minore diffuso su Internet, con conservazione dei dati originali).
TikTok, social “vetrina” nell’era del post talento: ecco perché ha successo
Una scelta senz’altro coerente e volta ad uniformare la tutela dei minori sulla rete ma che non riesce a coincidere con una concreta responsabilizzazione della categoria.
Se, da un lato, è stato ritenuto valido il consenso digitale dei soggetti con più di 14 anni, dall’altro, non sono stati temperati i profili di responsabilità ascritti agli esercenti la potestà genitoriale che sul piano civile, in caso di accertato illecito, potranno essere chiamati a rispondere congiuntamente al minore per culpa in vigilando.
Il ruolo decisivo di genitori e educatori
In buona sostanza, i genitori controllino, ma controllino sempre perché anche dopo i 14 potrebbero essere ritenuti direttamente responsabili per non aver saputo spiegare i social ai figli.
Anche se il caso che occupa attiene agli under 14, il tema del rapporto dei più giovani con i social network deve indurre ad una riflessione sull’attuale disciplina sull’accesso dei minori alla rete, anche alla luce della direzione delle campagne istituzionali, che trovano quali destinatari ancora una volta gli adulti.
Se l’adolescente è ritenuto capace di autodeterminarsi al momento dell’iscrizione ai servizi della società dell’informazione, in che momento allora si colloca la supervisione della sua famiglia e l’esercizio della loro opposizione? È corretto consentire agli adolescenti di liberamente presentarsi e raccontarsi sui social e solo successivamente coinvolgere gli adulti per azioni commesse al di fuori del loro spazio di azione?
Conclusioni
Ferma la fondamentale importanza delle misure di sicurezza adottate da chi implementa il servizio e deve verificare gli accessi, senza privare nessuno del proprio ruolo genitoriale, lo step più importante è quello che mette al centro del discorso il diretto interessato, il minore, e lo indirizza a correttamente impiegare il mezzo sin dalla primordiale consapevolezza della sua utilità, sì da conferirgli una effettiva “educazione digitale”, anche per il tramite di scuola ed educatori, e renderne il consenso digitale pienamente valido.