Dopo l’introduzione del nuovo codice “Age Appropriate Design Code”, unitamente al “Child Safety Online”, adottato dall’autorità indipendente britannica ICO (Information Commissioner’s Office) i colossi del web sembrano manifestare una generale tendenza di adeguamento alle misure previste nel Regno Unito, aumentando la sicurezza dei bambini anche in altri Paesi: a livello globale, a partire dagli USA.
Ci sono dubbi di vari esperti e politici però che queste mosse bastino a risolvere il cronico problema del sicurezza minori online.
Trattamento dati dei minori nell’era digitale: il decalogo dell’Unicef
Gli standard UK a tutela della privacy dei bambini
In particolare, il nuovo codice “trasformativo” include un elenco di 15 standard che le aziende hi-tech fornitrici di servizi online (giochi, app, piattaforme di social media, siti web educativi e servizi di streaming) devono rispettare per proteggere la privacy dei bambini, come reazione regolatoria al dilagante fenomeno emulativo di atti di autolesionismo che ha persino portato al suicidio di una giovane a seguito della visualizzazione di alcuni contenuti grafici pubblicati sulle piattaforme social.
A tal fine, il codice obbliga le aziende tecnologiche a valutare, in un’ottica anticipatoria di carattere preventivo, i rischi esistenti per evitare la diffusione di contenuti dannosi, a pena di sanzioni in caso di inerzia e/o omissione.
Il codice, i cui standard sono stati implementati nel rispetto del Regolamento generale sulla protezione dei dati 679/2016/UE (GDPR) e del Data Protection Act 2018, prevede un periodo di transizione di 12 mesi per dare alle imprese il tempo di conformarsi.
La prima bozza del codice è stata sottoposta a consultazione nell’aprile 2019, ricevendo circa 450 risposte a seguito di svariati incontri con organizzazioni, enti commerciali e rappresentanti dell’industria.
La reazione dei maggiori social
TikTok, Twitter e Facebook sono tra le aziende più attive che, nell’ambito di iniziative presumibilmente innescate dalle nuove misure, stanno introducendo nuovi strumenti per proteggere i bambini, come riporta un articolo del “The Guardian”, da cui si evince che, ad esempio, TikTok ha disattivato le notifiche per i bambini durante la fascia notturna, Instagram ha integralmente rimosso le pubblicità mirate per i minori di 18 anni, annunciando inoltre funzionalità di sicurezza per i bambini che includono nuovi strumenti (come “prenditi una pausa”) allo scopo di aiutare a limitare il tempo trascorso online (anche TikTok ha una funzione simile che appare quando gli utenti trascorrono troppo tempo sull’app.), mentre YouTube ha disattivato la riproduzione automatica per gli utenti adolescenti.
Piuttosto che manifestare un atteggiamento di resistenza alle rigide prescrizioni regolatorie, le più grandi aziende tecnologiche, pur in pendenza del periodo transitorio di adeguamento prima della formale imposizione applicativa, stanno già apportando modifiche sostanziali ai loro servizi, come spontanea condivisione delle finalità da perseguire in un’ottica di generale protezione dei bambini, considerati in via prioritaria utenti “deboli” meritevoli di tutela.
Secondo una diversa ricostruzione, l’adesione delle big tech lungi dall’essere del tutto volontaria, costituirebbe, come vera e propria risposta strategica, una consapevole reazione all’imminente emanazione di ulteriori normative, sulla falsariga di quella britannica, a tutela dei bambini.
Big tech nel mirino anche Usa
In sede di Congresso americano, ad esempio, sono al vaglio una serie di proposte normative recanti interventi correttivi alla disciplina introdotta dal Children’s Online Privacy Protection Act, che più o meno direttamente mirano a recepire la regolamentazione britannica, sebbene ancora una fase meramente embrionale di discussione lontana dalla formale approvazione della prospettata riforma rispetto alle misure concrete adottate nel Regno Unito.
Di certo, si intensifica l’attenzione legislativa mediante la massiva raccolta di informazioni acquisite nel corso di audizioni istituzionali ove emerge l’esistenza critica di rischi per gli utenti minori che le imprese tecnologiche non sembrano in grado di fronteggiare con un’efficace e prudente cautela, in virtù degli attuali strumenti di sicurezza online che non sarebbero in grado di prevenire e rimuovere tutti gli effetti “tossici” prodotti dal sistema algoritmico utilizzato dalle piattaforme sugli adolescenti. Emblematici, in tal senso, i casi raccolti per dimostrare, mediante l’attivazione di un account sperimentale di un utente registrato come minore di 15 anni con impostazione pubblica, la formale vulnerabilità delle policy social che, soltanto “sulla carta”, prescriverebbero l’automatica configurazione privata degli account degli adolescenti. Parimenti rilevanti risultano le numerose segnalazioni ricevute dai genitori sulle esperienze negative di profilazione dei giovani (come l’interesse per il fitness processato dagli algoritmi per raccomandare all’account consigli su dieta estrema, disturbi alimentari e autolesionismo).
Proprio per tale ragione, è stato presentato un disegno di legge che costringerebbe le aziende a rivelare, secondo adeguati standard di trasparenza, informazioni complete e integrali sul sistema di classificazione algoritmica, anche per consentire agli utenti di autodeterminarsi in modo consapevole rispetto ai contenuti condivisi online, evitando procedure opache in grado di provocare effetti pregiudizievoli incontrollabili).
Verso norme sempre più severe sulla riservatezza dei dati dei minori
Tutto ciò sta inducendo il legislatore ad introdurre norme sempre più severe sulla privacy dei dati volte a proteggere i bambini, stabilendo anche stringenti restrizioni di età, unitamente all’utilizzo di strumenti efficaci in grado di cancellare le informazioni online.
La predisposizione delle proposte legislative, nell’ambito del costante lavoro istruttorio svolto dalle competenti commissioni, al pari del contenzioso “antitrust” che riguarda i colossi del Web, si è resa ancor più necessaria nelle ultime settimane, dopo che un informatore di Facebook, come rilevato dal “The New York Times”, avrebbe fatto trapelare una ricerca interna sul rilevante e diretto ruolo di Instagram nell’indebolire l’autostima dei giovani come pericoloso disturbo della personalità, addirittura contribuendo a far sentire un adolescente su tre peggio a causa della propria immagine corporea percepita online e persino ad alimentare pensieri di suicidio. Tali evidenze sarebbero peraltro sottostimate come mera e semplice “punta di un iceberg” a dimostrazione di un dilagante “lato oscuro” della Rete in grado di danneggiare il benessere mentale ed emotivo degli utenti più giovani.
Conclusioni
In tale prospettiva, al netto delle buone intenzioni, sembra ancora distante il raggiungimento di apprezzabili risultati in grado di superare le criticità riscontrate, anche in ragione del fatto che, sebbene la politica mostri spesso formalmente unità bipartisan nelle dichiarazioni pubbliche e nelle audizioni interlocutorie istituzionali, mediante la presentazione di numerosi di disegni di legge, resta rilevante, come principale ostacolo all’attuazione di definitive riforme legislative, il peso di un’intensa attività di lobbying del settore destinato a condizionare il processo decisionale, anche alimentando un disaccordo divisivo che sfocia in interventi finali di scarso successo rispetto agli iniziali obiettivi enunciati, con il risultato di manifestare una prolungata incapacità regolatoria che impedisce di introdurre efficaci misure a tutela dei giovani potenzialmente vulnerabili in Rete, mediante l’emanazione di leggi adeguate alle caratteristiche peculiari dell’ambiente digitale.