minori

Verifica dell’età online: le attuali tutele e il ruolo del DSA



Indirizzo copiato

Con l’aumento dei giovanissimi in rete, la tutela dei minori online diventa cruciale. L’identificazione e la verifica dell’età sono fondamentali per proteggere i bambini dai rischi di Internet. Le normative europee, come il GDPR e il Digital Services Act, pongono requisiti stringenti per garantire la sicurezza dei più giovani

Pubblicato il 16 ago 2024

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



Man,Using,Laptop,Computer,Accessing,Applications,Or,Login,Internet,Network

Ogni anno, al costante aumento dei giovanissimi in rete, corrisponde l’abbassamento della fascia di età degli utenti dei principali servizi digitali. Questo rende ancor più di primario interesse generale il tema della tutela dei minori online, a partire dalla loro identificazione al fine di improntare le migliori forme di protezione rispetto ai rischi di Internet.

Il tema dell’age verification

L’identificazione dei minori in rete passa inevitabilmente attraverso il tema della verifica dell’età (o age verification), quel processo finalizzato alla conferma dell’età di una persona prima di concederle l’accesso a beni, servizi o contenuti soggetti a limiti anagrafici.
Nell’era digitale, dove sempre più transazioni avvengono online, la verifica dell’età è diventata sempre più importante, soprattutto in settori come l’e-commerce, i giochi e la vendita di alcol/tabacco. Le aziende che non verificano adeguatamente l’età dei propri clienti rischiano di violare norme di legge ed affrontare azioni legali, oltre a danneggiare la propria reputazione.

Sono diversi i metodi per effettuare i controlli dell’età, quindi le aziende possono scegliere quello che meglio si adatta alle proprie esigenze. Sebbene sia importante notare che ciascun metodo ha i propri punti di forza e di debolezza, pertanto le singole realtà dovrebbero esaminarli attentamente per vedere se soddisfano le prestazioni e gli standard normativi.

Proprio l’aspetto dell’adeguamento ai dettami di legge è quello più problematico, non mancano infatti interventi giurisprudenziali che hanno sanzionato violazioni della privacy e degli altri diritti fondamentali dei minori in rete, anche a causa di disfunzioni nell’identificazione degli stessi.

I metodi di identificazione dei minori in rete

Il controllo dell’età è il metodo più utilizzato e popolare di verifica dell’identità del minore, utilizzato dalle aziende per limitare l’accesso a contenuti, servizi o prodotti a una particolare fascia di età. Viene spesso utilizzato da piattaforme online come social network, siti di giochi e siti di e-commerce. In genere, il controllo dell’età richiede agli utenti di fornire la propria data di nascita o di verificare la propria età selezionando una casella.

Difetti dell’attuale sistema di identificazione dei minori online

Sebbene il controllo dell’età possa sembrare un metodo di verifica semplice ed efficace, presenta alcuni difetti significativi. Uno dei principali svantaggi è che è facile per gli utenti aggirarlo semplicemente mentendo sulla loro età. Ciò può essere particolarmente problematico per le aziende per conformarsi alle normative, le quali potrebbero dover affrontare sanzioni legali e danni alla reputazione se i minori dovessero accedere a prodotti o servizi a loro vietati.

È il caso delle numerose e ingenti sanzioni comminate da diversi Garanti Privacy europei ai principali social media.

Il controllo dell’età non è un metodo infallibile

Nonostante i suoi limiti, il controllo dell’età è ancora utilizzato da molte aziende come un modo semplice e veloce per verificare l’età dei propri utenti. Tuttavia, vale la pena notare che non è un metodo infallibile e le aziende dovrebbero prendere in considerazione l’implementazione di misure di verifica dell’età aggiuntive e più solide per garantire la conformità alle normative e proteggere i propri utenti.

La verifica dei documenti

Talvolta, il controllo dell’età può essere rafforzato dalla verifica dell’autenticità di un documento, come la patente di guida o il passaporto. La verifica dei documenti può essere effettuata manualmente o con l’Intelligenza Artificiale, che fornisce un punteggio più accurato sulla validità del documento. Questo processo può essere eseguito da solo oltre che come parte di un processo completo di verifica dell’identità che includa il riconoscimento facciale. In alcune occasioni, può anche essere verificato rispetto a un database governativo per garantirne la validità. Naturalmente, tutto ciò al netto della legislazione vigente in un dato luogo in materia di protezione dei dati personali.

La stima dell’età: pro e contro della tecnologia

Sebbene simile alla verifica dell’età, un altro strumento noto, la stima dell’età, ha in realtà un contenuto diverso. In questo caso si fa riferimento all’utilizzo di una tecnologia che mira a stimare l’età di una persona in base a determinati fattori. In altri termini, si prevede l’utilizzo di algoritmi avanzati per approssimare la fascia di età di una persona analizzando le sue interazioni, l’attività che svolge in rete, ecc.

Altri elementi utilizzati possono essere quelli di natura fisica, potendo cioè analizzare le caratteristiche facciali come rughe, struttura della pelle e contorni del viso. Questa tecnologia è stata sviluppata attraverso ricerche approfondite e formazione su grandi set di dati, consentendole di riconoscere modelli e correlazioni tra attributi facciali e gruppi di età.

Sebbene lo strumento in questione abbia mostrato risultati promettenti nella stima accurata delle fasce di età, è importante riconoscerne i limiti. Fattori come le condizioni di illuminazione, le espressioni facciali e le variazioni individuali possono introdurre incertezze nel processo di stima. Pertanto, la stima dell’età dovrebbe essere considerata uno strumento di supporto piuttosto che un metodo definitivo per la verifica dell’età e l’identificazione dei minori.

Minori e web: le tutele dei giovanissimi nella normativa europea

In origine, la Direttiva 95/47/CE (c.d. Direttiva Madre), non conteneva specifici riferimenti alla tutela dei minori; tuttavia, stabiliva alcuni principi generali che potevano essere utilizzati a tal fine. In particolare, si può menzionare il requisito del consenso: la direttiva stabiliva che il trattamento dei dati personali era lecito solo se l’interessato aveva espresso il proprio consenso. Nel caso dei minori, il consenso doveva essere espresso da un genitore o da un tutore legale. La direttiva non specificava però un’età minima per il consenso, ma gli Stati membri potevano stabilire proprie disposizioni in tal senso.
La direttiva vietava poi il trattamento di determinate categorie di dati sensibili, tra cui quelli relativi alla razza, all’origine etnica, alle opinioni politiche, alle convinzioni religiose o filosofiche, all’appartenenza a un sindacato, alla salute o alla vita sessuale. Il trattamento di tali dati relativi ai minori era vietato a meno che non espressamente consentito dal genitore o dal tutore legale.
Già nel 2008, però, il Working Party Articolo 29 (WP29) aveva reso pubblico un documento nel quale veniva evidenziata la necessità urgente di incrementare le tutele nei confronti dei più giovani utenti della rete.

La tutela dei minori nel Gdpr

Ecco allora che il Regolamento UE 2016/679 (GDPR), che ha abrogato la Direttiva 95/47/CE a partire dal 25 maggio 2018, offre una tutela più robusta per i minori, includendo specifiche disposizioni relative al consenso, al trattamento di dati sensibili e ai diritti dei minori.
L’art. 6 del GDPR, dedicato alla liceità del trattamento, alla lett. f) individua la base giuridica del legittimo interesse del Titolare del trattamento o di terzi, la cui tutela è tuttavia condizionata all’ipotesi in cui non prevalgano “gli interessi o i diritti e le libertà fondamentali dell’interessato che richiedono la protezione dei dati personali, in particolare se l’interessato è un minore”, ponendo l’accento sul caso in cui gli interessi contrapposti a quelli del Titolare siano di soggetti al di sotto dei 18 anni.

La necessaria tutela rafforzata del minore emerge altresì dal Considerando 58 del Regolamento, in tema di trasparenza, il quale impone che le informazioni destinate al pubblico o all’interessato siano concise, facilmente accessibili e di facile comprensione e che sia usato un linguaggio semplice e chiaro, oltre che, se del caso, una visualizzazione, specificando però che “dato che i minori meritano una protezione specifica, quando il trattamento dati li riguarda, qualsiasi informazione e comunicazione dovrebbe utilizzare un linguaggio semplice e chiaro che un minore possa capire facilmente”.
Il Regolamento, a differenza della Direttiva Madre, specifica altresì i requisiti di età per il consenso digitale: in generale stabilisce che il trattamento dei dati personali di un minore è lecito solo se il minore stesso ha prestato il suo consenso, e l’età minima per farlo in autonomia è 16 anni. Tuttavia, gli Stati Membri possono stabilire un’età inferiore, purché non inferiore ai 13 anni.
Proprio alla luce di questa previsione, in Italia l’età minima per il consenso autonomo al trattamento dei dati personali è fissata a 14 anni. Al di sotto di tale età, il consenso deve essere espresso dai genitori o da chi ne fa le veci.

Le novità del Digital Services Act (DSA): cosa cambia per le piattaforme

La DSA è una nuova normativa dell’UE volta a creare un ambiente digitale più sicuro regolamentando le piattaforme online e i servizi digitali, entrata ufficialmente in vigore il 17 febbraio 2024 per tutte le piattaforme digitali operanti all’interno del Vecchio Continente.

Una parte del DSA si concentra specificatamente sulla tutela dei minori di 18 anni, al fine di proteggerli da contenuti, prodotti e servizi illegali o dannosi e dalla disinformazione attraverso una serie di requisiti per i servizi digitali.

Il DSA è stato approvato il 5 luglio 2022 ed è stato il primo atto legislativo aggiornato per affrontare la sicurezza online dopo la Direttiva sul commercio elettronico del 2000, introdotto quindi per allineare la legislazione obsoleta al nuovo ambiente e tecnologia digitale.

Come si diceva, il DSA si applica alle piattaforme online e ai fornitori di servizi digitali che operano all’interno dell’Unione Europea. Ciò include piattaforme di social media, mercati online, motori di ricerca e altri intermediari digitali che facilitano la condivisione di contenuti o la fornitura di servizi online.

Naturalmente, alcuni servizi o contenuti possono essere inappropriati e potenzialmente pericolosi o dannosi per i bambini. Pertanto, il DSA mira a fornire un insieme di misure che le piattaforme e i motori di ricerca devono seguire per creare un ambiente digitale in cui i bambini si sentano al sicuro, partendo da principi fondamentali quali il principio del miglior interesse del minore e il diritto alla protezione del bambino.

La valutazione del rischio

Alla luce di questo, il DSA impone alle piattaforme online di effettuare una valutazione del rischio e adottare misure per affrontare i rischi per i minori presenti sulle loro piattaforme. Questo include rischi come la diffusione di contenuti illegali e dannosi, l’abuso sessuale, il cyberbullismo, ecc.

I sistemi di segnalazione dei contenuti nocivi

Le piattaforme sono altresì tenute ad implementare sistemi di segnalazione dei contenuti nocivi da parte degli utenti e meccanismi di rimozione rapida ed efficace, oltre a dover vietare la pubblicità mirata ai minori, limitare la raccolta e l’utilizzo dei loro dati personali, e applicare misure di default per la protezione dei giovanissimi, come ad esempio la disattivazione della profilazione e la limitazione della geolocalizzazione.

Il ruolo dei genitori

Quanto al ruolo genitoriale, ai sensi del DSA, le piattaforme sono tenute ad ottenere il consenso specifico dei genitori per il trattamento dei dati personali dei minori di 13 anni, ed a fornire strumenti di controlloper consentire ai genitori di limitare l’accesso dei propri figli a determinati contenuti e funzionalità.
Le piattaforme dovranno altresì cooperare con le autorità competenti in caso di sospette attività illegali o dannose che coinvolgono minori.

Il ruolo delle Autorità nazionali

A proposito di competenze, le autorità nazionali, designate come Digital Services Supervisors (DSS), saranno responsabili della supervisione e dell’applicazione del DSA. I DSS avranno il potere di effettuare ispezioni e indagini sulle piattaforme online, ordinare loro di adottare misure correttive per conformarsi al DSA, ed imporre sanzioni amministrative in caso di non conformità.

Conclusuioni


La speranza è che il DSA possa avere un impatto positivo significativo sulla tutela dei minori online, contribuendo a ridurre la diffusione di contenuti illegali e dannosi online, proteggere i minori dagli stessi, oltre dall’abuso sessuale e dal cyberbullismo, limitare l’esposizione dei minori a contenuti non idonei e dare ai genitori un maggiore controllo sull’attività online dei propri figli.

Il tempo dirà se gli obiettivi sperati dall’UE saranno raggiunti, quel che è certo ad oggi è che aumentano e non poco gli adempimenti richiesti alle Big Tech ed alle piattaforme online in generale, così come probabilmente aumenterà anche il lavoro della autorità di controllo a presidio delle nuove norme.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4