Le norme, dell’Europa e, ora, dell’Italia in testa, si stanno preoccupando di proteggere in modo progressivamente più forte i minori nel contesto digitale. Rientra in questa dinamica il filtro obbligatorio di verifica dell’età che scatterà fra circa sei mesi in Italia per i contenuti e servizi online inadatti ai minori.
Lo stabilisce l’Autorità per le Garanzie nelle Comunicazioni (AGCOM) della delibera 96/25/CONS, in attuazione della legge 13 novembre 2023, n. 159 (cd. “Decreto Caivano”).
Ed è una svolta significativa nella regolamentazione dei sistemi di verifica della maggiore età online, in particolare in relazione all’accesso a contenuti potenzialmente nocivi come quelli a carattere pornografico o la vendita di alcool, sigarette.
Indice degli argomenti
A chi si applica il filtro verifica età
Siti, servizi e piattaforme digitali che ospitano contenuti (porno, gioco d’azzardo), prodotti (alcool, sigarette…) inadatti ai minori dovranno applicare una verifica dell’età e consentire l’accesso solo ai maggiorenni, entro sei mesi dalla prossima pubblicazione della delibera.
Tale provvedimento si inserisce in una cornice normativa europea sempre più attenta alla tutela dei soggetti vulnerabili, con il Digital Services Act (DSA) a fare da sfondo e riferimento principale per la costruzione di un ecosistema digitale più sicuro, trasparente e giusto.
La verifica dell’età online, porno e altro: come funziona
Il meccanismo approvato dall’AGCOM si distingue per un’impostazione duale che separa logicamente i due momenti fondamentali del processo: identificazione e autenticazione. In dettaglio, la delibera stabilisce che la verifica dell’età debba avvenire tramite l’intervento di soggetti terzi indipendenti certificati, incaricati di gestire un processo composto da due fasi distinte:
- nella prima fase, l’utente viene identificato attraverso procedure conformi agli standard di identificazione elettronica (eIDAS), come l’uso dello SPID, della CIE o di altri strumenti riconosciuti a livello europeo.
- Nella seconda fase, l’utente autenticato riceve una prova della maggiore età da parte del soggetto certificato, che può essere poi trasmessa al sito o alla piattaforma senza includere dati identificativi personali. Questo processo è progettato per essere ripetuto ad ogni sessione di utilizzo del servizio regolamentato, in modo da garantire una protezione continuativa.
Nel caso di sistemi basati su applicazioni installate su dispositivi dell’utente, come le app di portafoglio di identità digitale, il meccanismo prevede che tali strumenti possano generare una “prova dell’età” certificata che l’utente può esibire al sito web visitato.
I principi privacy nel filtro verifica l’età
L’architettura del sistema, definita come “a doppio anonimato”, fa sì – quindi – che il fornitore del servizio di verifica non sappia per quale piattaforma o contenuto viene richiesta la prova dell’età, mentre il sito destinatario riceve esclusivamente una conferma anonima della maggiore età, senza poter accedere ai dati personali dell’utente, è chiaro che questa impostazione intende salvaguardare i principi di privacy e minimizzazione dei dati, in conformità con il Regolamento Generale sulla Protezione dei Dati (GDPR), assicurando al contempo un livello di sicurezza proporzionato al rischio connesso all’accesso ai contenuti riservati.
Tuttavia, sembrerebbe che il confine tra protezione e sorveglianza, tra anonimato e accountability, si interfacci all’interno di confini labili dato che il principio di proporzionalità – che costituisce uno dei pilastri giuridici europei – impone una valutazione puntuale sull’equilibrio tra le misure adottate e la compressione dei diritti fondamentali, quali la libertà di espressione, l’autodeterminazione informativa e l’accesso all’informazione e l’imposizione di sistemi di age assurance troppo stringenti potrebbe, paradossalmente, produrre effetti discriminatori o escludenti, specialmente nei confronti di soggetti in condizione di marginalità digitale o con minore alfabetizzazione tecnologica.
Il collegamento con il Digital services Act
Il DSA, entrato in vigore nel febbraio 2024, ha imposto obblighi stringenti per le piattaforme di grandi dimensioni (Very Large Online Platforms, VLOPs) e i motori di ricerca (VLOSEs), introducendo strumenti di valutazione del rischio sistemico, trasparenza algoritmica, e misure di mitigazione specifiche per la protezione dei minori. In tale quadro, la delibera dell’AGCOM rappresenta una declinazione nazionale coerente con l‘art. 28 del DSA che prevede misure volte a prevenire l’accesso dei minori a contenuti inappropriati, ma introduce anche un livello aggiuntivo di complessità nella gestione dei dati personali, tanto che la stessa Commissione Europea, pur avendo espresso un parere positivo, ha sottolineato la necessità che tali misure non diventino uno strumento di sorveglianza o di limitazione indebita dei diritti digitali.
Come avviene altrove: il caso francese
A conferma della rilevanza e della delicatezza di questo tema, anche altri Paesi europei stanno adottando iniziative simili. La Francia, ad esempio, ha recentemente reso operativa una legge che impone ai siti pornografici l’obbligo di verificare in modo certo l’età degli utenti, prevedendo il blocco dei siti non conformi a partire dal 7 giugno 2025, anche se registrati in altri Stati membri dell’Unione. Il regolatore Arcom avrà il potere di oscurare i siti non in regola, mentre alcune piattaforme stanno già contestando la normativa davanti ai tribunali: è da segnalare, tra l’altro, che tra i metodi previsti dalla normativa francese figurano anche strumenti biometrici come il selfie video per la stima dell’età. Questo scenario evidenzia come, pur nella diversità degli approcci, l’Europa stia convergendo verso soluzioni normative sempre più incisive per la tutela dei minori online, con un crescente interesse da parte dei fornitori di tecnologie di verifica dell’età, nonostante le preoccupazioni sollevate da attivisti e utenti in merito alla privacy.
Verifica dell’età: i nodi
Una questione centrale è rappresentata dalla figura dei soggetti terzi certificati incaricati di fornire la prova dell’età. Chi certifica questi soggetti? Quali criteri devono soddisfare? Quale è il regime di responsabilità in caso di errori nella verifica o di violazioni della privacy? L’approccio tecnologicamente neutrale adottato dall’AGCOM lascia spazio a molteplici soluzioni operative, ma impone, proprio per questo, un elevato standard di auditabilità e trasparenza. Inoltre, la mancanza di un quadro armonizzato a livello europeo sul tema della verifica dell’età potrebbe condurre a un mosaico normativo frammentato, con gravi conseguenze in termini di certezza del diritto e di interoperabilità tra i diversi sistemi nazionali.
Un ulteriore nodo giuridico riguarda il diritto all’anonimato e alla navigazione libera. Il meccanismo di identificazione preventiva, seppur mediato da sistemi pseudonimizzati, rischia di consolidare una logica del “digital ID” permanente, con possibili derive verso modelli di sorveglianza diffusa. La giurisprudenza della Corte di Giustizia dell’Unione Europea ha più volte ribadito la necessità che le misure limitative dei diritti fondamentali siano previste dalla legge, perseguano un fine legittimo e siano necessarie e proporzionate. In questo senso, sarà cruciale monitorare l’attuazione pratica delle misure approvate, valutando gli effetti concreti sull’esercizio dei diritti digitali.
L’innovazione normativa italiana, pur nascendo da un contesto emergenziale e reattivo (il cosiddetto “Decreto Caivano”), si proietta verso scenari futuri nei quali la protezione dei minori dovrà necessariamente coniugarsi con un approccio etico e inclusivo all’innovazione tecnologica. La sfida non è soltanto tecnica, ma profondamente politica e culturale: come costruire un ambiente digitale che non sia solo sicuro, ma anche giusto, equo e rispettoso della dignità umana? Quali modelli di governance vogliamo per il futuro dell’internet? Come evitare che la protezione dei più deboli si trasformi, involontariamente, in un nuovo strumento di esclusione?
Gli interrogativi
In conclusione, la delibera AGCOM rappresenta un passo decisivo verso la definizione di standard nazionali di verifica dell’età in ambito digitale, ma apre, al contempo, una serie di interrogativi irrisolti sul piano della protezione dei diritti fondamentali.
In un contesto europeo sempre più integrato, la sfida sarà quella di armonizzare le normative nazionali con i principi sovranazionali, evitando sia il rischio dell’anarchia regolatoria, sia quello di un’eccessiva omogeneizzazione che non tenga conto delle specificità culturali e sociali, pertanto, il futuro dell’age assurance in Europa dipenderà dalla capacità delle istituzioni di bilanciare esigenze divergenti: sicurezza e libertà, protezione e inclusione, innovazione e diritti e, soprattutto, dalla nostra disponibilità collettiva a riflettere sul significato profondo della cittadinanza digitale in un’epoca in cui la tecnologia non è più solo uno strumento, ma una condizione esistenziale.