Società digitale

Proteggere i minori dai rischi del digitale senza censurare: il ruolo dell’educazione

Bisogna tener conto delle particolari fragilità proprie dei minori online. Inoltre è necessario evitare l’emergere o il rafforzarsi degli scenari di tecnocontrollo o le contraddizioni già insite nel sistema dei diritti fondamentali presenti nei contesti digitali. Ecco come trovare un punto di equilibrio

Pubblicato il 06 Mar 2023

Stefano Gazzella

Responsabile Comitato Scientifico, Privacy Officer Associazione Italiana Influencer

social minori bambini azione

Il tentativo quotidiano di creare ecosistemi digitali “sicuri” per i nativi digitali minorenni si deve conciliare con il tentativo di individuare un punto di equilibrio fra tecnologie di controllo, compressione di diritti e massima partecipazione alla digitalità.

La questione non è semplice, soprattutto tenendo conto delle particolari fragilità proprie dei nativi digitali. Inoltre bisogna evitare l’emergere o il rafforzarsi degli scenari di tecnocontrollo o le contraddizioni già insite nel sistema dei diritti fondamentali presenti nei contesti digitali. Ecco qual è il ruolo dell’educazione digitale.

Tutela dei minori online, ecco la svolta delle regole

L’imperfetta tutela dei minori negli ecosistemi digitali

Nell’ambito dell’offerta dei servizi online, i minori sono indicati come interessati emblematicamente vulnerabili. Ma nel corso degli ultimi anni si osservsa un’evoluzione della domanda di sempre maggiori e migliori tutele. Cresce infatti la sensibilità sull’argomento e in risposta a rischi specifici emergenti che sono anche stati oggetto di fatti di cronaca.

La progettazione e l’offerta di servizi digitali devono adattarsi a quelle che sono rinnovate esigenze, dettate o dal mercato o dalle norme. Di conseguenza, i servizi a cui possono avere accesso i minori, o che li contemplano come principale cluster di utenza, nella progettazione o ri-progettazione devono integrare specifiche tutele e garanzie di protezione.

Nell’ambito del web esistono anche ambiti di attività che non possono avere come pubblico i minori e dunque devono essere loro precluse. O ulteriori ambiti in cui bisogna limitare l’accesso solo a determinati contenuti o attività.

Coerentemente con l’ampia gamma di esigenze, nascono di conseguenza le necessità di adottare sistemi di age verification, in grado però di assolvere diverse funzioni. Le due categorie principali si distinguono in base agli effetti che comportano sono:

  • l’esclusione di chi non è in grado (o non vuole) fornire prova della propria maggiore età o di una differente età stabilita come valore-soglia per la fruizione del servizio;
  • la classificazione, selezione e filtro dei contenuti con riferimento ad una o più fasce d’età prestabilite.

Fatte queste premesse, dunque, il presupposto, affinché sia possibile configurare un ecosistema digitale in modo sicuro per la più efficace tutela dei minori, consiste nel definire alcuni passaggi fondamentali.

I sistemi di age verification

Innanzitutto, occorre distinguere e classificare le categorie di soggetti che accedono. Dunque, è necessario stabilire le correlazioni di età, prevedendo quali siano le tutele rafforzate in astratto che da porre in essere. Infine, bisogna predisporre meccanismi operativi perché la tutela possa concretizzarsi in una vera realizzazione pratica.

Una complessità intrinseca, dal punto di vista giuridico in base alle intersezioni dei vari diritti, comunque meritevoli di protezione in considerazione degli impatti e dei rischi intrinseci dell’attività svolta sui dati personali di tutti gli utenti, caratterizzano i sistemi di age verification adottati.

Occorre “gradare i controlli”, in modo tale che producano un risultato efficace e significativo. Infatti non si possono fermarsi ad una dimensione di mera apparenza, come limitarsi, per esempio, ad acquisizioni puramente dichiarative relative all’età dell’utente. Altrimenti, la conseguenza è quella di svilire i presupposti su cui si fonda l’intero proposito di tutela dei minori. Non solo, i minorenni risulterebbero ancor più esposti nell’erroneo convincimento di partecipare a un ecosistema sicuro.

Bilanciamento fra volontà di protezione e controllo

Si realizza così un’attività di controllo con una profondità e una significativa persistenza d’azione, per non limitarne l’efficacia. In alcuni casi si prevede il monitoraggio dei comportamenti, la possibilità di raccogliere segnalazioni e la richiesta di una verifica di età rafforzata, grazie all’applicazione di sistemi aggiuntivi di ID verification.

La raccolta dei dati personali si estende così per dichiarati scopi di tutela dell’utenza e controlli antifrode (come il furto di identità). Dall’applicazione operativa emergono, dunque, esigenze di compresenza di più diritti, fra cui la protezione dei dati personali. Esso non può essere considerato come aprioristicamente recessivo, ma va contemperato con altri diritti fondamentali in ossequio al principio di proporzionalità [1].

Il principio esprime e realizza le concorrenti tutele di diritti di pari rango, affinché possano convivere all’interno dei moderni ordinamenti e adeguarsi agli scenari tecnologici in evoluzione.

L’operazione di bilanciamento si svolge e rendiconta attraverso la conduzione di una valutazione d’impatto privacy [2] da cui può emergere anche la necessità di una consultazione preventiva dell’autorità di controllo [3].

Si rende così necessario lo svolgimento di un’operazione di bilanciamento rendicontabile attraverso lo svolgimento di una valutazione d’impatto privacy. O facendo addirittura ricorso alla consultazione preventiva dell’autorità di controllo. Occorre però operare con cura il computo dei diritti in gioco, affinché non sia una mera operazione formalistica. Inoltre non bisogna soddisfare l’esigenza in concreto di individuare correttivi e garanzie affinché i rischi inevitabili – che possono emergere dall’applicazione di determinate misure – non risultino sproporzionati rispetto ai benefici concretamente realizzati.

Le tentazioni del soluzionismo tecnologico

L’approccio di soluzionismo tecnologico è il voler ritenere che l’adozione o il divieto di una tecnologia possa comportare di per sé soltanto un effetto dirimente per una questione giuridica complessa.

Ma il soluzionismo tecnologico non può produrre altro che facili sensazionalismi e un progressivo svilimento – o svuotamento – di tutti i diritti coinvolti.

Trovare un punto di equilibrio fra l’adozione di tecnologie di controllo individuate come necessarie, con una minimizzazione dell’impatto sui diritti e la promozione di una partecipazione diffusa alla digitalità, è un’opera di costruzione meticolosa e trasversale. Ma i più solerti fautori della ricerca di soluzioni a riguardo non sono stati attori pubblici, bensì i gestori delle grandi piattaforme, con proposte orientate ad acquisire un vantaggio competitivo.

Il modello di business deve necessariamente guardare non solo a requisiti normativi, ma anche alle richieste da parte dell’utenza di ricevere maggiori tutele, nonché una più diffusa sensibilità su argomenti oggetto di attenzione mediatica.

La ricerca di una sintesi

Le Big Tech hanno svolto nel tempo – anche per le colpevoli inerzie da parte dei policy maker – un ruolo preminente nella definizione delle regole di funzionamento di internet, influenzandone inevitabilmente l’evoluzione nel modo in cui lo si conosce oggi.

Ma ciò non esclude che gli interventi regolatori possano essere inefficaci, o che nel futuro tanto il legislatore quanto le autorità indipendenti non potranno comportare un cambio di paradigma. Anzi, gli interventi sanzionatori spesso comportano il duplice effetto di limitare le attività e comportano ricadute reputazionali considerevoli, impattando sui bilanci dei giganti tecnologici.

I minori sul web, tanti rischi: ecco tutte le sfide educative

Ma nella ricerca di una sintesi, fra la necessità di tutelare da un lato il corretto funzionamento del mercato digitale europeo e dall’altro i diritti dei soggetti che operano all’interno, si colloca la ragion d’essere e di agire delle autorità indipendenti come l’Antitrust e le autorità di controllo per la protezione dei dati personali.

È fuor di dubbio che la soluzione debba transitare anche per una tecnologia. Invece è discutibile che tale tecnologia sia in grado di esaurire ogni problema.

Anche perché occorre tenere conto di alcuni elementi del contesto digitale in continua evoluzione che vanno inevitabilmente a definire correttamente il rischio nei confronti proprio di quei soggetti indicati come principali destinatari delle tutele. Elementi che sono accomunati dall’essere – anzi, dal dover essere – riconducibili ad una dimensione fondamentalmente umana.

Aver cura delle fragilità dei nativi digitali

Uno degli elementi umani, di cui bisogna tenere conto nel momento in cui si devono individuare le tutele da dover predisporre nei confronti dei minori, così come i rischi, non può che consistere nello stato di fragilità specifico dell’essere “nativi digitali”.

Esiste infatti un’estesa categoria di soggetti che possono accedere o interagire con i servizi online, senza aver vissuto un percorso di trasformazione ed evoluzione, poiché manca l’esperienza di un mondo analogico precedente.

Chi nasce nella digitalità, e si colloca al suo interno senza un orientamento o un’educazione a riguardo, rischia di non diventare un cittadino consapevole, bensì di limitare il proprio ruolo a mero utente o operatore, “subendo” un mondo senza avere capacità di comprensione e interazione, se non limitate.

La ricaduta più evidente riguarda la capacità di percepire non solo i rischi, ma anche le opportunità. Ma non è l’unica. C’è anche in gioco la capacità di autodeterminarsi che si esprime anche nella dimensione digitale. Riguarda non solo la selezione degli ambiti e delle modalità di partecipazione, ma anche e soprattutto la possibilità di avere strumenti per valutare e selezionare alternative analogiche.

Il ruolo dell’educazione digitale

Questo particolare stato di fragilità si può superare attraverso una cultura digitale, fatta di competenze e conoscenze in grado di colmare quel gap di esperienza e giovare allo sviluppo autonomo di una capacità di pensiero critico.

Gli strumenti dell’educazione da sempre forniscono la chiave di lettura della realtà, la messa in discussione delle proposte con cui si interagisce e una maggiore autonomia decisionale. Altrimenti, l’unica libertà che si può esercitare è destinata a collocarsi in un elenco paradossale di concessioni secondo termini e servizi. E si esprimerà nell’accettazione passiva dell’una o dell’altra proposta tecnologica. Spesso con approccio acritico e secondo modelli del tipo take-it-or-leave-it.

Il ruolo svolto dall’educazione digitale è fondamentale sia presso i minori che presso educatori, famiglie e tutti coloro che sono chiamati ad assumersi responsabilità di protezione nei confronti dei soggetti più vulnerabili. Responsabilità che, anche all’interno di mondi digitali e virtuali, assumono una dimensione ed impatti reali e significativi.

Bibliografia

  1. Considerando n. 4 GDPR.
  2. Art. 35 GDPR.
  3. Art. 36 GDPR.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4