I bambini ormai sono nativi dell’era digitale. Se hanno l’opportunità e l’accesso alle risorse, navigano facilmente su Internet, sui social e su altri strumenti digitali.
Il mondo online offre così molte opportunità di apprendimento, di interazioni sociali, di sviluppo di abilità, o di gioco. Alcuni dispositivi e programmi di assistenza sono anche progettati per aiutare i bambini con disabilità a connettersi con i loro coetanei e a partecipare alle lezioni.
Rimangono tuttavia diverse sfide. Non tutti i bambini hanno uguale accesso a Internet, strumenti elettronici e dispositivi. Il mondo digitale può portare anche alcune minacce come abusi online, cyberbullismo, incitamento all’odio, o esposizione a contenuti dannosi e disinformazione.
Minori online, la formazione a un uso consapevole del digitale comincia a scuola
I minori e il rischio dei videogiochi
Uno dei crescenti problemi relativi all’accesso dei minori ai servizi digitali è la dipendenza dei giovani ai videogiochi online, che a sua volta può avere ripercussioni comportamentali sul giovane.
Le restrizioni del governo cinese
Un problema che è stato recentemente preso di mira dal governo cinese, che ha posto rigidi limiti su quanto tempo i minori possono giocare ai videogiochi online. Ai bambini e agli adolescenti cinesi, infatti, è ormai vietato giocare online nei giorni di scuola e limitato a un’ora al giorno nei fine settimana e nei giorni festivi.
Questo, dopo che molti genitori hanno riferito che la dipendenza dal gioco tra alcuni giovani e bambini sta seriamente danneggiando il loro normale ritmo di studio, la loro vita e la loro salute mentale e fisica.
Le nuove regole riflettono anche l’intensificarsi della spinta del governo affinché le aziende eliminino ciò che il Partito Comunista Cinese ritiene siano influenze malsane, specialmente tra adolescenti e bambini.
Le misure a tutela dei ragazzi, dalla Germania all’Australia
Mentre le restrizioni sui videogiochi possono avere una risonanza particolare in un paese in cui il numero di giocatori supera di gran lunga la popolazione della maggior parte delle nazioni, il concetto di repressione dei videogiochi non è però esclusivo della Cina.
Ad esempio, la legge tedesca sulla “protezione dei giovani” relativa ai giochi violenti ha spinto gli sviluppatori a sostituire il sangue rosso realistico con una versione verde e l’Australia ha cercato di vietare i giochi che comportavano rappresentazioni di vario tipo, dall’aggressione all’uso di marijuana.
Ma giocare, moderatamente, fa davvero male?
Negli altri paesi, le reazioni alle restrizioni cinesi sui videogiochi hanno incluso, almeno in parte, un senso di invidia tra alcuni genitori. Ma non è del tutto chiaro che dedicarsi ai videogiochi – con moderazione – sia davvero così dannoso per i giovani. Infatti, i giochi che includono immagini violente e grottesche probabilmente comportano lo stesso tipo di rischio di un film con contenuti equivalenti.
Al contrario, alcuni studi hanno suggerito che giocare ai videogiochi può effettivamente migliorare le capacità cognitive dei bambini. Addirittura, durante la pandemia di coronavirus un sondaggio statunitense ha rivelato che la comunicazione e il gioco online hanno portato a legami di amicizia più forti tra i giovani.
Pertanto, se i minori devono sì essere protetti dai possibili effetti negativi dell’esposizione online, è tuttavia necessario che i servizi digitali – videogiochi inclusi – siano accessibili ai più giovani ma anche progettati in modo tale da rispettare i loro diritti fondamentali, tra i quali in particolare la privacy, così come la loro salute sia fisica che mentale.
La tutela dei diritti dei bambini nello spazio digitale in Europa
I diritti dei bambini, infatti, sono applicabili universalmente, ma i fornitori di servizi digitali ignorano generalmente la presenza dei bambini, i loro diritti e le loro esigenze su servizi che sono alla fine progettati da adulti per adulti. Anche quando i bambini sono i target di un servizio, i loro diritti sono spesso trascurati a favore di risultati commerciali. I problemi che i bambini devono affrontare nel mondo digitale sono sistemici. Non si limitano a bug tecnici o cattivi attori, ma sono presenti anche nelle caratteristiche e nell’architettura dei prodotti e dei servizi su cui i bambini si affidano per l’accesso all’istruzione, alla salute, all’intrattenimento, all’impegno civico e per gestire le relazioni con la famiglia e gli amici.
In un ambiente guidato dal commercio, ai bambini vengono regolarmente presentate informazioni, comportamenti e pressioni che non hanno la capacità evolutiva di capire o di gestire. Vengono presentati ad adulti sconosciuti, spinti a fare acquisti in giochi, presi di mira da contenuti sessualizzati, bombardati da pubblicità mirata e disinformazione e sottoposti a raccolte invasive di dati.
A parte il regolamento europeo sulla protezione dei dati (GDPR), che prevede comunque che per i minori di età inferiore ai 16 anni il consenso al trattamento dei propri dati è prestato o autorizzato dal titolare della responsabilità genitoriale per quanto riguarda i servizi della società dell’informazione, esiste una crescente enfasi sui diritti dei bambini nella politica digitale a livello europeo. In particolare, esiste un insieme di sforzi legislativi che riflettono la necessità di creare una maggior responsabilizzazione del settore.
La strategia dell’Unione europea sui diritti dell’infanzia include infatti un capitolo sull’ambiente digitale che invita le imprese ad assicurare che i diritti dei bambini, compresa la privacy, la protezione dei dati personali e l’accesso a contenuti adeguati all’età, siano inclusi nei prodotti e servizi digitali sin dalla progettazione e per impostazione predefinita. Nella stessa direzione, il programmatico “decennio digitale europeo 2030” propone altresì un’agenda digitale più ampia con lo scopo di proteggere e responsabilizzare i bambini online.
Esistono anche iniziative nazionali come, per esempio, la legge tedesca sulla protezione dei giovani che obbliga le piattaforme ad adottare misure precauzionali per contrastare i rischi derivanti da funzioni di comunicazione e contatto, funzioni di acquisto, meccanismi simili al gioco d’azzardo, meccanismi per promuovere comportamenti di utilizzo eccessivo dei media, divulgazione di dati e ricorsi all’acquisto non adeguati all’età.
Infine, il progetto di regolamento sull’intelligenza artificiale dell’UE stabilisce i requisiti di dovuta diligenza per le applicazioni di IA ad alto rischio, anche per quanto riguarda il rispetto dei diritti dei bambini, facendo esplicito riferimento al commento generale n. 25 delle Nazioni Unite sui diritti dei bambini in relazione all’ambiente digitale pubblicato lo scorso 2 marzo 2021.
Verso un Digital Services Act che rafforza i diritti dei minori nello spazio digitale
In questo contesto parti interessate, come la 5Rights Foundation che ambisce alla creazione di un mondo digitale adatto a bambini e giovani, a cui possono accedere in modo creativo, consapevole e senza paura, propongono di integrare questa agenda politica anche nel Digital Service Act (DSA) che ha il potenziale per stabilire uno standard globale per i diritti dei bambini nel mondo digitale.
Infatti, la proposta di DSA della Commissione europea mira a creare uno spazio digitale più sicuro in cui siano protetti i diritti fondamentali di tutti gli utenti dei servizi digitali, compresi i bambini. La proposta, tuttavia, nota la 5Rights Foundation, non tiene abbastanza conto delle esigenze specifiche dei bambini e dei loro diritti ad una ulteriore protezione e li espone a un’ampia gamma di rischi attraverso una altrettanto vasta gamma di servizi.
La Fondazione propone quindi di incorporare i diritti dei bambini nel DSA e far sì che tutti i fornitori di servizi a cui possono accedere o che possano avere un impatto sui bambini garantiscano i loro diritti, con l’obiettivo di fornire migliori esperienze online ai bambini e non di bloccarli fuori da uno spazio a cui hanno diritto di accedere.
A tal fine, il DSA dovrebbe includere una clausola relativa ai minori che imponga a tutti i fornitori di servizi digitali di valutare se è probabile che i loro servizi siano accessibili o abbiano un impatto sui minori. In tal caso, i fornitori dovrebbero essere tenuti a effettuare valutazioni d’impatto sui minori e, pertanto, a mitigare i rischi sistemici per i diritti dei minori, sulla base degli standard legislativi.
Le possibili misure di mitigazione
Le misure di mitigazione così proposte dovrebbero includere:
- l’adattamento o la rimozione delle funzionalità di progettazione del sistema che espongono i bambini a contenuti, contatti, comportamenti e rischi contrattuali;
- l’implementazione di sistemi di accertamento dell’età che siano proporzionati e che tutelino la privacy;
- l’adattamento della moderazione dei contenuti o dei sistemi di raccomandazione, i loro processi decisionali, le caratteristiche o il funzionamento dei loro servizi, o dei loro termini e condizioni per garantire che diano priorità all’interesse superiore del minore;
- la garanzia di livelli massimi di privacy, sicurezza e protezione in base alla progettazione e per impostazione predefinita per gli utenti di età inferiore ai 18 anni;
- la prevenzione della profilazione, anche per finalità commerciali come la pubblicità mirata;
- la garanzia che i termini pubblicati siano adeguati all’età e difendano i diritti dei bambini;
- la creazione di meccanismi di ricorso e riparazione su misura per i bambini, compreso un facile accesso alla consulenza e al sostegno di esperti.
È altresì importante garantire una sufficiente trasparenza e supervisione normativa per tutelare l’efficacia e l’applicabilità di tali misure, anche garantendo che le aziende siano giudicate in base agli standard legali per l’accertamento dell’età, le valutazioni d’impatto sui bambini e la progettazione adeguata all’età.
Pertanto, l’inserimento di tale clausola relativa ai bambini nel DSA garantirebbe una migliore protezione dei diritti dei bambini, assicurando che siano considerati come soggetti a pieno titolo e non soggetti a dibattiti più ampi che toccano l’equilibrio dei diritti e degli obblighi relativi all’esperienza online degli adulti, ampliando così l’accuratezza dei meccanismi di protezione.