Meta, proprietaria di Facebook e Instagram, ha annunciato che a breve entreranno a regime modifiche alle impostazioni dei due social media per rendere meno rischiosa la navigazione per i minorenni.
Cosa prevedono le nuove regole Meta sulla sicurezza dei minori
In sostanza, un filtraggio dei contenuti by default, mediante il quale sarà impedito ai minori di 18 anni di accedere a contenuti dannosi. Nei loro account, in base alla data di nascita inserita in sede di registrazione, verranno automaticamente inserite le impostazioni più restrittive.
Su Instagram, mediante un sistema chiamato Sensitive Content Control, non potranno accedere a contenuti sessualmente espliciti.
Su Facebook lo stesso meccanismo di protezione è stato definito Reduce. A tali utenti non sarà consentito disattivare le impostazioni restrittive. Naturalmente, essi non avranno la possibilità di vedere le pubblicazioni soggette a restrizioni neanche se condivise da amici virtuali o da utenti dei quali sono followers. Saranno invece visibili i contenuti nei quali si parla sì di un problema, ma solo se esso viene illustrato positivamente, nel senso che ne viene testimoniata la soluzione. Ad esempio, un contenuto che mostra un adolescente in fase di recupero da un disturbo alimentare.
Le accuse di 40 Stati Usa dietro il nuovo corso di Meta per la tutela dei minori
Il nuovo corso di Meta per la tutela dei minorenni arriva, e certamente ne sarà stato condizionato, dopo che 40 Stati della Federazione hanno avviato un’azione giudiziaria nei suoi confronti, accusandola di aver deliberatamente ignorato i pericoli che le piattaforme rappresentano per i bambini e gli adolescenti, soprattutto di sesso femminile.
Tutto prende le mosse dagli articoli del Wall Street Journal, noti come Facebook Files, pubblicati nel 2021 e frutto delle clamorose rivelazioni di una ex dipendente di Facebook, Frances Haugen. I documenti interni di Meta resi pubblici dalla Haugen contengono centinaia di pagine sul comportamento degli adolescenti e sugli sforzi dell’azienda per rendere la piattaforma per loro più allettante.
Le vulnerabilità degli adolescenti sfruttare a fini di business
Basandosi su sondaggi e studi sull’esperienza – utenti, ricercatori interni hanno rilevato che per un rilevante numero di adolescenti (soprattutto di sesso femminile), vulnerabili in termini di salute mentale, Instagram presentava grossi rischi. Nelle azioni giudiziarie si asserisce che l’azienda ha progettato i suoi prodotti per sfruttare la predisposizione dei giovani utenti alla pressione dei coetanei e al comportamento potenzialmente rischioso. Meta ha ovviamente smentito.
Come agiranno i filtri per i contenuti e da quando
Secondo Meta, con le nuove impostazioni gli utenti minorenni, essendo i contenuti inappropriati semplicemente non disponibili, saranno ignari dei filtri progettati a monte e cosa essi riguardino. Sui filtri hanno lavorato esperti dello sviluppo, mentale e fisico, degli adolescenti. Gli algoritmi per i filtri erano già in funzione per Video Reels ed Esplora; tra meno di un mese lo saranno anche per il feed e le storie. Le modifiche saranno applicate agli account già attivi e a quelli che lo saranno già nei prossimi giorni.
Ma c’è anche una parte del progetto per così dire propositiva: quando un adolescente cercherà dei contenuti su suicidi, autolesionismo, disturbi alimentari ecc., la piattaforma non solo impedirà di visualizzarli, ma indirizzerà l’utente su siti o altri strumenti d’aiuto e di supporto.
Meta, inoltre, starebbe lavorando per migliorare il sistema, in una costante rincorsa tipica del mondo virtuale. Infatti, si è oramai appurato che i filtri possono essere aggirati in maniera abbastanza semplice digitando la parola o la frase “incriminate” con qualche variazione, come succede per marchi farlocchi quando, per esempio, Adidas diventa Addas, o Versace diventa Versacce. È perciò necessario lavorarci di continuo. Altro problema, spesso provocato artatamente, è quello della complessità delle procedure richieste per la scelta di determinate impostazioni, oppure il fatto che le opzioni siano eccessivamente trasparenti. Meta sta approntando quindi tecniche progettuali per rendere più private le impostazioni di condivisione degli adolescenti su Instagram. Apparirà una notifica che offre loro la possibilità di attivare le impostazioni consigliate con un solo tocco e che sarà visualizzata nelle situazioni in cui l’account dell’adolescente viene taggato o interagisce con un account sconosciuto.
Il Parental Control attivo implementato da Agcom
L’azione di Meta può anche essere messa in relazione con le nuove regole entrate in vigore nel nostro Paese il 21 novembre scorso per proteggere i minori dai rischi online. Esse obbligano I provider a mettere in campo strumenti idonei per filtrare by default i contenuti inappropriati e bloccare quelli riservati ai maggiorenni. Il parental control implementato dall’Agcom ha lo scopo di rendere Fine modulo più efficace ed efficiente possibile dal punto di vista tecnico questo strumento, per consentire l’effettiva applicazione della normativa in vigore nel campo della tutela dei minori.
Il parental control system (SCP, Sistema di controllo parentale) permette di limitare o bloccare l’accesso a determinate attività e a contenuti inappropriati per i minori. Al momento, sono otto le categorie individuate dai soggetti che hanno risposto alla consultazione dell’Autorità:
- Contenuti per adulti: siti riservati ai maggiorenni; siti che mostrano nudità in un contesto pornografico, accessori sessuali, attività orientate al sesso; siti che raccomandano l’acquisto di tali beni e servizi;
- Gioco d’azzardo/scommesse: siti che forniscono informazioni o promuovono/supportano gioco d’azzardo e/o scommesse;
- Armi: siti che forniscono informazioni, promuovono o supportano la vendita di armi e articoli correlati;
- Violenza: siti che presentano o promuovono violenza o lesioni personali anche autoinflitte, il suicidio, o che mostrano scene di violenza gratuita, insistita o efferata;
- Odio e discriminazione: siti che promuovono/supportano odio/intolleranza verso individui o gruppi;
- Promozione di pratiche che possono danneggiare la salute alla luce di consolidate conoscenze mediche: siti che promuovono/supportano anoressia/bulimia, uso di sostanze stupefacenti, alcol, tabacco;
- Anonymizer: siti che forniscono strumenti per rendere l’attività online irrintracciabile;
- Sette: siti che promuovono/offrono assistenza per influire su eventi reali attraverso l’uso di incantesimi, maledizioni, poteri magici o esseri soprannaturali.
Meta, perciò, come presumibilmente faranno anche altre big tech, si sta attrezzando per contrastare, da un lato l’offensiva giudiziaria negli Stati Uniti, dall’altro le regole sempre più stringenti che si stanno approntando da questa parte dell’Atlantico.
Sempre di più, ci si rende conto (finalmente, viene da aggiungere) che il Web non può essere lasciato alla deregulation più totale, come è successo per troppo tempo. Negli ultimi giorni, la vicenda della ristoratrice di Sant’Angelo Lodigiano morta suicida causa gogna mediatica ha confermato che l’allarme, in questo ambito, non è mai troppo.