Alla luce delle implicazioni legate alla gestione dei dati personali degli utenti esposti al rischio di sofisticate tecniche di manipolazione e poiché molte impostazioni predefinite delle piattaforme sembrano avvantaggiare, in termini di costi-benefici, i colossi del web più che gli stessi utenti interessati, si sta intensificando il livello di attenzione del Congresso USA sulle modalità di funzionamento degli algoritmi utilizzati dai social network per stimolare il coinvolgimento dei giovani.
Oltreoceano si sta pensando, insomma, di procedere alla necessaria disciplina del settore, che sembra prospettare analogie regolatorie tra le aziende “high-tech” e l’industria del tabacco a fronte di una serie di criticità e svantaggi tali da equiparare gli effetti “collaterali” delle piattaforme social al tasso nocivo delle sigarette soprattutto in termini di dipendenza patologica generata nelle giovani generazioni.
Instagram (Facebook) tossico per le teenager: se il profitto social vince su tutto
Impostazioni predefinite e profilazione
Il funzionamento delle principali piattaforme sociali presuppone il raggiungimento di elevati livelli di viralizzazione dei contenuti per massimizzare il profitto legato ai sistemi di engagement.
Per tali finalità, come descritto da un articolo di approfondimento del “The Wall Street Journal”, sono state progettate le impostazioni predefinite di utilizzo: qualunque modifica restrittiva rispetto a quanto previsto richiederebbe modalità di selezione talmente complicate che tendono a scoraggiare la scelta degli utenti, al punto da preferire di mantenere le condizioni originarie imposte all’atto di accesso all’interno delle piattaforme, piuttosto che effettuare cambiamenti della relativa policy per rimuovere i sistemi preimpostati. Peraltro, la possibilità di disabilitare alcune funzionalità, che bisogna preventivamente conoscere nel loro concreto funzionamento al fine di fruirne concretamente, avrebbe comunque una durata massima limitata con conseguente ripristino delle relative notifiche decorso il termine previsto.
Ciò sembra spiegare perché la maggior parte delle persone non modifica le impostazioni predefinite nelle proprie app, a causa di invisibili algoritmi di profilazione che determinano un impatto negativo soprattutto sulla salute dei giovani che trascorrono sempre più tempo sui dispositivi in condizioni non sicure.
È ormai noto che gli utenti hanno un controllo del tutto nullo sul sistema tecnologico che processa i dati personali per selezionare, sulla base delle preferenze profilate, i contenuti più pertinenti, mostrando gli account seguiti, al pari di altri algoritmi utilizzati per far emergere i video o le immagini che potrebbero maggiormente colpire l’interesse degli utenti i quali, nella visualizzazione dei feed di informazioni fornite, non essendo in grado di conoscere i meccanismi di disattivazione messi a disposizione, subiscono passivamente gli effetti che ne derivano anche in termini di disinformazione, contenuti violenti e notizie fuorvianti.
L’impatto dei social sulla salute mentale dei ragazzi
L’impatto dei social media sui giovani può essere particolarmente dannoso anche per la salute mentale a causa di una stretta connessione tra l’uso di tali piattaforme e l’incremento di sindromi depressive, con l’ulteriore rischio di esporre gli adolescenti a casi diffusi di cyber-bullismo, come si evince dalla ricerca “Fare fronte al COVID-19: come i giovani hanno utilizzato i media digitali per gestire la propria salute mentale”, che descrive l’incidenza di sintomi depressivi da moderati a gravi con il doppio delle probabilità a causa della costante sovrastimolazione dei social network sul sistema nervoso. Si tratta di risultati peraltro sotto sistemati, poiché almeno il 70% degli adolescenti nasconde il proprio comportamento tenuto online ai genitori, preferendo cercare aiuto e supporto sui social dove incontrano coetanei con cui si incoraggiano a vicenda in comportamenti malsani e pericolosi.
Verso la fine dell’epoca del “like”: le misure per limitare i danni da social
La proposta “Kids Internet Design and Safety Act (aka KIDS Act)” è diretta a proteggere i minori di 16 dal marketing manipolativo sviluppato mediante progettazione pericolose e algoritmi dannosi.
In particolare, prendendo atto che le piattaforme di social media sono sempre più popolari e integrate nella vita dei giovani, al punto che i bambini di età inferiore agli 8 anni utilizzano strumenti digitali per quasi due ore e mezza al giorno in media e oltre i due terzi dei bambini di età compresa tra 5 e 8 anni hanno il proprio tablet o smartphone e tre genitori su dieci di bambini di età compresa tra 9 e 11 anni riferiscono che i propri figli usano TikTok, in presenza di una varietà di inedite minacce da cui discendono effetti dannosi sulla salute mentale, il citato provvedimento vieta le impostazioni di “riproduzione automatica” che portano a sessioni di visualizzazione prolungate su siti web e app per bambini e adolescenti, nonché gli avvisi push o badge che stimolano i bambini e i giovani adolescenti ad aumentare il tempo di utilizzo. Si prevede altresì di rimuovere le funzionalità dell’interfaccia, come i pulsanti “mi piace” e il conteggio dei follower, che quantificano i livelli di popolarità per bambini e adolescenti, proibendo ai siti web per bambini e adolescenti di amplificare contenuti violenti, inappropriati e pericolosi, anche mediante l’implementazione di meccanismi per consentire agli utenti di segnalare contenuti dannosi.
“Febbre da like”, è ora di limitare i danni: ecco cosa fanno i social
In generale, emerge, in maniera pressoché “bipartisan”, la volontà politica di elaborare interventi di riforma per vietare l’utilizzo di questo tipo di strumenti di marketing, al punto di precludere la visualizzazione dei feedback positivi che misurano il livello di coinvolgimento dei contenuti pubblicati online: in poche parole niente più “Mi piace”, come fine dell’epoca della condivisione all’insegna di “like” che hanno a lungo determinato il successo delle piatteforme social.
Le altre misure all’orizzonte
In tale prospettiva, oltre alle proposte di revisione della Sezione 230, che protegge le piattaforme online mediante un generale regime di immunità da responsabili per i contenuti dannosi pubblicati sui loro siti, è stato presentato il Justice Against Malicious Algorithms Act per contenere la diffusione di incitamento all’odio e disinformazione e il Filter Bubble Transparency Act: un disegno di legge bipartisan presentato negli scorsi mesi per imporre alle piattaforme online con oltre un milione di utenti l’obbligo di indicare se i feed sono manipolati algoritmicamente, fornendo in tal caso un feed alternativo e privo di algoritmi per evitare la formazione di “bolle di filtro” che utilizzano algoritmi “segreti” nell’organizzazione delle informazioni fornite agli utenti, prevedendo la possibilità di installare l’opzione “sparkle icon” che consente di passare da una sequenza temporale personalizzata e una cronologia puramente cronologica.
Il Children and Teens’ Online Privacy Protection Act, nell’implementare il contenuto del “Digital Marketing Bill of Rights for Minors” per rendere più sicuro l’ecosistema digitale, costituisce la versione aggiornata della “Legge sulla protezione delle informazioni sui bambini e sui giovani vulnerabili” (COPPA) che mira a estendere le misure di protezione della privacy agli utenti dai 13 ai 15 anni, vietando integralmente la pubblicità personalizzata ai bambini e agli operatori telematici di raccogliere informazioni personali. Il disegno di legge istituisce anche una divisione per la privacy e il marketing dei giovani presso la Federal Trade Commission (FTC), che avrà il compito di affrontare la privacy di bambini e minori connessa agli strumenti di marketing.