Social e salute mentale

TikTok fa male ai ragazzi? Ecco cosa devono sapere i genitori



Indirizzo copiato

Un recente studio del CCDH conferma che ancora TikTok continua a suggerire contenuti tossici, pericolosi per la salute mentale dei ragazzi. Si aggiunge a una crescente mole di studi ed evidenze riguardanti la pericolosità dei social e degli smartphone. Ecco cosa devono sapere i genitori

Pubblicato il 19 mag 2023

Alessandro Longo

Direttore agendadigitale.eu

Antonino Mallamaci

avvocato, Co.re.com. Calabria



tiktok

Julie Jargon, giornalista del Wall Street Journal esperta di tecnologia, ha tre bambini. E un recente studio del CCDH le ha confermato che lei ha fatto bene, due anni fa, a non lasciare che i suoi figli usassero TikTok.

Lo studio del CCDH su TikTok

Jargon credeva che le cose fossero migliorate dopo che lo stesso WSJ, nel 2021, aveva gettato luce sugli angoli bui dove venivano spinti dall’app cinese i ragazzini. A seguito di quell’inchiesta, la piattaforma aveva migliorato i controlli di age verification e facilitato quelli parentali.

TikTok’s Algorithm Keeps Pushing Suicide to Vulnerable Kids

Ma siccome il lupo cambia il pelo, con quel che segue, questa volta è stato il CCDH (centro per il contrasto all’odio digitale) a smascherare ancora una volta TikTok, a segnalare i pericoli cui i bambini (che non potrebbero e non dovrebbero accedere ai social) e gli adolescenti vanno incontro inermi frequentando certi ambienti virtuali.

Il CCDH ha verificato che gli account fittizi aperti da ipotetici tredicenni sono stati rapidamente inondati di video su disturbi alimentari, immagini corporee, autolesionismo e suicidii.

Julie ha quindi voluto appurare se i post fossero stati rimossi, e ha scoperto che molti di essi erano spariti, ma la maggior parte degli account era rimasta insieme a video simili pubblicati dagli utenti. TikTok, interpellata dalla giornalista, ha sottolineato di essere aperta al feedback e al controllo da parte di gruppi come CCDH, e che lavora molto per rimuovere i contenuti che violano le sue linee guida. Tutto ciò mentre TikTok è sottoposta a molte pressioni ed è stata proibita ai dipendenti pubblici, e in alcuni stati USA a tutti i cittadini, per il rischio che dati sensibili e riservati, per ragioni di sicurezza, potessero finire nelle mani del governo cinese. Lo Stato del Montana ha addirittura approvato in questi giorni un ban dell’app.

lo scorso agosto i suoi ricercatori hanno creato otto account TikTok in modo che sembrassero appartenere a tredicenni di Stati Uniti, Regno Unito, Canada e Australia. Per 30 minuti, i ricercatori dietro gli account si sono fermati brevemente su tutti i video che la pagina For You della piattaforma mostrava loro sull’immagine corporea e sulla salute mentale. Immediatamente, sono stati consigliati video su suicidio e disturbi alimentari, addirittura uno ogni 39 secondi! Dopo che i ricercatori hanno pubblicato le loro scoperte, molti dei video segnalati sono scomparsi. Molti degli account sono invece rimasti.

Questi account includono altri video che promuovono diete restrittive e discutono di autolesionismo e suicidio. TikTok rimuove i contenuti che violano chiaramente le sue linee guida, ad esempio facendo riferimento direttamente al suicidio. I video in cui le persone descrivono i propri sentimenti suicidi, tuttavia, potrebbero non essere considerati una violazione e non ricadrebbero sotto il controllo del moderatore. Anzi, secondo TikTok potrebbero anche essere utili ad alcune persone. Gli psicologi infantili hanno sulla questione un’opinione netta: anche questi possono avere un effetto dannoso.

Da TikTok si fa presente che la piattaforma può essere un luogo per condividere sentimenti su esperienze difficili e citano esperti che supportano l’idea che affrontare attivamente emozioni difficili possa essere utile per chi posta e per chi guarda. Secondo i suoi dirigenti, la piattaforma è programmata, di default o su segnalazione, a rimuovere i video che promuovono o glorificano l’autolesionismo, ma contenuti – a loro avviso – educativi o di recupero sono ammessi. La società ha affermato di regolare continuamente il proprio algoritmo per evitare di raccomandare ripetutamente una gamma ristretta di contenuti.

Julie Jargon ha avuto dal CCHD i collegamenti a 595 video che TikTok ha consigliato ai falsi account di adolescenti. Il Centro le ha anche fornito bobine contenenti tutti i video, alcuni dei quali non sono più sul sito, esaminati insieme ad altri contenuti sugli account con video segnalati. La giornalista ammette che dopo qualche ora ha dovuto smettere. La rapida serie di video tristi l’ha fatta stare male, e si è chiesta come si sentirebbe un quattordicenne dopo aver visto questo tipo di contenuti giorno dopo giorno.

“Un account è dedicato alla musica “triste e solitaria”. Un altro presenta un’adolescente che piange in ogni video, con dichiarazioni sul suicidio. Uno è pieno di video girati in una stanza d’ospedale. Ciascuno dei video dell’ospedale contiene testi che esprimono pensieri suicidi, tra cui: “Per il mio trucco finale mi trasformerò in una delusione”: questo ha visto coi suoi occhi di mamma la giornalista. Che ha anche scoperto, grazie alla ricerca del Centro per il contrasto all’odio digitale, che gli utenti – presumibilmente ragazzini e soprattutto ragazzine – hanno sviluppato modi creativi per aggirare i filtri di accesso a contenuti pericolosi. Ad esempio, TikTok non consente di vedere contenuti che facciano riferimento al suicidio, ma gli utenti usano una parola dal suono simile come “sewerslide”, o semplicemente scrivono “tentativo”: il resto lo fa l’algoritmo. Anche i creatori di video sull’alimentazione disordinata hanno eluso i filtri di TikTok.

Controllare tutti i contenuti di un servizio utilizzato da oltre un miliardo di utenti mensili non è un compito facile. Ma c’è una enorme differenza tra eliminare i contenuti dannosi e promuoverli.

“Se le aziende tecnologiche non possono eliminarli del tutto, almeno non dovrebbero creare e usare algoritmi che indirizzino i bambini verso tali contenuti”: questa la condanna esplicita dell’a.d. dell’American Psychological Association.

Il problema di TikTok con i minori

Come sappiamo, per averne riferito più volte su Agenda digitale, non è la prima volta che la piattaforma entra nell’occhio del ciclone, soprattutto per la potenza del suo algoritmo – si chiama ForYou, ma sarebbe più appropriato ribattezzarlo AgainstYou – che produce un’assuefazione e una dipendenza senza paragoni con gli altri social media. Inoltre, basta guardare per pochissimo tempo un video di un certo genere per venire letteralmente seppelliti da una valanga di post simili. Nel 2021, come abbiamo scritto, il WSJ ha scoperto che TikTok indirizzava gli spettatori verso contenuti pericolosi. Un’altra vicenda clamorosa fu quella delle migliaia di adolescenti in tutto il mondo che avevano sviluppato tic fisici dopo aver visto una montagna di video su persone che esibivano comportamenti simili a quelli associati alla sindrome di Tourette .

TikTok, dal canto suo, asserisce di avere un team di oltre 40.000 persone che moderano i contenuti; afferma di avere rimosso, negli ultimi tre mesi del 2022, circa 85 milioni di post, il 2,8 % dei quali contenevano riferimenti a suicidio, autolesionismo e disturbi alimentari.

Secondo il Pew Research Center, due terzi degli adolescenti statunitensi usano TikTok, il 16% quasi costantemente. Questi dati danno la misura del problema. L’American Psychological Association ha diramato linee guida nelle quali si raccomanda ai genitori di monitorare lo “scroll” dei social media dei loro figli più piccoli. L’APA esorta inoltre i genitori e le aziende tecnologiche a prestare maggiore attenzione ai contenuti che incoraggiano i bambini a farsi del male.

Qualche consiglio ai genitori

Da ultimo, qualche consiglio per i genitori.

Innanzitutto devono chiedere ai figli di mostrare la loro pagina For You. Se il genitore rileva contenuti dannosi, probabilmente il figlio sta interagendo con quelli ed è il momento giusto per parlarne.

  • I genitori, inoltre, possono aprire un loro profilo e, tramite questo, utilizzare il “family pairing”, disponibile su TikTok, per controllare i contenuti e limitare il tempo di utilizzo.
  • È possibile anche filtrare i video contenenti parole o hashtag che possono indirizzare su contenuti inappropriati, e se ciò non è risolutivo possono digitare su “non interessato”. Si tenga conto che gli utenti sono soliti usare trucchetti per aggirare i filtri; invece di nominare il suicidio scrivono solo “tentativo” (attempt).
  • Quando il feed diviene, giorno dopo giorno, sempre più problematico, è anche possibile aggiornarlo senza chiudere l’account, come facevano prima i minori per uscire dal flusso di contenuti tossici.
  • Ma non è finita qui! Anche se aggiornato, il feed può in pochissimo tempo tornare al punto di partenza, perciò bisogna stare attenti a dove mettiamo i “mi piace”. Il famigerato algoritmo di TikTok ti sorveglia, e indugiare per un po’ su un contenuto comporta la riproposizione di quello e di altri simili più e più volte, senza posa.

Alla fine, sembra che l’unica scelta sicura sia quella definitiva di Julie Jargon, mamma ed esperta del campo: tenere i bambini e i ragazzi lontani da questo mondo che li cattura inesorabilmente; ogni rimedio appare come, come abbiamo appena visto, una fatica estremamente stressante per essi e per gli adulti. Al che vien da chiedersi se il gioco, che gioco il più delle volte non è, valga la candela

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4