Julie Jargon, giornalista del Wall Street Journal esperta di tecnologia, ha tre bambini. E un recente studio del CCDH le ha confermato che lei ha fatto bene, due anni fa, a non lasciare che i suoi figli usassero TikTok.
Lo studio del CCDH su TikTok
Jargon credeva che le cose fossero migliorate dopo che lo stesso WSJ, nel 2021, aveva gettato luce sugli angoli bui dove venivano spinti dall’app cinese i ragazzini. A seguito di quell’inchiesta, la piattaforma aveva migliorato i controlli di age verification e facilitato quelli parentali.
Ma siccome il lupo cambia il pelo, con quel che segue, questa volta è stato il CCDH (centro per il contrasto all’odio digitale) a smascherare ancora una volta TikTok, a segnalare i pericoli cui i bambini (che non potrebbero e non dovrebbero accedere ai social) e gli adolescenti vanno incontro inermi frequentando certi ambienti virtuali.
Il CCDH ha verificato che gli account fittizi aperti da ipotetici tredicenni sono stati rapidamente inondati di video su disturbi alimentari, immagini corporee, autolesionismo e suicidii.
Julie ha quindi voluto appurare se i post fossero stati rimossi, e ha scoperto che molti di essi erano spariti, ma la maggior parte degli account era rimasta insieme a video simili pubblicati dagli utenti. TikTok, interpellata dalla giornalista, ha sottolineato di essere aperta al feedback e al controllo da parte di gruppi come CCDH, e che lavora molto per rimuovere i contenuti che violano le sue linee guida. Tutto ciò mentre TikTok è sottoposta a molte pressioni ed è stata proibita ai dipendenti pubblici, e in alcuni stati USA a tutti i cittadini, per il rischio che dati sensibili e riservati, per ragioni di sicurezza, potessero finire nelle mani del governo cinese. Lo Stato del Montana ha addirittura approvato in questi giorni un ban dell’app.
lo scorso agosto i suoi ricercatori hanno creato otto account TikTok in modo che sembrassero appartenere a tredicenni di Stati Uniti, Regno Unito, Canada e Australia. Per 30 minuti, i ricercatori dietro gli account si sono fermati brevemente su tutti i video che la pagina For You della piattaforma mostrava loro sull’immagine corporea e sulla salute mentale. Immediatamente, sono stati consigliati video su suicidio e disturbi alimentari, addirittura uno ogni 39 secondi! Dopo che i ricercatori hanno pubblicato le loro scoperte, molti dei video segnalati sono scomparsi. Molti degli account sono invece rimasti.
Questi account includono altri video che promuovono diete restrittive e discutono di autolesionismo e suicidio. TikTok rimuove i contenuti che violano chiaramente le sue linee guida, ad esempio facendo riferimento direttamente al suicidio. I video in cui le persone descrivono i propri sentimenti suicidi, tuttavia, potrebbero non essere considerati una violazione e non ricadrebbero sotto il controllo del moderatore. Anzi, secondo TikTok potrebbero anche essere utili ad alcune persone. Gli psicologi infantili hanno sulla questione un’opinione netta: anche questi possono avere un effetto dannoso.
Da TikTok si fa presente che la piattaforma può essere un luogo per condividere sentimenti su esperienze difficili e citano esperti che supportano l’idea che affrontare attivamente emozioni difficili possa essere utile per chi posta e per chi guarda. Secondo i suoi dirigenti, la piattaforma è programmata, di default o su segnalazione, a rimuovere i video che promuovono o glorificano l’autolesionismo, ma contenuti – a loro avviso – educativi o di recupero sono ammessi. La società ha affermato di regolare continuamente il proprio algoritmo per evitare di raccomandare ripetutamente una gamma ristretta di contenuti.
Julie Jargon ha avuto dal CCHD i collegamenti a 595 video che TikTok ha consigliato ai falsi account di adolescenti. Il Centro le ha anche fornito bobine contenenti tutti i video, alcuni dei quali non sono più sul sito, esaminati insieme ad altri contenuti sugli account con video segnalati. La giornalista ammette che dopo qualche ora ha dovuto smettere. La rapida serie di video tristi l’ha fatta stare male, e si è chiesta come si sentirebbe un quattordicenne dopo aver visto questo tipo di contenuti giorno dopo giorno.
“Un account è dedicato alla musica “triste e solitaria”. Un altro presenta un’adolescente che piange in ogni video, con dichiarazioni sul suicidio. Uno è pieno di video girati in una stanza d’ospedale. Ciascuno dei video dell’ospedale contiene testi che esprimono pensieri suicidi, tra cui: “Per il mio trucco finale mi trasformerò in una delusione”: questo ha visto coi suoi occhi di mamma la giornalista. Che ha anche scoperto, grazie alla ricerca del Centro per il contrasto all’odio digitale, che gli utenti – presumibilmente ragazzini e soprattutto ragazzine – hanno sviluppato modi creativi per aggirare i filtri di accesso a contenuti pericolosi. Ad esempio, TikTok non consente di vedere contenuti che facciano riferimento al suicidio, ma gli utenti usano una parola dal suono simile come “sewerslide”, o semplicemente scrivono “tentativo”: il resto lo fa l’algoritmo. Anche i creatori di video sull’alimentazione disordinata hanno eluso i filtri di TikTok.
Controllare tutti i contenuti di un servizio utilizzato da oltre un miliardo di utenti mensili non è un compito facile. Ma c’è una enorme differenza tra eliminare i contenuti dannosi e promuoverli.
“Se le aziende tecnologiche non possono eliminarli del tutto, almeno non dovrebbero creare e usare algoritmi che indirizzino i bambini verso tali contenuti”: questa la condanna esplicita dell’a.d. dell’American Psychological Association.
Il problema di TikTok con i minori
Come sappiamo, per averne riferito più volte su Agenda digitale, non è la prima volta che la piattaforma entra nell’occhio del ciclone, soprattutto per la potenza del suo algoritmo – si chiama ForYou, ma sarebbe più appropriato ribattezzarlo AgainstYou – che produce un’assuefazione e una dipendenza senza paragoni con gli altri social media. Inoltre, basta guardare per pochissimo tempo un video di un certo genere per venire letteralmente seppelliti da una valanga di post simili. Nel 2021, come abbiamo scritto, il WSJ ha scoperto che TikTok indirizzava gli spettatori verso contenuti pericolosi. Un’altra vicenda clamorosa fu quella delle migliaia di adolescenti in tutto il mondo che avevano sviluppato tic fisici dopo aver visto una montagna di video su persone che esibivano comportamenti simili a quelli associati alla sindrome di Tourette .
TikTok, dal canto suo, asserisce di avere un team di oltre 40.000 persone che moderano i contenuti; afferma di avere rimosso, negli ultimi tre mesi del 2022, circa 85 milioni di post, il 2,8 % dei quali contenevano riferimenti a suicidio, autolesionismo e disturbi alimentari.
Secondo il Pew Research Center, due terzi degli adolescenti statunitensi usano TikTok, il 16% quasi costantemente. Questi dati danno la misura del problema. L’American Psychological Association ha diramato linee guida nelle quali si raccomanda ai genitori di monitorare lo “scroll” dei social media dei loro figli più piccoli. L’APA esorta inoltre i genitori e le aziende tecnologiche a prestare maggiore attenzione ai contenuti che incoraggiano i bambini a farsi del male.