TikTok, il noto e popolatissimo social media di condivisione di video brevi, ha acquisito una popolarità considerevole tra i minori. E quando si va a parlare di accesso ai contenuti da parte dei più giovani, la questione assume una particolare delicatezza.
I danni dell’algoritmo di TikTok sugli adolescenti: i dati oltre il clamore
La piattaforma è stata più volte criticata per la carenza nei controlli sui video degli utenti e sulla protezione dei minori durante la navigazione. Su TikTok sono stati infatti diffusi più volte video che mostrano scene di violenza, bullismo e contenuti sessualmente espliciti, che possono essere dannosi per la salute mentale e lo sviluppo dei minori. Questo pericolo è reso più gravoso dalle difficoltà di accesso alle informazioni relative alle impostazioni di privacy e sicurezza, le quali non sono facilmente accessibili e comprensibili per i genitori. Questo rende difficoltoso per loro il controllo dell’utilizzo del social da parte dei figli e la loro protezione da contenuti inappropriati. Il cyberbullismo è un fenomeno purtroppo diffuso su TikTok, come su tutte le piattaforme social. A ciò deve aggiungersi che, l’astuta gestione dei contenuti da parte della piattaforma attraverso algoritmi che forniscono l’accesso ai video in base a quelli più visti dall’utente, rende particolarmente attraente l’esperienza. La fotografia che ne scaturisce è quella descritta senza mezzi termini dall’Atlante di Save the Children, il quale evidenzia che in Italia le ragazze e i ragazzi di 11, 13 e 15 anni mostrano un uso problematico dei social media; sono circa il 13,5%. Dipendenza da social e contenuti inappropriati facilmente accessibili, creano un mix pericoloso al quale cercano di far fronte le autorità di tutto il mondo.
TikTok e la manipolazione della viralità dei contenuti
La viralità dei contenuti su TikTok dipende soltanto da elementi oggettivi o subentra anche l’intervento umano?
Ebbene, secondo quanto emerso da un’indagine di Forbes, lo staff statunitense del social avrebbe la capacità di manipolare quali video diventino virali e quali no.
In particolare, i dipendenti avrebbero la possibilità di far emergere contenuti e nuove emergenti nella comunità TikTok. Ciò avverrebbe attraverso il cosiddetto pulsante “heating”, che può essere utilizzato per manipolare i video selezionati nelle pagine degli utenti, contribuendo ad aumentare le visualizzazioni eludendo l’algoritmo che presumibilmente guida l’esperienza TikTok.
Secondo Jamie Favazza, rappresentante di TikTok, il pulsante “heating” viene utilizzato per molte ragioni e non solo per aumentare il numero di visualizzazioni ricevute da un video specifico. In particolare, la funzione è quella di contribuire a modificare l’esperienza dei contenuti e garantire che il feed non sia limitato a solo alcune tendenze.
La viralità dei video non sarebbe peraltro trasparente, considerando che i video in tendenza non hanno un’etichetta per dimostrare che sono stati potenziati da TikTok, come avviene invece per gli annunci o i post sponsorizzati. Appaiono come qualsiasi altro video che l’algoritmo avrebbe selezionato per l’utente.
L’informazione non sarebbe comunque del tutto inaspettata, considerando che da anni si vocifera che TikTok abbia utilizzato la promessa di contenuti sponsorizzati per convincere aziende e politici a utilizzare la sua piattaforma. Le aziende, in particolare quelle del settore musicale, sono state aperte all’utilizzo del sito per promuovere i propri prodotti e servizi.
Visualizzazioni “dopate”: non c’è solo TikTok
TikTok non è naturalmente l’unica piattaforma di social media che aumenta artificialmente le visualizzazioni dei video, la stessa Facebook sapeva di mostrare un numero falso di visualizzazioni, ma ha ritardato la correzione per attirare inserzionisti e aziende dei media sulla sua piattaforma. Alla fine, ha pagato 40 milioni di dollari per risolvere una causa sulla questione. TikTok sta facendo lo stesso, in misura più estesa, e questo di certo non accresce la fiducia nei suoi confronti né lo fa uscire dall’occhio del ciclone, con le autorità competenti dei vari Paesi del mondo sempre attente a intervenire.
Emerge quindi che TikTok seleziona e decide i vincitori e i vinti. Ci sono stati casi in cui il personale ha promosso video di amici, partner commerciali e persino i propri account valorizzando contenuti che non avrebbero dovuto diventare virali. Un potere di questo tipo favorisce la manipolazione degli utenti, e se è possibile farlo con qualsiasi contenuto, nulla toglie che qualche dipendente poco propenso alla tutela dei più deboli possa “spingere” contenuti inappropriati.
La mancanza di trasparenza di TikTok è però un rischio per la piattaforma stessa, in quanto questo tipo di comportamento rende difficile determinare quali video abbiano raggiunto la vetta in modo naturale, e i creatori potrebbero perdere interesse per il sito se i loro video hanno un rendimento scarso rispetto a quelli che vengono spinti.
TikTok, l’ultimo fronte nella competizione USA-Cina
Nei giorni scorsi gli Stati Uniti hanno fatto un passo avanti verso il divieto di TikTok dopo che la Camera dei Rappresentanti ha approvato un disegno di legge che chiede allo sviluppatore cinese dell’app, ByteDance, di disinvestire dalla società o di essere espulso dagli app store statunitensi.
Il Protecting Americans from Foreign Adversary Controlled Applications Act è stato approvato con uno schiacciante sostegno bipartisan, ricevendo 352 voti a favore e solo 65 contrari. Molti membri della Camera hanno sostenuto che l’app potrebbe consentire al governo cinese di accedere ai dati degli utenti e influenzare gli americani attraverso il popolarissimo algoritmo della piattaforma di social media. La Casa Bianca ha appoggiato il disegno di legge.
La battaglia su TikTok è in realtà solo l’ultimo fronte nella competizione USA-Cina, e in realtà il vero scopo è quello di contrastare potenziali campagne di influenza straniera. Nel caso di TikTok, i legislatori statunitensi temono che ByteDance possa essere segretamente controllato dal Partito Comunista Cinese.
La società ha ovviamente negato le accuse di condividere dati sensibili degli utenti con il governo cinese e la volontà di manipolare gli americani attraverso la gestione della viralità dei contenuti, affermando che ByteDance non è di proprietà del governo cinese, bensì una società privata.
Ma i regolatori cinesi hanno una storia di repressione nei confronti delle aziende tecnologiche nazionali. Pechino è anche nota per aver censurato contenuti politicamente sensibili e per aver impedito agli utenti di accedere ai social media e ai siti occidentali con il suo “Great Firewall”.
Divieto di TikTok negli Usa: c’è chi dice no
Ma la domanda è: c’è motivo di preoccuparsi per TikTok? Ora, che la piattaforma nasconda in sé dei rischi è ormai cosa nota, sul quantum si può eventualmente discutere.
C’è anche chi si oppone al divieto di TikTok negli USA, benché con argomentazioni piuttosto fragili, molti affermano infatti che sì la piattaforma ha sollevato preoccupazioni sulla sua potenziale influenza negativa sui bambini, ma che lo stesso si può dire di altre piattaforme di social media come Instagram.
Ora, è evidente come l’inquietudine statunitense abbia un forte elemento politico in sé, che si inserisce nell’eterna diatriba con la Cina. Fatto sta che il messaggio arrivato da oltreoceano testimonia come la questione della manipolazione dei contenuti non sia più un argomento caro solo all’UE.
L’intervento dell’Antitrust in Italia
L’Autorità Garante della Concorrenza e del Mercato (AGCM) ha avviato un’istruttoria nei confronti di TikTok per un presunto indebito condizionamento degli utenti, in particolare minori e soggetti vulnerabili. L’indagine si concentra sul sistema di raccomandazione di TikTok, basato su algoritmi di profilazione che sfruttano le vulnerabilità dei consumatori e generano un effetto di addiction.
TikTok, infatti, utilizza un sistema di raccomandazione che personalizza i contenuti visualizzati da ciascun utente in base a una serie di fattori, tra cui le sue interazioni passate, tratte dai like, dai commenti e dalle condivisioni, i suoi interessi e i suoi dati, come l’età, il sesso e la posizione geografica. Questo sistema è così progettato per massimizzare il tempo che gli utenti trascorrono sulla piattaforma e il numero di interazioni con i contenuti.
Per questo motivo, l’AGCM ha rilevato che il sistema di raccomandazione di TikTok può avere un effetto di indebito condizionamento sugli utenti, non tenendo conto delle vulnerabilità specifiche degli adolescenti che la utilizzano la piattaforma. Questo perché il sistema tende a proporre contenuti sempre più accattivanti e coinvolgenti, che possono creare un effetto di dipendenza e indurre gli utenti a trascorrere sulla piattaforma un tempo eccessivo.
Tra le accuse, la mancanza di trasparenza da parte della piattaforma verso la fornitura di informazioni riguardo le modalità di trattamento dei dati personali degli utenti, e soprattutto dei minori, le quali non risultano sempre chiare ed accessibili.
L’Autorità Garante, inoltre, ha rilevato la presenza sulla piattaforma di contenuti dannosi o inappropriati per i minori, un problema crescente che desta preoccupazione tra gli esperti e le autorità. Un caso emblematico è la “French Scar Challenge”, una sfida virale su TikTok che incita i ragazzi a procurarsi “un segno rosso sullo zigomo, evidente e duraturo, come se si trattasse di un’ampia cicatrice”.
“Le informazioni acquisite nel corso del procedimento da un esperto di neuropsichiatria infantile evidenziano che comportamenti autolesionistici anche non suicidari, come quelli riguardanti la cicatrice francese, sono comunque in grado di rappresentare un pericolo per soggetti vulnerabili, posto che il comportamento autolesionistico anche lieve costituisce il primo fattore di rischio di condotte ulteriori, di tipo suicidario.”
I minori sono particolarmente vulnerabili ai contenuti dannosi sui social media, questo perché la loro capacità di discernimento è ancora in fase di sviluppo e sono più propensi a imitare comportamenti rischiosi visti online. Per questo motivo, i social network hanno la responsabilità inderogabile di proteggere i propri utenti, in particolari i minori, da questo tipo di contenuti, implementando misure più rigorose per la loro moderazione e per incentivare l’educazione degli utenti sui rischi legati all’uso delle piattaforme social.
La multa inflitta a TikTok dall’Antitrust non è un caso isolato.
Nel 2023, il Garante per la Privacy Irlandese ha inflitto alla stessa piattaforma una multa di 345 milioni di euro per mancata adozione di adeguate protezioni per i minorenni iscritti, ma già nel 2019, negli Stati Uniti, la Federal Trade Commission (FTC) ha imposto alla piattaforma un risarcimento di 5,7 milioni di dollari in risposta alle accuse di violazione del Children’s Online Privacy Protection Act (“COPPA”), che richiede ai siti Web e ad altri servizi online di ottenere il consenso dei genitori prima di raccogliere le informazioni personali dei bambini di età inferiore ai 13 anni.
Conclusioni
Nonostante le misure di sicurezza siano già state implementate, la protezione dei minori su TikTok rimane una sfida complessa. I sistemi di filtro non sono ancora perfetti e i minori possono facilmente aggirare le restrizioni. Inoltre, la responsabilità di tutelare i figli ricade spesso sui genitori, che non sempre hanno le conoscenze o gli strumenti necessari per farlo.
Alla luce dei limiti delle misure adottate da TikTok, è necessario un impegno molto più ampio. Diverse proposte sono state avanzate in questo senso, quali lo sviluppo di un sistema di filtraggio più accurato e in grado di adattarsi alle diverse fasce d’età, che potrebbe essere realizzato utilizzando tecnologie di intelligenza artificiale e machine learning per identificare e rimuovere automaticamente i contenuti dannosi o per un maggiore controllo sull’identità dell’utente tramite verifica biometrica.
È altrettanto fondamentale educare i genitori e i ragazzi all’utilizzo consapevole e responsabile della piattaforma, tramite campagne informative mirate a far conoscere i rischi e le opportunità di TikTok, con consigli pratici sul monitoraggio dell’attività degli utenti, così come la collaborazione con le autorità competenti, formate adeguatamente per la segnalazione delle possibili violazioni.