Abbiamo già parlato, e molto, di come difendersi dalle fake news. Si è parlato dei meccanismi della diffusione contemporanea, di tecniche di difesa e suggerimenti pratici da mettere in atto quotidianamente, ma uno studio contemporaneo dimostra invece che la battaglia potrebbe essere già persa.
Ma come diceva il Cavaliere Inesistente in Italo Calvino, imparare dall’esperienza è ammesso, e prima di entrare nei meandri della nostra analisi, sarà meglio denudare ed esplicare il concetto con un esempio: i social si nutrono di interazioni, la rabbia genera interazioni.
Nessuna risposta razionale come quelle offerte finora (lo scrivente non può che confessare di aver fatto lo stesso) potrà quindi sfidare l’irrazionale e l’emotivo: nella sfida tra Apollo e Dioniso, tra Ragione e Sentimento, tra raziocinio e rabbia, chi vincerà sarà sempre il secondo polo.
Indice degli argomenti
Dagli sposi del Texas alle fake news
In un caso abbastanza clamoroso, successivo allo studio che sarà esaminato ma emblematico del meccanismo alla sua base abbiamo l’account TikTok titolato imhassanrahim. Ogni storia è prima di tutto narrazione e inganno, e in ogni mito il dio dell’inganno (da Loki ad Anansi) è anche un dio delle storie padrone della narrazione e del mito. E le storie dell’account erano storie semplici, tipiche di quell’America “Sale della Terra”, che noi definiremmo avendo superato la metafora cristiana da “Libro Cuore”. Una serie di brevi Vlog, blog video, spezzoni di vita di un umile ragazzo che con abnegazione e sacrificio si prende cura del fratellastro minore e col duro lavoro emerge dalla povertà e dalle difficoltà per dare una vita migliore ad un bambino. E fin qui, le metriche, l’algoritmo, i “click” hanno premiato il nostro creatore di contenuti solo in modo relativo.
Ad un momento la narrazione cambia: l’account pubblica una nuova storia che descrive il nostro protagonista non più come un moderno Scrivano Fiorentino, ma una persona ricchissima e arrogante pronta a chiedere un esoso balzello (al cambio 400 euro) per essere ammessi al suo matrimonio da sogno e pronto a bacchettare con boria chi non ha le sue possibilità economiche.
La storia arriva alla stampa (anche da noi…) con poche persone a farsi domande nonostante prove sempre più schiaccianti, e le “metriche” premiano il narratore arrogante con un’esplosione internazionale di visualizzazioni, di diversi ordini di grandezza superiori all’umile personaggio alla Edmondo De Amicis.
Un primo esame dello studio “Misinformation exploits outrage to spread online”
Lo studio in esame si chiama “Misinformation exploits outrage to spread online”, traducibile come “La disinformazione sfrutta l’indignazione per diffondersi in Rete”, e descrive applicati al mondo delle fake news i meccanismi applicati nella storia con la quale è stato introdotto questo testo. Scientificamente, quindi non empiricamente, sono stati esaminati una serie di dataset legati all’universo social statunitense (compatibile con la blogosfera e l’universo europei nei meccanismi essenziali), declinati in otto studi e due esperimenti comportamentali, per un totale di quasi un milione di link Facebook e oltre 44mila “tweet”, i post dell’X attualmente in capo ad Elon Musk prima della sua acquisizione.
I materiali utilizzati
I materiali sono stati volutamente prelevati da momenti della storia contemporanea “ad alto numero di ottani”, ovvero momenti dove era possibile accedere ad argomenti fortemente infiammatori e dove gli argomenti suddetti erano spesso oggetto di disinformazione organizzata, ovvero un dataset con post del primo semestre 2017, pedissequo quindi le elezioni USA del 2016 (culminate con l’ascesa di Trump sulla scena politica e l’ascesa di QAnon come operatore primario del settore delle fake news, con gli effetti descritti proprio su Agenda Digitale) e dataset successivi relativi alle elezioni USA del 2020, culminate con l’assalto al Campidoglio USA di gennaio del 2021. Vi è quindi la presa di consapevolezza, su cui converrà aggiungere qualche dato nel prosieguo dell’analisi dello studio, che gli effetti della rabbia social non sono destinati a restare confinati nell’universo digitale ma avranno sempre un riflesso nel reale e anche cospicuo.
I dataset
I dataset sono stati curati e collazionati mediante diverse fonti giornalistiche e di fact checking, spaziando da Snopes, uno tra i principali, se non il principale e più longevo decano del settore Fact Checking sul pianeta, fino ai contenuti volutamente infiammatori della Internet Research Agency, azienda russa impegnata in operazioni di propaganda online e parte attiva di quella che su queste pagine è stata definita l’Arte Oscura delle Fake News
La differenza tra Facebook e X e la creazione di un sistema di misurazione oggettivo della rabbia
La differenza fondamentale tra Facebook e X (Facebook offre una serie di emoticon personalizzate, dall’abbraccio alla rabbia, X si basa su interazioni e condivisioni), ha consentito agli autori dello studio di creare un DOC, Digital Outrage Classifier, sistema di misurazione oggettivo (per quanto possibile) dell’evanescente e volatile potenza della rabbia umana basato sull’uso del machine learning per identificare risposte basate sull’indignazione morale, utile per catalogare e identificare simili contenuti.
L’analisi sui social ha quindi consentito un vaglio primario: ipotizziamo quindi di poter valutare le notizie per la loro qualità ed esattezza: mentre su Facebook le “reazioni neutre” (pollice alto, cuore, risata) non consentivano una associazione con la qualità, la reazione rabbia era fortemente associata a fonti riconosciute come di “scarsa qualità”, ovvero aperta disinformazione, laddove Twitter (ora X), privo di tale segnalino visivo riportava un DOC elevato (ovvero il congregarsi di utenti inclini a risposte e condivisioni rabbiose che donavano al contenuto di disinformazione una visibilità superiore).
I risultati dell’analisi delle metriche relative alle risposte
L’analisi delle metriche relative alle risposte ha consentito nello studio di identificare delle vere e proprie “giustificazioni morali” utilizzate dal condivisore: non parliamo quindi di persone naturalmente inclini ad un animo iracondo e violento, ma persone di ordinaria avvedutezza che, colpite dallo shock emotivo di notizie che parlano ai loro sentimenti di pancia e ai loro pregiudizi, dando loro un oggetto da odiare, si uniscono allo scenario premettendo il “Sarebbe gravissimo se fosse vero”.
Questo ha consentito di passare all’esperimento di conferma, basato su un campione di 750 utenti, autoidentificatisi come accaniti sostenitori dei partiti Repubblicano e Democratico, ridotti in seguito a 730 perché venti di loro semplicemente secondo la campagna di reclutamento su Prolific non avevano mostrato la necessaria polarizzazione politica.
Il campione selezionato era perfettamente bipartisan, età media 37 anni, egualmente diviso tra i due opposti poli partitici, egualmente divisi per sesso (con una lieve prevalenza di donne, il 53% dello studio), ed allo stesso sono stati sottoposti venti articoli da condividere (10 esaminati come affidabili, 10 prelevati dal mondo delle fake news) con la richiesta di indicare “quanto probabilmente condivideresti questo contenuto sui social”.
Un simile campione di 745 utenti, parimenti con simile rappresentanza partitica e di sesso, parimenti di età affine (36 anziché 37, ma si rientra nella stessa generazione, di fatto coincidente con l’età media dell’utente dei Social Network) ha ricevuto una domanda diversa ma connessa, che si potrebbe definire di controllo, ovvero “quanto ritieni affidabile il contenuto che ti viene proposto”?
L’analisi del risultato dei due campioni ha dimostrato che la risposta in condivisioni era ininfluente rispetto alla motivazione epistemica ma fortemente connessa ad una motivazione non epistemica.
Esulando da un linguaggio fortemente tecnico e psicologico per portare la discussione ad un livello facilmente comprensibile anche in una pubblicazione il cui scopo è divulgare conoscenza sui fenomeni della Rete e non competenze di psicologia, l’utente medio della Rete, specialmente assistito da una forte appartenenza politica e da una rete stabilita di pregiudizi che è nel suo desiderio, anche inconscio, mantenere, è perfettamente consapevole che titoli fortemente infiammatori da parte di testate inverosimili non supererebbero il vaglio razionale di una seconda lettura.
Semplicemente decide per una serie di ragioni che quella seconda lettura non merita di essere fornita. L’utente più avveduto, al momento di scegliere se premere “condividi”, premere il tasto per attivare la “react angry”, o premere “Repost” o “citazione” su X, saprà sempre fare. Ascolterà cuore e cervello, il cervello gli dirà di leggere, il cuore gli dirà di premere e lui premerà.
I due minuti di odio e il bispensiero, oggi
Per spiegare in modo il più semplice possibile le riflessioni degli autori dello studio sulla differenza tra reazione epistemica e non epistemica bisognerà nuovamente spostarsi fuori dai confini dello studio stesso, in questo caso nella letteratura. Si arriverà così a 1984, romanzo così noto e così abusato nelle citazioni e in interpretazioni sempre più capziose e lontane dallo spirito dell’autore.
“La cosa orribile dei due minuti d’odio era che nessuno veniva obbligato a recitare. Evitare di farsi coinvolgere era infatti impossibile. Un’estasi orrenda, indotta da un misto di paura e di sordo rancore, un desiderio di uccidere, di torturare, di spaccare facce a martellate, sembrava attraversare come una corrente elettrica tutte le persone lì raccolte, trasformando il singolo individuo, anche contro la sua volontà, in un folle urlante, il volto alterato da smorfie. E tuttavia, la rabbia che ognuno provava costituiva un’emozione astratta, indiretta, che era possibile spostare da un oggetto all’altro come una fiamma ossidrica.” (1984, traduzione a cura di Stefano Manferlotti, Mondadori, 2000)
Così Orwell descrive (nella citazione, con un aiuto della traduzione italiana) un momento dell’immaginaria e insieme metaforica dittatura di Oceania, retta dall’enigmatico Grande Fratello. Un breve happening collettivo in cui il mondo di Oceania si ferma e scene di brutalità e violenza vengono sovrapposte all’effigie di Goldstein, il nemico cui attribuire ogni atrocità e malvagità, reale o immaginaria che sia, spingendo gli spettatori dei monitor che trasmettono tali scene al parossismo.
E vi è di più: funzionari del Governo sovrintendono ogni momento della “cerimonia pubblica”, esperti nel riconoscere tra chi non si lasci coinvolgere dall’Odio un potenziale traditore da catturare e rieducare, non più devoto alla causa.
La spiegazione “non epistemica”, anzi le spiegazioni fornite nello studio aderiscono in modo inquietante alla dinamica letteraria nata dal genio di Orwell.
L’utente nel campione, utente “attivista e impegnato”, condivideva per rafforzare il suo impegno, condivideva perché quanto sottoposto, all’irrazionale vaglio della “prima impressione” confermava tutto quello che aveva sempre saputo, sempre voluto e sempre riconosciuto nel reale.
E condivideva perché, semplicemente, all’interno della sua bolla sapeva che altri l’avrebbero fatto, e sapeva che, ed esempio, dinanzi a notizie come “gli immigrati di Haiti verranno per mangiare i nostri cani e gatti, ma se condivideremo per aiutare Trump li salveremo e avremo fatto il nostro dovere di sostenitori”, diventa suo dovere etico e morale condividere per salvare la sua famiglia e i suoi animali domestici da una minaccia in cui razionalmente non crede, ma sentimentalmente diventa un vero scontro identitario.
Oltre ai Due Minuti di Odio la presenza di due campioni paragonabili in toto per qualità, competenze e specifiche in grado di valutare la medesima tipologia di commenti come “assai probabilmente da condividere” e “non affidabile” echeggia un altro momento propedeutico all’Odio descritto da Orwell: il bispensiero, “Raccontare deliberatamente menzogne e nello stesso tempo crederci davvero, dimenticare ogni atto che nel frattempo sia divenuto sconveniente e poi, una volta che ciò si renda di nuovo necessario, richiamarlo in vita dall’oblio per tutto il tempo che serva”, quel momento identitario in cui il non-epistemico unisce “alla fede nella propria infallibilità la capacità di imparare dagli errori passati” (1984, Ibidem)
Gli effetti concreti dello studio
Accettando i risultati dello studio così come sono forniti, si dipinge quindi un quadro a tinte fosche. Ogni misura presa per combattere la disinformazione rischia di fallire, o quantomeno parte da una condizione di forte svantaggio.
Il contrasto alle fake news, le buone pratiche che sovente avete letto anche qui, su Agenda Digitale, sono epistemiche in natura. Si basano su un appello alla razionalità e su una chiamata alle armi che riguarda strumenti di dialogo e cultura. L’intervento del fact checking, dell’istruzione scolastica, della necessità di “usare prudenza e coltivare il dubbio, sviluppare una coscienza critica e consapevole” e rivolgersi agli enti di fact checking è senz’altro razionale ed epistemico.
Ma in un mondo in cui il non-epistemico è misura non solo del mondo delle fake news, ma di ogni interazione social, incoraggiata apertamente dai social network stessi, il combattimento diventa una lotta impari.
Il ragebaiting nel mondo della pubblicità
Siamo dinanzi alla stessa logica non-epistemica che giustifica ad esempio il ragebaiting nel mondo della pubblicità: è diventato pratica comune nella pubblicità dei giochi mobili nel presentare ad pubblicitari che nulla hanno a che vedere col gioco stesso, basati su brevi video di gameplay (simulazioni di gioco) in cui il pubblicitario gioca volutamente nel modo possibile attirando commenti di odio di ogni tipo e la “minaccia” tipica dell’utente finale di “scaricare il gioco per dimostrare come si fa”, oppure video dove il personaggio principale distrugge coscientemente oggetti e artefatti percepiti come rari e amati dal pubblico per proporre il “prodotto della casa”, ottenendo quindi liti e risse basate sulla “fedeltà al marchio” nei commenti.
Il ragebaiting nella lotta politica
O il ragebaiting nella lotta politica, laddove la maggior parte delle condivisioni doppelganger, esattamente come previsto dallo studio, si aprono col “falso disclaimer”: “Io non so se è vero o falso, ma sarebbe gravissimo se lo fosse, esigo l’intervento dei fact checker”,
Il ragebaiting entra nella disinformazione sia in modo diretto che indiretto: direttamente, come visto, creando fake news a base di immigrati violenti e rissosi, controversie inesistenti create apposta per suscitare il desiderio di “prendere parte” dinanzi alla pietra dello scandalo, ma anche in modo indiretto: ad esempio l’ormai onnipresente deepfake di vip e politici che promettono un enorme rientro economico per chi investirà in criptovalute, punteggiato a scopo infiammatorio con narrazioni volutamente infiammatorie. Esempio, quella per cui un deepfake della nota conduttrice Geppi Cucciari sarebbe stata brutalmente percossa e arrestata in diretta dagli “sgherri di Bankitalia” e quindi cancellata di fatto come personaggio pubblico, non-notizia che ha suscitato nell’interessata il riso ma posticcia aggiunta per suscitare nei condivisori la rabbia e la FOMO, la paura di essere lasciati indietro in una vera battaglia identitaria contro il sistema.
Non esiste logica che possa superare quello che logica non è e, a onor del vero, i social network non sono costruiti sull’episteme, ma sul non-episteme.
La riflessione più atroce: gli algoritmi non hanno etica
I Social Network funzionano perché creano rete e collettività. La collettività funziona perché il contenuto viene condiviso, a prescindere dalla qualità del contenuto stesso. Con criteri spesso non del tutto trasparenti, come visto in un caso del 2021 in cui il team di Cybersecurity for Democracy della New York University ha accusato Facebook Inc. di aver disabilitato gli account, le pagine e l’accesso alla piattaforma del NYU Ad Observatory, creata proprio per esaminare gli annunci politici e la disinformazione sui media, e come nel caso di X accusato di aver negato accesso alle API necessarie per chi intende studiare la disinformazione insistente sulla piattaforma
Va anche ammesso però che i Social Network hanno più volte provato a fare in un qualche modo ammenda, con gli sforzi di Facebook per combattere la disinformazione e l’introduzione delle Community Notes su X.
Ma gli algoritmi non hanno etica: in un sistema dove il contenuto virale viene premiato con la visibilità, e l’utente virtuoso e in grado di ricavare concreto vantaggio dalle visualizzazioni è colui che riesce ad arrivare sulle bacheche di tutti, il contenuto di bassa qualità ma virale supererà il contenuto di alta qualità ma “riflessivo”.
Si può ora comprendere perché questo articolo sia partito con un esempio apparentemente scollegato: puoi creare un personaggio virtuoso e delicato, l’eroe di un “Nuovo Libro Cuore” che, pur essendo una falsa narrazione (una fake news, oseremmo dire) egli stesso parli di buoni sentimenti e logica, e otterrai un profilo scarsamente popolato e contenuti dal peso virtuale (il clout) scarno.
Nel momento in cui lo stesso creativo invece creerà un personaggio arrogante e battagliero pronto ad inimicarsi tutti i suoi spettatori, esigendo il tributo dei “due minuti di odio”, Mister Hyde sopravanzerà il Dottor Jekyll, il Dio Algoritmo premierà non il virtuoso ma il capace, considerando la capacità di sporcarsi le mani per giocare col sentimento di rabbia una prova di abilità.
I limiti dello studio
Va però per completezza dichiarato che gli stessi autori dello studio hanno ammesso che lo stesso non è assoluto, e potrebbe avere dei limiti.
Il limite più evidente è basarsi sui soli Facebook e X (all’epoca Twitter) di un periodo storico ben determinato: ma rivedere le stesse dinamiche su TikTok, dove sovente l’uso del formato di vlogging breve consente di creare video infiammatori anche nella forma (come un video contenente la fake news di Fiorello vittima di cancro a causa del vaccino COVID “arricchito” dalla canzone “Chiuditi nel cesso” degli 883) tende a rendere l’esame di questo limite un mero caso di wishful thinking: in Italiano una pia speranza.
E anche per quanto riguarda le coordinate geografiche, anche in Italia abbiamo esempi di ragebait perfettamente aderenti a quelli visti all’estero, come un modello del celebre “Calendario dei Preti” (calendario venduto a Roma con foto di personaggi in abito talare) descritto in una fake news come un sacerdote massacrato da Rom in cerca di furto con l’inevitabile apporto di rabbia nei confronti degli immaginari abusatori.
Ulteriore limite è la crescente opacità dei social, dato citato nei precedenti paragrafi e ammesso dagli autori dello studio, che renderà sempre più difficile verificare quanto appreso secondo metodo scientifico perché le ricerche non potranno che basarsi su un campo ostile.
Infine, l’analisi della qualità del contenuto non potrà che dipendere da enti, per quanto di elevata reputazione come i fact checker, ulteriori rispetti allo studio.
Ma anche con questi limiti, una conclusione finale tende ad essere fosca.
La conclusione
Il mercato della rabbia è immanente e onnipresente in ogni interazione social, in quanto il social prema il virale prima che il contenuto.
Arrivati al ragebait come motore delle fake news, della disinformazione e persino delle campagne pubblicitarie, ed all’odio come non solo parte dell’esperienza emotiva umana, ma come collante identitario che rende gli utenti branchi contrapposti coi ricchi abiti del gruppo sociale e di attivismo, il contrasto alle fake news si scontra con la costruzione mentale dell’essere umano e con un universo social creato a immagine e somiglianza di un dio “geloso e vendicatore, colmo di furore” (La Bibbia, Naum 1,2), e quel dio è l’essere umano.