Facebook e Twitter hanno recentemente inaugurato una serie di regole interne il cui scopo è abbastanza chiaro: sanzionare pesantemente quegli account che sono recidivi nella diffusione di disinformazione.
Dopo un periodo di (malcelata e piuttosto incomprensibile) tolleranza hanno quindi deciso di intervenire decisamente contro “gli avvelenatori dei pozzi” dell’informazione.
Come difenderci dalle informazioni manipolate: tecniche e norme
I motivi del cambio di strategia verso i super diffusori di disinformazione
Perché tale cambio di direzione? Sostanzialmente per due motivi.
In primo luogo, perché questi ultimi due anni di pandemia globale hanno fatto toccare con mano le conseguenze della circolazione di informazioni false su virus, vaccini, mascherine e tutto il resto. Non è un caso che uno dei termini più in voga nell’opinione pubblica globale assieme a pandemia sia stata infodemia, ovvero la circolazione incontrollata di informazione e disinformazione.
In secondo luogo, perché alcune informazioni si sono mostrate più pericolose di altre, come la posizione di Donald Trump sull’andamento delle elezioni e il suo insistere sulla presenza di brogli, una fake news che ha attecchito in una strana forma di contagio sociale, su una serie di sostenitori a spada tratta che in maniera colorita ma comunque pericolosa hanno portato all’attacco al Campidoglio a Washington dello scorso gennaio.
Il caso degli influencer
Il cambio di direzione è stato anche dovuto al cambio di strategia nell’analizzare i fenomeni digitali e i meccanismi di influenza. Prendiamo il caso degli influencer. Questo concetto legato al marketing indica che una persona se viene seguita da moltissime altre, ha maggiore capacità di esercitare una pressione sociale – una influenza – rispetto ad altre dotate di meno follower. Questo è probabilmente vero dal punto di vista marketing, ma non lo è dal punto di vista delle dinamiche socio-comunicative. Non importa se una persona viene seguita da milioni di persone o da poche centinaia: l’effetto non è attribuibile a quante persone ti seguono, ma da quante persone sono disposte a riconoscersi nel messaggio veicolato.
Detto con una battuta, non servono migliaia di seguaci che ti ascoltano, servono poche centinaia di seguaci che condividono quello che dici, nel doppio senso sociale e tecnologico.
Il modello classico di influenza sociale esercitata dai media – prevalentemente mass media – è il modello del flusso di comunicazione a due fasi. Questo modello, messo a punto dai sociologi Paul Lazarsfeld e Elihu Katz nel 1955, sostiene che i media esercitano influenza su un gruppo di persone grazie alla mediazione di una particolare figura – il leader d’opinione – che usa la leadership che gli viene attribuita dal proprio gruppo di riferimento per far circolare ed eventualmente orientare specifiche opinioni. Questo modello è stato verificato empiricamente in un periodo di scarsità di media.
In un periodo di sovraccarico mediale come quello contemporaneo, si parla di flusso di comunicazione multifase, ovvero esistono una serie di micro-leader di opinione che esercitano la propria influenza ad un numero circoscritto di persone, tra i quali ci sono altri micro-leader di opinione che esercitano influenza ad altre persone in un processo a cascata che fa si che poche persone di riferimento diventino una moltitudine. Questo modello è stato messo a punto dal sociologo Duncan Watts e dal fisico Peter Dodds nel 2007 proprio per comprendere i meccanismi che avvengono negli spazi digitali: bastano pochi micro-leader per diffondere esponenzialmente qualunque informazione.
Come affrontare la questione dei superdiffusori
Se il problema di identificare i superdiffusori tramite dinamiche quantitative – persone che diffondono disinformazione seguite da tantissime altre – è molto difficile, lo è ancora di più affidarsi ad approcci semantici che coinvolgono l’analisi della qualità delle informazioni. Il problema è che non è possibile definire in modo chiaro – ancora meno in modo computazionalmente chiaro – cosa debba intendersi per qualità dell’informazione.
Prendiamo il caso dell’idea che la pandemia da Covid-19 sia frutto di un virus sfuggito da un laboratorio a Wuhan. Per inciso, sfuggito non vuol dire creato in laboratorio, vuol dire scappato da un centro in cui veniva studiato. Fino a qualche mese fa questa idea veniva bollata come fake news che aveva lo scopo di attaccare la Cina dal punto di vista della credibilità internazionale, mentre negli ultimi mesi sembrerebbero esserci atteggiamenti meno ostili a questa ipotesi, dovuti essenzialmente a un cambiamento del clima politico generale (in particolar modo statunitense).
A questo punto la domanda diventa: come affrontare la questione dei superdiffusori?
Il patto comunicativo
L’approccio è sempre lo stesso: se il problema è sociale, la soluzione dovrebbe essere sociale.
In sociologia così come in semiotica si utilizza il concetto di patto comunicativo. Il patto comunicativo sancisce che fra i comunicanti si rispettano una serie di regole di comunicazione il cui scopo sia quello di ridurre al minimo gli attriti del processo comunicativo. In questo tipo di patto comunicativo la menzogna, intesa come tradire la fiducia di chi ascolta l’altro, dovrebbe essere sanzionata, e anche pesantemente.
Un esempio potrebbe essere la differenza fra Wikipedia e Nonciclopedia, entrambi sono wiki, ma mentre la “regola di ingaggio” delle voci di Wikipedia è strutturata intorno al principio del punto di vista neutrale (NPOV, Neutral Point of View), la regola di Nonciclopedia è che le voci sono obbligatoriamente umoristiche e quindi non affidabili. Questo potrebbe essere un modo per affrontare la questione, e le piattaforme ci stanno provando, come Facebook che di solito mette un rating di affidabilità della fonte che diffonde informazione nella piattaforma. Al momento questo rating è limitato alle testate giornalistiche e di informazione, c’è la possibilità che possa essere attribuito anche ai singoli profili dei privati cittadini che interagiscono nelle piattaforme.
Conclusioni
A questo punto però si aprono due problemi. Il primo è la misinformation, ovvero coloro che diffondono informazioni false in buona fede, convinti che siano vere. Il secondo è lo scenario black mirror: chi è dotato di un rating alto potrebbe essere autorizzato a interagire nelle piattaforme più e meglio di altri dotati di basso rating, creando una specie di contrapposizione fra la classe degli affidabili e quella degli inaffidabili.
Il convitato di pietra di questa situazione è il concetto di responsabilità: di chi è la responsabilità nella diffusione di informazioni false che possono avere conseguenze reali?
Attenti a rispondere di fretta: la sociologia se lo chiede dalle origini della modernità.