Mi sembra che il problema fake news, come è stato affrontato finora, sia male impostato. Non è in dubbio la libertà di pensiero, finanche quella di diffondere notizie false, sempre che non si lambisca la condotta penalmente rilevante o, in generale, illecita, beninteso. Quello che va posto sotto i riflettori, ed eventualmente indagato, è lo strumento che consente il condizionamento.
Ciò in quanto nei social network siamo tutti produttori di informazioni, ma non tutti siamo soggetti a responsabilità professionali come lo sono ad esempio i giornalisti. Lo strumento che consente il condizionamento invece è il medesimo, che siamo giornalisti oppure no.
Cosa ci condiziona sui social
Nelle piattaforme il condizionamento è reso possibile da tre condizioni tecniche, che vanno a formare quella che l’antropologo De Martino definirebbe la “condizione ambientale”. L’universo culturale di stampo magico si conserva e rafforza rifiutando la devianza, che viene addebitata alla non osservanza della credenza. Oggi la psicologia parla di teorie di “selective exposure” (o confirmation bias) per riferirsi alla tendenza a preferire fonti di informazione che confermano, anziché contraddire, le nostre visioni del mondo.
I tre elementi che connotano la condizione ambientale delle piattaforme social sono: l’architettura della rete; l’algoritmo che filtra i post che vengono presentati per primi e dunque resi più visibili agli utenti e il codice di condotta accettato da tutti gli utilizzatori. Tutti questi elementi sono definiti dal titolare della piattaforma.
Le regole esistenti
Adottando una prospettiva regolatoria, si direbbe che tali elementi sono auto-regolati. In altri termini, spetta a Twitter e Facebook o ai gestori dei blog stabilire le proprie architetture, i propri algoritmi, definire le regole di condotta dei propri utenti. La diffusione delle fake news così come il condizionamento da “selective exposure” sulle piattaforme sono appannaggio dei gestori.
Quanto all’architettura, nel saggio del 2016 “The Majority Illusion in Social Networks” Lerman, Yan e Wu spiegano perché alcune fake news possono diffondersi più di altre e in che modo riescano ad incidere sulle decisioni. Se nelle decisioni gli individui sono condizionati dalla norma, o da ciò che essi percepiscono come tale; nei social, essi lo sono anche dall’illusione di ciò che la maggioranza pensa. E questo dipende da come è costruita la loro rete di “amicizie”: per cui, se le fake news sono condivise da persone con molte connessioni (o amici) tra loro non connesse (cd. rete non selettiva), aumenterà la possibilità che la notizia sia “creduta come vera dalla maggioranza” rispetto al caso in cui a diffondere la notizia falsa sia qualcuno con una rete di amici selettiva (cioè con pochi legami con soggetti inattivi).
Circa invece il “filtraggio” delle fake news, come noto, le piattaforme si avvalgono degli utenti per segnalare tali contenuti e, almeno per Facebook, esiste una squadra di esperti pronti a rimuovere i contenuti segnalati risultati falsi. La piattaforma ha altresì attivato sistemi di segnalazione (o flagship) per disincentivare la condivisione di post dubbi, ed ha anche di recente annunciato (19.1.2018) la modifica dell’algoritmo che seleziona l’ordine di apparizione delle notizie (o newsfeed).
Che può fare la regolazione
La prima questione è se la (sola) self-regulation sia lo strumento più adatto ad incidere, ripetiamolo, non sulla fabbricazione dei contenuti informativi, ma sulla condizione ambientale che favorisce il condizionamento attraverso di essi.
Ad esempio, da quanto illustrato, la regolazione attualmente in vigore non pone alcun argine all’utilizzo di botnet e profili falsi (salvo il furto di identità o la violazione di copyright) che permettono la condivisione multipla sia pubblica, sia su gruppi chiusi e segreti di notizie dubbie.
Inoltre, la circolazione delle notizie sui social è, come detto, a fruizione veloce. Spesso non si accede neppure al contenuto, ma ci si limita a credere al commento del post(ul)ante e si condivide la notizia. Ciò accresce l’effetto condizionamento nelle porzioni non selettive della rete sociale. Se così è, un qualsivoglia intervento volto a spezzare la catena del condizionamento che fosse pensato attorno ai tempi della giustizia tradizionale potrebbe rivelarsi intempestivo.
Terzo, così come i servizi e i prodotti, anche l’informazione può essere profilata grazie alle tecniche di big data analytics. Allo stesso modo, le fake news possono oggi essere mirate in funzione di specifici obiettivi (ad esempio, campagne di disinformazione), come ricorda la Commissione europea nella citata Proposta di Comunicazione (p. 2).
Le possibili soluzioni
Escludendo l’impiego di strumenti che incidano direttamente sul contenuto informativo, a me pare che le strade percorribili siano sostanzialmente due, entrambe basate sullo schema della co-regulation, ovverosia su un modello in cui le regole e gli interventi siano il frutto di una collaborazione tra regolatore, operatori ed utenti.
In primo luogo, la detection. Individuare la fake news è certamente il momento più delicato e contestabile. La più volte menzionata Proposta di Comunicazione 2017 al riguardo sposa lo schema della self-regulation attuata mediante un dialogo tra piattaforme social, fornitori di contenuti media e società civile. Tale dialogo è finalizzato a “consentire [attraverso] meccanismi di flagging e sistemi di verifica del contenuto … una rapida identificazione delle fake news online”, anche con l’ausilio di “strumenti avanzati automatici”, inclusi quelli “in grado di tracciare i modelli di diffusione delle fake news online”.
Ora, in un oceano di informazione dispersa le prime “sentinelle” a denunciare le fake news non possono che essere gli utenti. Sarebbe infatti irrealistico pensare di attribuire tale compito ad una autorità centralizzata o ad una piattaforma, anche ove disponessero del più sofisticato software in circolazione.
Più complesso è invece definire chi possa e debba espletare le verifiche al fine di stabilire in maniera definitiva se si sia in presenza di una notizia falsa. Questa funzione, in astratto, può infatti essere svolta tanto dai titolari delle piattaforme, come fa Facebook, quanto da una autorità indipendente, dalla polizia (o da un mix di questi soggetti).
In Italia ad esempio, il Ministero dell’interno (18.1.2018) ha attivato un “red botton” per la segnalazione di fake news alla Polizia postale. Un team di esperti, mediante avanzate tecniche informatiche, individua la presenza di “significativi indicatori che permettano di qualificare la notizia come fake news” (come smentite ufficiali, la provenienza da fonti dubbie, ecc.); quindi, ne verifica le modalità diffusione in rete (numero di tweet, rilanci, ecc.) e ne appura la falsità.
Il passaggio successivo riguarda la scelta su come intervenire. La Proposta di Comunicazione parla di “rimozione degli originatori e disseminatori delle fake news, inclusi i siti impostori e i social bots”. Nell’iniziativa del Ministero dell’Interno, invece, una volta appurata la falsità della notizia, nessuna rimozione è attuata, ma – a quanto si legge – la Polizia si limita a pubblicare sul proprio sito e “sui canali social istituzionali una puntuale smentita”. Ciò “nell’obiettivo di viralizzare la contronarrazione istituzionale (sic!), affinché il cittadino possa giovarsi di una più completa descrizione del fatto o del fenomeno, e riappropriarsi, in tal modo, di quella libertà di scelta negatagli da un’informazione tendenziosamente falsa o parziale”.
A me pare che più che rimuovere “i siti che fabbricano e diffondono le fake news”, come suggerito nella Proposta (col rischio di rientrare nel circolo della censura), sia preferibile eventualmente operare la rimozione di quei “siti posticci e i botnets” che, veicolandole ripetutamente, sono per lo più responsabili del condizionamento. Inoltre, penso che entrambe le funzioni – di accertamento della falsità della notizia e di successivo intervento – potrebbero giovarsi di una collaborazione (co-regulation) tra piattaforme e regolatore (cui la Polizia potrebbe trasmettere le informative raccolte attraverso il “red button” e le successive analisi tecniche effettuate). Mi riferisco, in particolare, ad una autorità indipendente che già risulta attributaria, per legge, di poteri in materia di pluralismo informativo.
In una prospettiva più ampia, il vero fulcro, come ricordato anche dal Presidente dell’Autorità antitrust Pitruzzella, è rappresentato dall’algoritmo che seleziona l’ordine di apparizione delle news che compongono la “dieta” informativa dell’utente all’interno dei social (i citati newsfeed). Sappiamo poco di come questi vengono costruiti e personalizzati in funzione degli interessi e dei gusti degli utenti e, dunque, di quanto impatto possano avere sul rafforzamento delle proprie opinioni (confirmation bias), sulla credenza alle fake news e, conseguentemente, sul comportamento individuale e collettivo. Che vi sia una correlazione è confermato dal citato annuncio di Facebook di voler apportare modifiche al proprio algoritmo di newsfeed, esattamente nell’intento di ridurre l’impatto delle fake news. Anche il noto costituzionalista Cass Sunstein, padre del Nudge, ritiene che personalizzare l’informazione attraverso i newsfeed “From the standpoint of democracy, [is] a nightmare”.
Per queste ragioni penso che sarebbe utile indirizzare il regolatore ad intraprendere percorsi di “disclosure” co-regulation – da me già articolati in altre sedi – su questi algoritmi. Ovverosia: in collaborazione con gli altri stakeholder (operatori ed utenti), si potrebbe ipotizzare di condurre sessioni sperimentali (behavioural) per testare gli algoritmi con regolarità al fine di individuare quelli che riducano i rischi di bias. Un simile procedimento, trasparente e partecipato, aumenterebbe la disclosure e l’accountability nell’uso di tali algoritmi, caratteristiche oggi carenti e reclamate a gran voce dalle istituzioni comunitarie. Ad esempio, nella Risoluzione “Le piattaforme online e il mercato unico digitale” (del 15.6.2017) il Parlamento Europeo chiede alla Commissione e agli Stati membri di “esaminare il rischio di errori e bias nell’uso degli algoritmi” (§12).
Inoltre, nessun segreto industriale (sempre che l’algoritmo possa configurarsi come tale) sarebbe violato, posto che lo schema della disclosure co-regulation sarebbe su base volontaria per gli operatori ed eventualmente incentivato. Le sessioni sperimentali, come suggerito dal Gruppo di lavoro Articolo 29 del Garante Europeo per la Protezione dei Dati, dovrebbero avere cadenza regolare: “[d]ovrebbero essere usat[e] su base ciclica, non solo al momento del disegno [dell’algoritmo], ma continuativamente, ogni volta che la profilazione è applicata agli individui”, ovverosia tutte le volte che l’algoritmo che mostra le news all’utente viene aggiornato. Prosegue quindi il documento precisando che “il risultato di questi test deve essere reinserito nel disegno del sistema” (pp. 16-17).
In ottica precauzionale, si potrebbe dire che questo approccio avrebbe il vantaggio di favorire l’immissione sul mercato di prodotti (gli algoritmi) più sicuri, in quanto “testati”, sperimentati in laboratorio.
Una maggiore disclosure sull’uso degli algoritmi che definiscono l’ordine di apparizione delle notizie sui social potrebbe, in questa ricostruzione, consentire di ridurre la “propagazione” delle fake news in quanto: (i) limiterebbe l’impatto dei bias cognitivi (specie il confirmation bias) grazie alla sperimentazione; (ii) non comporterebbe alcuna censura di chi crea la fake news (fatte salve le responsabilità penali e civili, ove esistenti); (iii) interverrebbe sul momento della diffusione della notizia falsa (quando attuata mediante botnet, account falsi o intelligenza artificiale).