social media

Il lato oscuro dei bot, macchine di disinformazione: come difendersi

Ecco come è nato il fenomeno dei bot su social network e perché sono usati per diffondere disinformazione. Ma anche perché ora non è possibile un filtraggio dei contenuti automatico che prescinda da una valutazione umana

Pubblicato il 03 Lug 2020

Marina Rita Carbone

Consulente privacy

social e fake news

L’utilizzo di “bot” come strumenti di diffusione di fake news, bufale e disinformazione è tornato a essere un tema di stretta attualità, considerati i danni che hanno provocato nel corso degli ultimi eventi che hanno scosso il mondo: la pandemia di covid-19 e le proteste mondiale dilagate in seguito all’omicidio di George Floyd da parte della polizia Usa.

In entrambi i casi, i bot sono stati utilizzati per diffondere notizie false e pericolose (nel caso del covid, ricordate i gargarismi con la candeggina?) o teorie cospirazioniste (la morte di Floyd finanziata, anche questa, da George Soros).

Occorre, dunque, approfondire il perché sia, oggi, molto difficile contrastare lo sfruttamento dei bot per scopi manipolatori, specialmente da parte delle società che si occupano di gestire le piattaforme social.

Cosa sono i bot

È bene precisare, in via introduttiva, come il termine “bot” (abbreviazione del più noto “robot”) includa al suo interno moltissime tipologie di programmi, dalla più disparate funzioni, capacità e finalità, troppo spesso confusi con i troll, umani che operano sui social al fine di diffondere fake news o gridare al complottismo in maniera del tutto arbitraria e ingiustificata anche tramite l’utilizzo di profili falsi che non consentono di risalire alla loro identità, e con i cosiddetti “Cyborg”, account gestiti da persone vere cui si alterna un bot (un esempio classico è quello dell’Instagram Bot, che gestisce un account reale allo scopo di aumentarne la visibilità, i followers, i likes). In sostanza, un vero “bot” è, quindi, un computer che prova a interagire con gli umani usando i loro stessi strumenti e tecnologie.

La storia dei “bot”, per come oggi universalmente noti, parte da ELIZA, un programma creato nel 1966 che aveva il compito di emulare un terapista rogersiano (ossia, un particolare psicoterapeuta), fornendo differenti risposte al proprio interlocutore in base alla domanda postagli. Il modus operandi era molto semplice rispetto a quello dei moderni software cui siamo abituati: ELIZA chiedeva quale problema il suo interlocutore avesse; a seguito della ricezione della risposta, cercava all’interno del proprio database le parole chiave individuate nella stessa e, sulla base di quanto ottenuto, emetteva un parere. Come si può ben notare, tuttavia, le capacità di analisi di ELIZA erano molto ridotte, rispetto a quelle proprie di un essere umano, e per tale ragione non poteva dirsi pienamente in linea con i criteri sui quali si fonda il Test di Turing, ossia la capacità della macchina di pensare come un essere umano e di essere scambiata per tale.

Col tempo la capacità delle macchine di interagire con i propri utilizzatori è progressivamente aumentata, passando dal semplice rapporto input-output, sulla base di un database predefinito, alla implementazione dei sistemi di intelligenza artificiale, che permettono alle stesse di “imparare dai propri errori”, di adattarsi, di crescere, migliorare, trasformarsi, per giungere gradualmente alla “perfezione”. Uno degli esempi più semplici di intelligenza artificiale che si adatta all’ambiente sono i personaggi non giocabili dei videogames, il cui movimento è oggi sempre maggiormente gestito da intelligenze artificiali che, analizzando il comportamento del giocatore, programmano le proprie azioni in modo tale da innalzare il livello di sfida e di restituire la sensazione di imprevedibilità tipica di un nemico “umano”.

Financo la famosissima graffetta di word, preziosissimo aiutante per i neofiti digitali dell’epoca, è, nella sostanza un bot, così come le centinaia di migliaia di suoi simili diffusi su ogni piattaforma oggi conosciuta. Si pensi, a titolo esemplificativo, al numero dei bot con i quali è possibile interagire all’interno dell’app Telegram tramite l’invio di input predefiniti (tra tutti, l’utilissimo bot di tracking che consente di ricevere aggiornamenti in tempo reale di quasi tutti gli acquisti online, anche se effettuati al di fuori dei confini nazionali) o delle funzionalità che, stando a quanto affermato recentemente da Mark Zuckerberg, saranno introdotte sulla app di messaggistica Messenger, tramite l’utilizzo di bot che, mimando il modo di scrivere e il comportamento degli esseri umani, forniranno all’utente numerose informazioni come il meteo, una rassegna delle ultime notizie di attualità, fino all’assistenza per l’acquisto di prodotti online.

Appare, dunque, evidente come non possa individuarsi un bot come “malevolo” o “buono” a priori, essendo quest’ultimo esclusivamente un programma che può fare qualsiasi cosa, cui si assegnano determinati scopi e che li persegue in modo più o meno efficace, in base alla perfezione dell’algoritmo che lo regola. Essi rappresentano la fisiologica e naturale evoluzione di ogni sistema operativo e app che si rispetti, in quanto estremamente veloci, affidabili e versatili (se, come detto, sono programmati con criterio e coscienza). Non solo: poiché risulta sempre più difficile gestire il rapporto con l’utente per chi sviluppa software e/o vende online, si prevede che nel prossimo futuro sempre più app saranno rimpiazzate o affiancate da bot interni alle applicazioni più utilizzate (come Whatsapp, Messenger, ecc.) al fine di ottenere maggiore visibilità, sfruttando applicazioni che sono già utilizzate da una larghissima fetta di utenti, e accorciare la distanza con il cliente, evitando allo stesso di dover scaricare centinaia di app senza, poi, farne effettivo utilizzo, con risparmio in termini di costi di sviluppo e di memoria (per l’utente).

Le possibilità sono davvero tante, anche a livello organizzativo interno: esistono dei bot, infatti, che possono consentire a un dipendente di recuperare la propria password, di memorizzare appuntamenti, sincronizzare i calendari, avvisare degli eventi futuri.

Il “lato oscuro” dei bot

Ogni “bot”, poiché potenzialmente destinato a compiere qualunque azione e sostanzialmente privo di valutazioni morali, può essere utilizzato per scopi lodevoli o, come sempre più spesso accade, al fine di raggiungere obiettivi alquanto discutibili e dannosi per l’intera collettività.

Proprio tale fenomeno di abuso della tecnologia ha consolidato nelle menti di ognuno di noi un’accezione prevalentemente negativa dei bot come principali responsabili dell’inaffidabilità del web, della manipolazione delle menti degli utenti più ignari e/o inesperti (in particolare i bambini e gli anziani) e, più in generale, della disinformazione online.

È il caso dei cosiddetti social bot, il cui abuso consente di distorcere la realtà in modo estremamente subdolo, tramite pubblicità occulta, creazione di notizie false sulla base degli argomenti maggiormente di attualità e diffusione di creative teorie complottiste fondate su “studi scientifici” tanto dubbi quanto, tuttavia, paradossalmente efficaci, che trovano il proprio terreno fertile proprio all’interno delle note piattaforme social Twitter, Facebook, oltre che su Whatsapp. È pura e semplice statistica: maggiori sono le persone che si raggiungono, maggiori le percentuali di soggetti che ci crederanno e sosterranno la causa, anche se falsa o inattendibile.

Perché si usano bot sui social

Le finalità perseguite sono fondamentale di due tipologie:

  • Economiche: la maggior parte delle notizie con titoli sensazionalistici, infatti, ha come scopo quello di attirare l’utente che, desideroso di conoscere più informazioni in merito a un determinato evento, attirato da parole come “Incredibile”, “Non potrai credere ai tuoi occhi!”, va a incrementare il numero di visite e, dunque, i ricavi dagli sponsor pubblicitari. Un aspetto tipico di questo tipo di siti web è il numero di pop up e annunci, oltre che la loro invasività, eccessivamente sproporzionato rispetto al testo;
  • Politiche e/o di propaganda: come tristemente appurato dai risultati delle indagini condotte dalle autorità in relazione allo scandalo Cambridge Analytica (delle cui strategie, peraltro, tuttora si analizzano la portata e le conseguenze a livello globale), le notizie diffuse dai social bot in tal senso sono volutamente false, studiate in modo tale da manipolare l’opinione pubblica, creare dissenso, ingenerare sfiducia nel cittadino, suscitare determinate emozioni, facendolo agire “di pancia”, sull’onda delle proprie paure e dei pregiudizi che lo caratterizzano.

Perché hanno successo i bot

Ciò premesso, occorre evidenziare anche quali sono le motivazioni alla base del successo, o meno, dei social bot:

  • Una delle principali concause che gli studiosi pongono in rilievo è di tipo sociale, connessa, in particolar modo, alla perdita da parte dell’uomo della capacità di pensiero critico, dovuta a sua volta all’accumulo di troppe informazioni, al poco tempo a disposizione che porta a leggere una notizia in modo “sbrigativo”, fermandosi troppo spesso al titolo o alle prime righe di un articolo, all’incapacità di approfondire una tematica, alla progressiva sfiducia verso le figure professionali (soprattutto nell’ambito sanitario), nonché alla progressiva tendenza a non ascoltare e valutare opinioni differenti dalla propria (enfatizzata dalla perdita di contatto con la realtà che il dialogo online inevitabilmente comporta).
  • La seconda causa è legata alla paura: il coinvolgimento emotivo dell’interlocutore ne fa perdere la lucidità, portandolo a credere a notizie che, in un contesto di normalità, avrebbe altrimenti considerato come menzognere e/o palesemente inattendibili (lo stesso principio che determina, ancora oggi, il successo di molti santoni che pretendono di curare con la semplice imposizione delle mani, senza apportare alcun contributo scientificamente dimostrato a sostegno delle proprie tesi).
  • La terza causa è di tipo prettamente tecnologico: il perfezionamento delle tecniche di elaborazione delle informazioni da parte dei bot e la capacità sempre maggiore di interagire in modo “normale” all’interno delle piattaforme riduce moltissimo la capacità dell’utente medio di distinguerlo da una persona vera, anche facendo applicazione delle dovute accortezze.

Triste e preoccupante scenario di quanto appena enunciato è stata la recente pandemia di Covid-19: il sentimento generale di paura e preoccupazione, in aggiunta alla scarsa conoscenza medica e di come il virus si trasmettesse, hanno consentito il dilagare delle notizie più disparate, peraltro senza che l’utenza si premurasse in alcun modo di verificarne le fonti, le tesi scientifiche a sostegno, o altro. Ed è così che i Governi si sono trovati costretti a far partire capillari campagne di informazione e sensibilizzazione che potessero contrastare le fantasiose notizie presenti sul web. Vedasi, fra tutte, la pagina istituita dal Ministero della Salute destinata alla raccolta e verifica di fake news non solo banali ma anche potenzialmente dannose, come le famose “Fare gargarismi con la candeggina, assumere acido acetico o steroidi, utilizzare oli essenziali e acqua salata protegge dall’infezione da nuovo coronavirus”, “C’è correlazione tra epidemia da nuovo coronavirus e rete 5G”, “Le zampe dei cani possono essere veicolo di coronavirus e vanno sterilizzate con la candeggina”, “Per difendermi dal virus posso andare in farmacia e acquistare i nuovi farmaci sperimentali”, “Si possono fare disinfettanti fatti in casa miscelando candeggina, sale grosso e acqua”, “Quest’anno non mi vaccinerò contro l’influenza perché il vaccino antinfluenzale facilita il contagio con il nuovo coronavirus”, “Bere alcol rinforza il sistema immunitario e mi protegge dal virus”, “Bere metanolo o etanolo protegge dall’infezione da nuovo coronavirus” e molte altre.

Non solo: si è abusato dei bot anche nel corso delle vicende connesse al movimento “Black Lives Matter”, per ambedue le finalità sopra elencate. Recenti indagini condotte da CNN sul punto hanno, infatti, provato che molte delle pagine connesse al movimento fossero, in realtà, degli specchietti per le allodole, aventi quale unico scopo quello di truffare le persone che volessero aderire alla causa con un contributo in denaro. Molti dei fondi aperti da alcune delle pagine a sostegno del movimento, infatti, pare non abbiano mai utilizzato le somme raccolte per prendere delle azioni, girocontando, invece, le stesse su conti esteri.

In aggiunta a ciò, si è assistito al dilagare incontrastato di teorie cospirazioniste sul movimento “Black Lives Matter”, campagne di disinformazione, false asserzioni, e altro, mosse con grande probabilità dagli oppositori del movimento. A titolo esemplificativo, si cita la teoria secondo la quale George Soros avrebbe finanziato non solo le proteste ma anche la morte dello sfortunato George Floyd: una teoria del tutto infondata che, come prevedibile, punta a minare la credibilità del movimento, sminuirne gli ideali, alimentare il sospetto verso gli scopi perseguiti.

È d’obbligo, a questo punto, sulla base delle considerazioni sinora svolte, porgersi una domanda: se i bot sono così efficaci, come possiamo riconoscerli e distinguerli da ciò che è vero e umano, al fine di ripristinare e alimentare la credibilità del web? Come possiamo difenderci dalla disinformazione, se utilizza gli stessi metodi e modi di parlare della stampa?

La necessità di distinguere l’automazione dalla manipolazione

Peraltro, deve considerarsi altresì che molte delle statistiche rinvenibili in rete illustrano uno scenario catastrofico della scena sul web, secondo il quale sui social media vi sarebbero molti più bot che persone, così giustificando l’enorme quantità di contenuti falsi e tendenziosi presente sugli stessi. Tale dato, però, è a sua volta da considerarsi inesatto o, quantomeno, passibile di correzione, in quanto, sebbene tale fenomeno sia indubbiamente da contrastare, non vi sono ad oggi dati sufficienti per asserire con certezza che tutti quelli che si considerano dei bot lo sono davvero e, soprattutto, che le finalità perseguite da questi ultimi siano dannose.

In primo luogo, come già sostenuto in premessa, occorre prima identificare che cosa si intenda con “bot”: sui social, il bot viene considerato come un account automatizzato, un aggregatore di notizie, o un software avente lo scopo di fungere da “focalizzatore” dell’attenzione. Essendo questi ultimi estremamente mutevoli nella forma e nelle possibilità di utilizzo, autonomo o misto, si è negli ultimi anni cercato di delineare una serie di criteri che consentirebbero agli utenti di individuare se un determinato account è o meno gestito da un bot, anche solo per un determinato lasso di tempo:

  • La struttura del profilo: i bot tendono, infatti, a seguire moltissimi account, senza, però, avere lo stesso numero di seguaci. Solitamente, anche l’immagine utilizzata sul profilo appartiene ad altri soggetti, le cui foto sono facilmente reperibili sul web, come modelli, attori, ecc;
  • Il nome dell’account, spesso composto da pseudonimi, nomi casuali, numerose lettere senza senso;
  • I contenuti pubblicati dall’account, spesso estremamente ripetitivi, con descrizioni quasi identiche, appartenenti ai medesimi siti internet (in questo caso, ad esempio, il bot potrebbe essere utilizzato per accrescere l’interesse su un tema o convogliare il traffico su un sito monetizzato);
  • La frequenza con la quale i contenuti sono condivisi: un essere umano difficilmente posterà contenuti 24 ore su 24, sette giorni su sette;
  • La velocità di reazione ai contenuti pubblicati dagli altri utenti del web: salvo rare eccezioni, il bot tende ad interagire con gli altri in maniera estremamente rapida, in un arco massimo di pochi secondi;
  • Lo stile di scrittura, ripetitivo e/o sgrammaticato;
  • La reazione a domande marginali: se vengono poste ad un bot domande di contesto, più marginali rispetto a quelle che si aspetterebbe, le risposte tendono ad essere sconnesse e prive di senso.

Ciò nonostante, anche l’applicazione dei suddetti criteri non consente di distinguere con esattezza un bot da una persona vera le cui abitudini online potrebbero essere simili, generando numerosi falsi positivi e falsi negativi.

Non solo: molto spesso anche gli algoritmi appositamente creati per individuare i bot falliscono nel tentativo, applicando, sebbene in modo molto più specifico, gli stessi principi. A titolo esemplificativo, Botometer, uno strumento creato per individuare gli account sospetti, assegna un punteggio da 0 a 5 (dove 0 equivale ad umano e 5 equivale a bot), sulla base dei contenuti pubblicati, delle attività svolte, del tempo di risposta, ecc. Ma i sistemi come Botometer non sono privi di errori, anzi:

  • In primo luogo, possono non distinguere ciò che è un bot dotato di propri automatismi da un software coadiuvato e manipolato da un soggetto terzo che ne “tira le redini”;
  • In secondo luogo, la loro efficacia è subordinata al set di dati introdotti negli stessi a scopo esemplificativo, sulla base dei quali svolgono le dovute analisi: ove utilizzati al di fuori delle casistiche “conosciute”, la capacità di riconoscimento dei bot diminuisce;
  • In ultimo, l’affidabilità dei sistemi di individuazione dei bot diminuisce fortemente nel momento in cui devono analizzare dei contenuti in lingue differenti da quella sulla base della quale sono progettati.

Le stesse problematiche affliggerebbero gli strumenti automatizzati posti in essere dai social, al cui fianco deve necessariamente affiancarsi un elemento umano che possa, con maggior discrezionalità, compiere una valutazione più approfondita, sulla base dei risultati e delle valutazioni compiute dal programma. Una sorta di “guardie e ladri” digitale.

È così che nasce il cosiddetto “grandpa effect”: persone vere che sono scambiate per bot perché non utilizzano i social “correttamente”, o condividono troppo e troppo spesso, alterando fortemente anche il risultato delle ricerche condotte sulla diffusione dei bot (il cui numero esatto, dunque, non si conoscerebbe ancora), oppure, ancora, attuano comportamenti di gruppo che, sebbene finalizzati a creare un trend, vengono scambiati per anomali (è il caso dei fans della musica K-pop, che sfruttano il funzionamento degli algoritmi di Twitter per creare sempre nuovi trend o del citato movimento “Black Lives Matter”, che ha utilizzato gli algoritmi dei social per portare all’attenzione dell’opinione pubblica mondiale un’importantissima questione sociale).

In sintesi, dunque, può realmente dirsi possibile un filtraggio dei contenuti delle piattaforme social esatto, che prescinda da una valutazione umana e dall’errore?

Ad oggi, la risposta è ancora no. E con l’evolvere della tecnologia e della capacità dei “bot” di mascherarsi fra gli utenti “veri”, appare sempre di maggiore importanza il ruolo dell’uomo in qualità di controllore, in grado di condurre audit manuali su set di dati sospetti, verificandone gradualmente e con criterio la veridicità (anche in questo caso, tuttavia, permanendo una percentuale di errore).

Proprio a tal fine negli ultimi anni stanno nascendo società ad hoc che si occupano di costruire degli schemi quanto più affidabili possibile che consentano di esaminare con attenzione ogni caso sospetto e di discernere ciò che è potenzialmente lesivo dell’opinione pubblica e del diritto all’informazione da ciò che, invece, è connesso alla natura umana e alla libertà di pensiero (oltre che, ovviamente, dai “bot buoni”). Tra tutte, si cita, a scopo meramente esemplificativo, il progetto Political Bots, il cui scopo è quello di individuare gli account di personaggi politici che fanno ricorso ai bot al fine di manipolare il proprio pubblico, al fine di evitare che si verifichi una seconda Cambridge Analytica. La stessa Twitter, molto attiva sul fronte della lotta alle fake news e alla disinformazione, lancia numerose campagne di sensibilizzazione che invitano i singoli utenti a segnalare e comunicare i profili sospetti, in modo da evitare che possano divenire fonte di fenomeni distorsivi dell’opinione dell’utenza.

Il ruolo centrale dell’uomo dietro la macchina

In conclusione, sebbene il termine “bot” sia ormai associato prevalentemente ad eventi negativi come le fake news, la manipolazione a scopo politico o le pubblicità invasive, occorre considerare che rappresentano pur sempre un mero strumento nelle mani di chi li realizza e li impiega e che i loro scopi possono anche essere lodevoli e utili. Tutto sta nella finalità a monte perseguita dal soggetto che ne fa utilizzo: ad esempio, durante le prime fasi della pandemia di Covid-19, non sono mancati esempi di bot di marketing riconvertiti, da parte di alcune cliniche, a strumenti di sensibilizzazione delle masse, il cui scopo era stato modificato al fine di fornire utili informazioni per prevenire il contagio (lavarsi le mani, mantenere la distanza, ecc.).

I bot sono utilizzati molto spesso, infatti, anche da organizzazioni benefiche e attivisti come efficaci strumenti per accelerare il cambiamento focalizzando l’attenzione su delicate problematiche sociali. Per tale ragione anche gli studiosi dei bot pongono l’attenzione sull’importanza dello studio comportamentale dei bot e dei loro scopi ultimi, in quanto non sarebbe giusto effettuare una censura a priori, senza le dovute valutazioni di merito, di ogni attività automatizzata o sospetta, essendo ormai i bot indissolubili dai social stessi.

È di vitale importanza, dunque, che l’attenzione si sposti su ambedue le parti della tecnologia: la macchina e l’utente. La prima, per poterne contrastare e limitare i fenomeni di abuso e sfruttamento (ad esempio, togliendo ai siti nei quali si accerta la diffusione di fake news la possibilità di ottenere ricavi dalla pubblicità); la seconda, per consentire all’uomo di approcciarsi alla tecnologia con maggiore consapevolezza, limitando a monte l’efficacia delle fake news, incentivando al pensiero critico e creando nuova fiducia nella tecnologia e negli strumenti digitali, quale ultimo passo del processo di evoluzione dell’informazione attualmente in corso.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati