Vuoi combattere la disinformazione? Insegna alle persone come funzionano gli algoritmi. Mentre la disinformazione con basi in Cina (new entry per le elezioni americane) e Russia impazza, uno studio pubblicato sulla Misinformation review della Harvard Kennedy School aggiunge un importante tassello nella conoscenza del fenomeno e sui modi per contrastarlo. Il titolo è “Il divario di conoscenza algoritmica all’interno e tra i paesi: implicazioni per la lotta alla disinformazione”.
L’importanza della conoscenza algoritmica
L’esito più significativo che ne viene fuori è che “gli individui con una maggiore conoscenza algoritmica sono più inclini a intraprendere azioni contro la disinformazione”. Di conseguenza, I ricercatori suggeriscono ai decisori in campo nella lotta alla disinformazione, lo sviluppo di programmi di alfabetizzazione per migliorare la conoscenza generale sui meccanismi algoritmici e sul flusso di informazioni, facendo però in modo che vengano raggiunti i gruppi vulnerabili identificati nello studio, come gli anziani o le popolazioni meno istruite, che potrebbero essere più difficili da coinvolgere attraverso i sistemi educativi convenzionali. E a questo punto è doveroso ricordare che la recente legislazione europea per regolare il web e i social media ha posto l’accento sulla trasparenza in questo ambito così delicato e decisivo.
Obiettivi della ricerca sulla disinformazione
Ma esaminiamo in profondità la ricerca, partendo dalle domande alle quali si è cercata una risposta, che sono le seguenti:
- In che modo i fattori sociodemografici (ad esempio età, sesso, istruzione, reddito, ideologia politica, utilizzo dei social media, etnia) sono associati alla conoscenza algoritmica?
- Come viene distribuita la conoscenza algoritmica tra i Paesi?
- In che modo la conoscenza algoritmica influenza le reazioni degli individui alla disinformazione sui social media?
Metodologia della ricerca: Paesi e campioni
Il lavoro è stato condotto mediante sondaggi in 4 Paesi (Stati Uniti, Regno Unito, Corea del Sud e Messico) contraddistinti da scenari tecnologici, politici e sociali diversi. Gli studiosi mettono in evidenza che il divario digitale, originariamente riferito al divario tra le persone che hanno accesso alle moderne tecnologie dell’informazione e della comunicazione e quelle che ne sono prive, si è recentemente modificato e approfondito con l’uso intensivo degli algoritmi. Essi infatti controllano sempre di più il flusso di informazioni sui social media, determinando cosa vedono gli utenti nei loro feed. Gli algoritmi sono progettati per filtrare e presentare contenuti allo scopo di coinvolgere e fidelizzare gli utenti, spesso diffondendo informazioni errate che si allineano con i loro pregiudizi e convinzioni.
Perché la comprensione degli algoritmi è cruciale
Considerati quindi i problemi che il loro uso può produrre, la comprensione degli algoritmi è diventata cruciale per gli utenti, il dibattito pubblico e la democrazia. Tuttavia, la comprensione di come gli algoritmi filtrano e presentano le informazioni potrebbe non essere equamente distribuita tra persone con background sociodemografici diversi (vale a dire, il divario digitale di secondo livello). Per molti aspetti, la conoscenza algoritmica potrebbe assomigliare alla conoscenza civica, politica o economica in termini di distribuzione non uniforme, ma tale punto ha iniziato ad attirare l’attenzione degli studiosi solo di recente. Con la distribuzione non uniforme della conoscenza algoritmica, alcuni potrebbero possedere la capacità di esaminare e formulare giudizi consapevoli sulle informazioni presentate dagli algoritmi, mentre altri potrebbero essere più suscettibili alle narrazioni false o parziali.
Divario digitale e conoscenza algoritmica
Alcuni studi recenti hanno esplorato lo sviluppo del divario di conoscenza algoritmica tra contesti sociodemografici e come questi divari si intersecano con la comprensione dei divari digitali. Studi precedenti si sono concentrati invece principalmente su questo divario all’interno dei singoli paesi, trascurando le potenziali variazioni tra i paesi. Pertanto, non è chiaro se il divario di conoscenza algoritmica riscontrato in un paese sia osservabile in diversi contesti nazionali.
Dato che gli algoritmi operano all’interno di intricate miscele di dinamiche politiche, tecnologiche, culturali e sociali, è possibile che alcuni fattori abbiano una maggiore influenza sulla conoscenza algoritmica degli individui in un paese, mentre esercitano meno potere in altri paesi. Inoltre, il livello di conoscenza algoritmica potrebbe variare tra i paesi, anche se condividono livelli simili di accesso a Internet e ai social media. Infine, mentre vi è una crescente consapevolezza che le differenze nelle competenze o nella conoscenza delle risorse digitali hanno conseguenze intrinseche nel mondo reale (ad esempio, il divario digitale di terzo livello), gli esiti specifici del divario di conoscenza algoritmica sono stati raramente esaminati empiricamente
Lo studio appena pubblicato fa progredire la ricerca sul divario di conoscenza algoritmica su più fronti. In primo luogo, esplorando l’associazione tra vari fattori sociodemografici e conoscenza algoritmica, questo studio estende la ricerca precedente sul divario digitale di secondo livello. In quattro paesi con diversi scenari tecnologici, politici e sociali, è stato riscontrato un grado di validità interculturale che indica che gli individui più giovani e gli utenti abituali dei social media hanno una maggiore conoscenza algoritmica. Inoltre, mentre i fattori predittivi specifici variano da paese a paese, la conoscenza algoritmica è distribuita in modo non uniforme in base a livello di istruzione, etnia, genere e ideologia politica.
Variazioni tra i paesi nella conoscenza algoritmica
Inoltre, i risultati del lavoro indicano che il potere predittivo di specifici fattori sociodemografici può differire tra i paesi. Negli Stati Uniti, l’ideologia politica e l’etnia sono i principali fattori predittivi della conoscenza algoritmica; nel Regno Unito, età, ideologia politica e utilizzo dei social media; in Corea del Sud, età, genere, istruzione e utilizzo dei social media; in Messico, solo istruzione e utilizzo dei social media. Altra particolarità venuta alla luce: negli Stati Uniti e nel Regno Unito, da qualche anno politicamente molto più polarizzati, l’ideologia politica è il fattore più significativo nello spiegare le differenze nella conoscenza algoritmica, con i liberal maggiormente in grado di comprendere il funzionamento degli algoritmi dei social media. Al contrario, in Corea del Sud, dove le donne sono soggette a disparità e ostacoli in vari ambiti sociali, il genere è emerso come il fattore predittivo più potente della conoscenza algoritmica, a vantaggio dei maschi.
Questi risultati suggeriscono che il divario di conoscenza algoritmica può manifestarsi in varie dimensioni oltre ai tradizionali fattori socioeconomici, come reddito e istruzione. Per quanto concerne le variazioni significative nei livelli di conoscenza nei quattro paesi, gli Stati Uniti hanno mostrato la più alta conoscenza algoritmica complessiva, seguiti da Regno Unito, Messico e Corea del Sud. Ciò anche se la Corea del Sud vanta i più alti tassi di penetrazione di Internet (98%). Questa scoperta conferma che la questione dell’accesso alle risorse digitali da sola non può offrire una comprensione completa del divario digitale e che, nella ricerca e nei possibili interventi per migliorare la conoscenza algoritmica, vanno tenuti nella dovuta considerazione i contesti nazionali e culturali.
I risultati del divario di conoscenza algoritmica
Altra risposta scaturita dallo studio riguarda i risultati del divario di conoscenza algoritmica. Numerosi studiosi, infatti, sono dell’avviso che il divario digitale contribuisca alla perpetuazione delle disuguaglianze sociali esistenti, ma le indagini empiriche sui risultati reali del divario di conoscenza algoritmica sono state limitate. Colmando questo divario, lo studio fornisce prove che indicano che gli individui con una maggiore conoscenza algoritmica sono più inclini a intraprendere azioni contro la disinformazione: quando le persone capiscono che gli algoritmi dei social media forniscono informazioni basate sulle loro interazioni precedenti e su quelle di utenti simili, sono più consapevoli dei rischi di rimanere intrappolati nelle c.d. filter bubbles. Riconoscere questi rischi spinge le persone ad adottare misure per evitarli o mitigarli.
Le implicazioni della conoscenza algoritmica per la disinformazione
Ricerche precedenti supportano questo ragionamento, indicando che gli individui ignari di come gli algoritmi adattano le informazioni, per conformarle alle loro convinzioni, potrebbero credere erroneamente che tutti i contenuti che incontrano sui social media siano imparziali e accurati, con la conseguenza di approvare o condividere tali contenuti senza riserve. In particolare, coloro che tradizionalmente sono indietro in termini di conoscenza algoritmica, come le popolazioni anziane o meno istruite, sono risultati più propensi a diffondere disinformazione. Alla luce di ciò, lo studio suggerisce, come abbiamo già accennato, il potenziale ruolo della conoscenza algoritmica nel fornire gli strumenti a tali popolazioni per combattere la disinformazione e mitigare le disuguaglianze sociali prevalenti.
I social media, i governi e la società civile, per frenare la diffusione della disinformazione, hanno puntato su migliore moderazione, etichette informative e segnali più forti relativi alla qualità dei contenuti, prebunking o fact-checking. Inoltre, società civile e governi spesso si sono concentrati e si concentrano sulla confutazione della notizia falsa specifica in ambiti quali elezioni e salute pubblica. Come già detto, lo sviluppo di programmi di alfabetizzazione per migliorare la conoscenza generale sui meccanismi algoritmici e sul flusso di informazioni potrebbe essere una valida alternativa.
Limiti dello studio e futuri sviluppi
Gli autori della ricerca ne indicano anche alcuni limiti. Innanzitutto, la misurazione della conoscenza algoritmica si è concentrata solo su Facebook e X/Twitter e ha considerato solo gli algoritmi di raccomandazione di contenuti per feed personali. I risultati, perciò, potrebbero non rappresentare appieno l’ampiezza e la profondità della conoscenza algoritmica degli utenti. Pertanto sarà necessario, in futuro, ampliare lo spettro dello studio da questi due punti di vista.
Tuttavia, già questa ricerca arricchisce il dibattito su come rafforzare la capacità dei cittadini di orientarsi nell’ambiente dei social media.
Una sintesi dei risultati
In conclusione, riassumiamo schematicamente i risultati dello studio:
La conoscenza algoritmica non è distribuita equamente tra individui con background socio-demografici diversi
- La conoscenza algoritmica non è equamente distribuita tra individui con background sociodemografici diversi, e l’età ha su di essa un effetto statisticamente significativo ma modesto;
- l’uso dei social media ha un modesto potere predittivo per la conoscenza algoritmica, con utenti abituali dei social media che hanno una migliore comprensione delle operazioni algoritmiche rispetto agli altri;
- gli individui con livelli di istruzione più elevati mostrano una maggiore comprensione dei meccanismi in due paesi;
- l’ideologia politica, il genere e l’etnia sono stati identificati come fattori predittivi della conoscenza algoritmica in alcuni paesi;
- l’età avanzata predice negativamente la conoscenza algoritmica negli Stati Uniti, nel Regno Unito e in Corea del Sud, non in Messico;
- l’uso dei social media è correlato positivamente con la conoscenza algoritmica nel Regno Unito, in Corea del Sud e in Messico, ma non negli Stati Uniti.
- L’istruzione predice positivamente la conoscenza algoritmica in Corea del Sud e in Messico, non negli Stati Uniti e nel Regno Unito;
- negli Stati Uniti e nel Regno Unito, l’ideologia politica è emersa come il principale fattore predittivo del divario di conoscenza algoritmica, con individui più progressisti che dimostrano una maggiore comprensione degli algoritmi ;
- in Corea del Sud, il genere è un notevole fattore predittivo del divario di conoscenza algoritmica, con gli intervistati maschi che dimostrano una comprensione significativamente maggiore.
La conoscenza algoritmica agevola la messa in atto di azioni per contrastare la disinformazione
Diversi livelli di conoscenza algoritmica spingono gli individui a rispondere in modo diverso alla disinformazione, chiarendo i risultati nel mondo reale del divario di conoscenza algoritmica (vale a dire, il divario digitale di terzo livello). In particolare, la conoscenza algoritmica è stata associata positivamente alle intenzioni di adottare misure correttive in tutti e quattro i Paesi.
Coloro che possiedono una conoscenza algoritmica più elevata sono più inclini a intraprendere azioni per combattere la disinformazione: commentare per mettere in guardia contro potenziali pregiudizi o rischi nei messaggi dei media; condividere controinformazioni o opinioni diverse; diffondere informazioni che espongono i difetti dei contenuti forniti dai media; segnalare un post di disinformazione alla piattaforma.
Esistono disparità tra paesi nella conoscenza algoritmica
Gli intervistati degli Stati Uniti hanno riportato la maggiore conoscenza algoritmica, seguiti dal Regno Unito, Messico e Corea del Sud. Un test non ha mostrato differenze significative nel livello di conoscenza algoritmica tra gli intervistati degli Stati Uniti e del Regno Unito, mentre degne di nota sono le differenze rispetto agli intervistati della Corea del Sud e del Messico. Inoltre, gli intervistati della Corea del Sud hanno mostrato livelli di conoscenza algoritmica notevolmente inferiori rispetto a quelli di tutti gli altri Paesi.
Bibliografia dello studio
Barnidge, M., & Rojas, H. (2014). Percezioni ostili dei media, presunta influenza dei media e discorso politico: ampliamento dell’ipotesi di azione correttiva. International Journal of Public Opinion Research , 26 (2), 135–156. https://doi.org/10.1093/ijpor/edt032 .
Bakshy, E., Messing, M., & Adamic, LA (2015). Esposizione a notizie e opinioni ideologicamente diverse su Facebook. Science, 348 (6239), 1130–1132. https://doi.org/ 10.1126/science.aaa1160 .
Brodsky, JE, Zomberg, D., Powers, KL e Brooks, PJ (2020). Valutazione e promozione della consapevolezza degli algoritmi degli studenti universitari nei contesti online. Journal of Media Literacy Education , 12 (3), 43–57. https://doi.org/10.23860/JMLE-2020-12-3-5 .
Chung, M., & Kim, N. (2021). Quando scopro che la notizia è falsa: come il fact-checking delle informazioni argina la diffusione di fake news tramite la percezione in terza persona. Human Communication Research, 47 (1), 1–24. https://doi.org/10.1093/hcr/hqaa010
Chung, M., & Wihbey, J. (2024). Regolamentazione dei social media, effetto terza persona e opinioni pubbliche: uno studio comparativo di Stati Uniti, Regno Unito, Corea del Sud e Messico. New Media & Society, 26 (8), 4534–4553 . https://doi.org/10.1177/14614448221122996
Ciampaglia, GL, Nematzadeh, A., Menczer, F., & Flammini, A. (2018). Come il pregiudizio della popolarità algoritmica ostacola o promuove la qualità. Scientific Reports, 8 (1), 15951. https://doi.org/10.1038/s41598-018-34203-2
Cotter, K., & Reisdorf, BC (2020). Lacune di conoscenza algoritmica: una nuova dimensione della disuguaglianza (digitale). International Journal of Communication, 14, 745–765. https://ijoc.org/index.php/ijoc/article/view/12450
DataReportal. (2022). Panoramica digitale globale di Digital 2022. https://datareportal.com/reports/digital-2022-global-overview-report .
Dimock, M., & Wike, R. (2020). L’America è eccezionale nella natura della sua divisione politica. Pew Research Center . https://www.pewresearch.org/short-reads/2020/11/13/america-is-exceptional-in-the-nature-of-its-political-divide/ .
Dogruel, L., Masur, P., & Joeckel, S. (2022). Sviluppo e convalida di una scala di alfabetizzazione algoritmica per gli utenti di Internet. Communication Methods and Measures , 16 (2), 115–133. https://doi.org/10.1080/19312458.2021.1968361
Effron, DA, & Raj, M. (2020). Disinformazione e moralità: imbattersi in titoli di fake news li rende meno immorali da pubblicare e condividere. Psychological Science, 31 (1), 75–87. https://doi.org/10.1177/0956797619887896
Fuchs, C. (2009). Il ruolo della disuguaglianza di reddito in un’analisi multivariata transnazionale del divario digitale. Social Science Computer Review , 27 (1), 41–58. https://doi.org/10.1177/0894439308321628
Gran, AB, Booth, P., & Bucher, T. (2021). Essere o non essere consapevoli dell’algoritmo: una questione di un nuovo divario digitale? Informazione, comunicazione e società , 24 (12), 1779–1796. https://doi.org/10.1080/1369118X.2020.1736124
Grechyna, D. (2023). Polarizzazione politica nel Regno Unito: misure e correlati socioeconomici. Constitutional Political Economy , 34 (2), 210–225. https://doi.org/10.1007/s10602-022-09368-8
Golino, MA (2021). Algoritmi nelle piattaforme dei social media . Institute for Internet and the Just Society . https://www.internetjustsociety.org/algorithms-in-social-media-platforms .
Gottfried, J., & Grieco, E. (23 ottobre 2018). I giovani americani sono più bravi degli americani più anziani a distinguere le dichiarazioni di notizie fattuali dalle opinioni . Pew Research Center . https://www.pewresearch.org/short-reads/2018/10/23/younger-americans-are-better-than-older-americans-at-telling-factual-news-statements-from-opinions/ .
Heikkilä, M. (2022, 4 ottobre). La Casa Bianca ha appena presentato una nuova Carta dei diritti dell’intelligenza artificiale. MIT Technology Review. https://www.technologyreview.com/2022/10/04/1060600/white-house-ai-bill-of-rights/
Helsper, EJ (2010). Uso di Internet di genere attraverso generazioni e fasi della vita. Communication Research, 37 (3), 352–374. https://doi.org/10.1177/0093650209356439
Hussein, E., Juneja, P., & Mitra, T. (2020). Misurazione della disinformazione nelle piattaforme di ricerca video: uno studio di audit su YouTube. Atti dell’ACM sull’interazione uomo-computer, 4 (CSCW1), 1–27. https://doi.org/10.1145/3392854
Klawitter, E., & Hargittai, E. (2018). “È come imparare un’altra lingua”: il ruolo delle competenze algoritmiche nella curatela di beni creativi. International Journal of Communication , 12 , 3490–3510. https://ijoc.org/index.php/ijoc/article/view/7864
Lee, MYH (2024, 21 febbraio). La Corea del Sud, una nazione con rigide norme di genere, incontra i suoi fautori del cambiamento. The Washington Post . https://www.washingtonpost.com/world/2024/02/21/south-korea-women-gender-equality-gap/ .
Lim, JS (2017). L’effetto in terza persona della pubblicità online della chirurgia estetica: un modello di percorso per prevedere azioni restrittive rispetto a quelle correttive. Journalism & Mass Communication Quarterly , 94 (4), 972–993. https://doi.org/10.1177/1077699016687722
Mozur, P. (2018, 15 ottobre). Un genocidio incitato su Facebook, con post dell’esercito del Myanmar. The New York Times. https://www.nytimes.com/2018/10/15/technology/myanmar-facebook-genocide.html
OCSE. (2021). Lettori del XXI secolo: sviluppare competenze di alfabetizzazione in un mondo digitale. https://www.oecd.org/publications/21st-century-readers-a83d84cb-en.htm .
Oeldorf-Hirsch, A., & Neubaum, G. (2023). Cosa sappiamo dell’alfabetizzazione algoritmica? Lo status quo e un programma di ricerca per un campo in crescita. New Media & Society, 14614448231182662. https://doi.org/10.1177/14614448231182662
Pariser, E. (2011). La bolla di filtro: come il nuovo web personalizzato sta cambiando ciò che leggiamo e il nostro modo di pensare . Penguin Books.
Polizzi, G. (2020). Alfabetizzazione digitale e curriculum nazionale per l’Inghilterra: imparare da come gli esperti interagiscono e valutano i contenuti online. Computers and Education, 152 , 103859. https://doi.org/10.1016/j.compedu.2020.103859
Powers, E. (2017). Il mio feed di notizie è filtrato? Consapevolezza della personalizzazione delle notizie tra studenti universitari. Digital Journalism , 5 (10), 1315–1335. https://doi.org/10.1080/21670811.2017.1286943
Ragnedda, M., & Muschert, GW (2013). Il divario digitale . Routledge.
Roberge, J., & Melançon, L. (2017). Essere il King Kong della cultura algoritmica è un lavoro duro dopo tutto: i regimi di giustificazione di Google e i significati di Glass. Convergence , 23 (3), 306–324. https://doi.org/10.1177/1354856515592506
Roozenbeek, J., Van Der Linden, S., & Nygren, T. (2020). Gli interventi di prebunking basati sulla teoria dell'”inoculazione” possono ridurre la suscettibilità alla disinformazione nelle diverse culture. Harvard Kennedy School (HKS) Misinformation Review , 1 (2). https://doi.org/10.17863/CAM.48846
Scheerder, A., Van Deursen, A., & Van Dijk, J. (2017). Determinanti delle competenze, degli usi e dei risultati di Internet. Una revisione sistematica del divario digitale di secondo e terzo livello. Telematics and Informatics , 34 (8), 1607–1624. https://doi.org/10.1016/j.tele.2017.07.007
Seo, H., Blomberg, M., Altschwager, D., & Vu, HT (2021). Popolazioni vulnerabili e disinformazione: un approccio misto alla valutazione delle informazioni online degli anziani svantaggiati. New Media & Society, 23 (7), 2012–2033. https://doi.org/10.1177/1461444820925041
Selwyn, N. (2004). Riconsiderare la comprensione politica e popolare del divario digitale. New Media & Society , 6 (3), 341–362. https://doi.org/10.1177/1461444804042519
Shin, J., & Valente, T. (2020). Algoritmi e disinformazione sanitaria: uno studio di caso sui libri sui vaccini su Amazon. Journal of Health Communication, 25 (5), 394–401. https://doi.org/10.1080/10810730.2020.1776423
Statistica. (nd). Dati demografici e utilizzo di Internet. https://www.statista.com/markets/424/topic/537/demographics-use/#overview
UNESCO. (2024). Rete per l’alfabetizzazione mediatica e informativa in Messico. https://www.unesco.org/en/articles/network-media-and-information-literacy-mexico
Università di Oxford. (2023). Alfabetizzazione digitale: essere uno studente alfabetizzato digitalmente. https://www.ox.ac.uk/event/digital-literacy-being-digitally-literate-student
Van Dijk, JA (2006). Ricerca sul divario digitale, risultati e carenze. Poetics , 34 (4–5), 221–235. https://doi.org/10.1016/j.poetic.2006.05.004
Walter, N., Cohen, J., Holbert, RL, & Morag, Y. (2020). Fact-checking: una meta-analisi di ciò che funziona e per chi. Political Communication , 37 (3), 350–375. https://doi.org/10.1080/10584609.2019.1668894
Zarouali, B., Helberger, N., & De Vreese, CH (2021). Indagine sui concetti errati algoritmici in un contesto mediatico: fonte di un nuovo divario digitale? Media e comunicazione , 9 (4), 134–144. https://doi.org/10.17645/mac.v9i4.4090