social network

L’algoritmo di Facebook sulla graticola: ecco cosa non va, dalla privacy alla pubblicità

Nel migliore dei casi, l’algoritmo di Facebook aiuta gli utenti a scoprire nuove persone e contenuti sulla base dei loro interessi. Nel peggiore dei casi indirizza verso contenuti tossici e disinformazione. Ciò che è certo è la mancanza di trasparenza. E ora ci sono pure gli occhiali a realtà aumentata. I temi sul tavolo

Pubblicato il 26 Ott 2021

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza

facebook_likes

Che Facebook non fosse un semplice archivio o album di famiglia composto da immagini del “buongiorno”, di cuccioli affettuosi e di bambini adorabili, è un dato di fatto. Al giorno d’oggi sono ben poche le persone che possono pensare il contrario (quantomeno rispetto a un decennio fa). Ma se da questa pia disillusione si passa a dare un’occhiata nelle “segrete stanze” del social di maggior successo al mondo, la cosa si fa più interessante. O inquietante, dipende dai punti di vista.

Ma cosa c’è che non va nell’algoritmo di Facebook? Come stanno davvero le cose?

Facebook sa di seminare odio e falsità ma non riesce a smettere: servono regole

Il (controverso) funzionamento dell’algoritmo di Facebook

È notizia “fresca”, di inizio autunno, il putiferio scatenato dall’informatica ed (ex) impiegata Frances Haugen, che ha svelato alcune informazioni riservate sul social di Menlo Park. Informazioni che riguardano il funzionamento dell’algoritmo del sistema e di come questo strumento possa – tra le altre cose – determinare quali immagini, video e notizie gli utenti vedono. La whistleblower, nelle sue critiche, si è concentrata principalmente sull’algoritmo del social network, progettato per mostrare agli utenti i contenuti con cui è più probabile che interagiscano, nonché contestando la presenza di “polarizzazione” dell’attenzione degli utenti e della disinformazione. D’altro canto, invece, la Head of Global Policy Management di Facebook Monika Bickert ha affermato che gli algoritmi della società non sono progettati per promuovere contenuti del genere, con Facebook che mira anche a combattere il clickbait e tutte le pratiche associate.

Certamente è vero che il Facebook “di oggi”, con un flusso costante di informazioni e annunci scelti algoritmicamente, è un social network molto diverso da quello che era nei suoi primi giorni, quando figurava come un mero esperimento universitario. Non senza l’utilizzo, anche allora, di algoritmi (anche se ben diversi da ora). Un algoritmo è un insieme di step matematici che “dicono” al computer cosa fare con certi input per produrre certi output. Si può pensare che sia più o meno come una ricetta, dove gli ingredienti sono gli input e il piatto finale è l’output. Sui social media, le azioni degli utenti, ossia ciò che si scrive e che si pubblica, sono l’input. Ciò che il social network mostra, che sia il post di un amico o una pubblicità, è l’output.

Nel migliore dei casi, questi algoritmi possono aiutare a personalizzare i feed in modo che gli utenti scoprano nuove persone e nuovi contenuti che corrispondano ai loro interessi. Nel peggiore dei casi, come la whistleblower di Facebook ha asserito, corrono il rischio di indirizzare gli utenti verso contenuti tossici e verso la disinformazione. Anche se, in entrambi i casi, siamo in presenza di situazioni monetizzabili. Ciò che non è in dubbio è la complessità di tali sistemi, che non permettono sempre di sapere cosa vi accade all’interno.

Più trasparenza per incentivare i buoni comportamenti degli utenti

Ovviamente ci sono modi per rendere questi sistemi più chiari e dare agli utenti la possibilità di comprendere come essi funzionano. La computer scientist (già Google) Margaret Mitchell pensa che tale comprensione possa essere fatta consentendo agli utenti di visualizzare i dettagli sul perché si sta vedendo quel determinato post o quel determinato annuncio. Per l’esperta si potrebbe dare agli utenti la possibilità di selezionare le proprie preferenze, in maniera da controllarle in autonomia.

La trasparenza, d’altronde, è la chiave che incentiverebbe il buon comportamento da tenere sui social network. Un altro modo per incentivare la trasparenza dei social network sarebbe quella di aumentare la “revisione indipendente” delle pratiche algoritmiche, con l’inclusione di ricercatori completamente indipendenti, giornalisti investigativi e con persone all’interno degli organismi di regolamentazione che hanno le conoscenze e le competenze necessarie, nonché “l’autorità giusta”, per chiedere l’accesso ai sistemi algoritmici al fine di garantire che le leggi non siano violate e che siano seguite le best practices del settore.

Un grande ostacolo ai miglioramenti significativi che possono esserci sui social network riguarda la quantità di tempo che gli utenti trascorrono sui social media. Secondo Haugen, l’azienda di Menlo Park è consapevole che i meccanismi di base del suo “prodotto”, come la viralità dei post e le raccomandazioni del sistema, siano una parte significativa del motivo per cui l’odio e la disinformazione fioriscono sulla sua piattaforma. La questione è ancora in divenire, per cui sarà interessante seguire l’evolversi della situazione (e, soprattutto, “capire chi ha ragione” su questa intricata vicenda).[1]

L’algoritmo degli occhiali AR di Facebook

In un mondo in cui tutti i dispositivi in nostro possesso possono – potenzialmente – tracciare tutto ciò che si fa nella vita quotidiana, permettendo di vedere, sentire e ricordare tutto e richiamare queste informazioni quando necessario – gli occhiali a realtà aumentata (AR) di Facebook sono il dispositivo ideale per permettere di raggiungere il pieno controllo di tutto ciò che ci circonda. Una tecnologia interessante e avveniristica che, tuttavia, deve fare i conti con la privacy, la protezione dei dati e – ma lo sapremo più avanti – con lo scandalo “Hagen” esposto nel paragrafo che precede (tuttavia, in divenire).

Ray-Ban Stories: perché gli occhiali Facebook sollevano timori universali

L’iniziativa che Facebook porta avanti con il suo progetto di Intelligenza Artificiale “Ego4D” mira, secondo la società di Zuckerberg, a risolvere le sfide della ricerca intorno alla percezione egocentrica: in pratica, un’Intelligenza Artificiale che interagisca con il mondo come fanno le persone. Un’Intelligenza Artificiale che imparerebbe, vedrebbe e sentirebbe tutto, al pari della persona che “la indossa”. E tutto ciò è alla base del progetto degli occhiali AR di Facebook. Nei film della Marvel dove compare l’eclettico personaggio di Tony Stark, Iron Man interagisce con un’Intelligenza Artificiale presente “attorno alla sua testa”. Gli algoritmi possono vedere e sentire tutto quello che il magnate della Stark Industries fa. E possono proiettare informazioni virtuali che Iron Man può vedere immediatamente quando interagisce con i suoi dispositivi. E questo è ciò che progetta Facebook, anche se in maniera meno avveniristica e meno egocentrica di quanto farebbe Tony Stark.

Facebook ha spiegato di aver sviluppato cinque “sfide” di riferimento per sviluppare il tipo di Intelligenza Artificiale che ha in mente. La società di Menlo Park vuole che l’Intelligenza Artificiale che alimenta i suoi occhiali ricordi gli eventi del passato, preveda ciò che l’utente potrebbe voler fare, rilevi come sta interagendo l’utente con gli oggetti della vita reale, e ricordi le cose dette in passato. E in tutto ciò, com’è prevedibile, le implicazioni per la privacy e la protezione dei dati personali sono enormi. Affinché un tale algoritmo di Facebook abbia successo, l’Intelligenza Artificiale avrebbe bisogno di accedere a tutto ciò che si fa mentre si indossano gli occhiali a realtà aumentata. Avrebbe bisogno di registrare video, elaborare audio e memorizzare un sacco di dati (che possono riguardare tutte le persone con le quali ci si rapporta). Facebook non deve solo sviluppare questa incredibile esperienza di Intelligenza Artificiale, ma deve anche convincere gli utenti a fidarsi dell’azienda, con tutti i dati che gli occhiali AR genererebbero. Facebook, inoltre, non dice ancora nulla sul fatto che questo algoritmo raccoglierebbe dati per scopi pubblicitari. Per Tony Stark, questo ultimo aspetto “commerciale” lo farebbe andare “su tutte le furie”; pensare ai suoi assistenti virtuali Jarvis e Friday che partono con spot pubblicitari, mentre Iron Man combatte contro il nemico di turno, sarebbe alquanto paradossale!

Conclusioni

Tuttavia, tornando nella realtà, l’aspetto della privacy e della protezione dei dati sono ancora lontani dall’essere considerati. Un portavoce di Facebook ha affermato a The Verge che le tutele per la privacy e la protezione dei dati saranno introdotte “più avanti” e ad appannaggio delle aziende che svilupperanno le applicazioni commerciali connesse agli occhiali AR. Nel frattempo, ciò che è certo, è che alcune autorità privacy – tra le quali il nostro Garante[2] – si sono già messe in movimento. Tra l’altro, come si suol dire, prevenire è meglio che curare.[3]

  1. Facebook’s success was built on algorithms. Can they also fix it? CNN. https://edition.cnn.com/2021/10/10/tech/facebook-whistleblower-algorithms-fix/index.html
  2. Smart glasses: Garante Privacy chiede informazioni a Facebook. Garante della protezione dei dati personali. https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9698698
  3. Facebook is developing new algorithms that can track everything you do. BGR. https://bgr.com/tech/facebook-is-developing-new-algorithms-that-can-track-everything-you-do/

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati