<black;”>Facebook ha deciso di permettere ai suoi 2,8 miliardi di utenti di spegnere il suo algoritmo, o quasi. L’annuncio a sorpresa è arrivato da Ramya Sethuraman, la responsabile del prodotto “news feed” ossia il fiume di notizie che appare ogni volta che apriamo l’applicazione.
Le novità di Facebook per un maggiore controllo
Tra le novità, sta per apparire in alto nel news feed una nuova barra per passare con un clic alla modalità di visualizzazione “più recenti” e a quella “preferiti”, rispetto alla visualizzazione di default che è come al solito cucinata dall’algoritmo (che mostra post in base alla loro popolarità, nostri interessi e caratteristiche).
La visualizzazione preferiti sfrutta l’omonima funzione, già disponibile che permette a chiunque di selezionare fino a 30, tra pagine e amici, da mettere in una lista di preferiti. Così facendo i loro post appariranno sempre prima di quelli degli altri ossia di quelli scelti autonomamente dall’algoritmo di Facebook, ma sempre sulla base nostre abitudini e interazioni. La nuova barra nel news feed permetterà di mostrare isolatamente questi post “preferiti”.
Nell’ottica di aumentare la trasparenza sul funzionamento dell’algoritmo, sempre ieri, è stata estesa la funzione “Why am I seeing this?” ovvero quella che ci permette di vedere perché il sistema ci ha consigliato un determinato post o pubblicità. Cliccando sul contenuto potremo capire se è stato scelto perché è stato già apprezzato da persone con le quali interagiamo, oppure perché riguarda un argomento di nostro interesse o ancora se è un post correlato con la nostra posizione geografica. Ultima novità, possiamo ora scegliere se e a chi limitare i commenti sui nostri post.
Mossa tardiva per acquietare utenti e politica
Le novità annunciate ieri mi sembrano una mossa utile, ma forse tardiva.
Utile perché rende più semplice definire quali contenuti seguire più assiduamente, anche se dei modi per far comprendere all’algoritmo i nostri gusti già esistevano, per esempio quello di nascondere dei post non graditi o non seguire più una persona. Ma questa nuova funzione darà sicuramente più possibilità di controllo proattivo. C’è da dire, però che 30 fonti sono un numero molto limitato di contenuti, che rischia di rafforzare la “camera d’eco” dell’utente meno aperto al nuovo.
L’annuncio di ieri può essere considerato tardivo, se si pensa che il suo obiettivo è anche quello di attenuare l’ondata di critiche cui l’azienda di Menlo Park è stata sottoposta da tempo e che si è inasprita con il successo del documentario “The Social Dilemma” (uscito più di un anno fa). In particolare quelle di manipolazione dell’informazione degli utenti e conseguente polarizzazione delle opinioni, al fine di generare interazioni e permanenza sul sito. Proprio qualche giorno fa, Nick Clegg (vice president Global Affairs di Facebook, già vice primo ministro del Regno Unito) ha articolato la sua opinione in merito a queste accuse. Facebook come altre big tech è stata inoltre torchiata dal Congresso USA in merito all’accusa di avere troppo potere e alle ipotesi di modifiche legislative, caldeggiate negli Stati Uniti e in Europa.
Clegg ha ammesso che alcune critiche verso il più grande social network del mondo sono corrette e che proprio per questo Facebook sta andando nella direzione di una maggiore trasparenza del suo sistema di classificazione e di maggiori opportunità di controllo per gli utenti.
Allo stesso tempo, però, ha esortato a fare attenzione alle semplificazioni in quanto il funzionamento dell’algoritmo assomiglia ad “un tango che si balla in due”, dipende anche dai comportamenti e dalle scelte delle persone.
La fiducia nella società digitale
In ogni caso lo stesso Clegg, in un’intervista al Wall Street Journal, ha detto chiaramente che non ci sarà sostenibilità economica per Facebook senza fiducia degli utenti, che è ottenibile grazie a privacy, trasparenza, controllo. Gli stessi principi, curiosamente, del “digital single market” e del Gdpr europeo.
Trasparenza e controllo sono anche alla base del Digital Services Act.
A nostro avviso è giusto pretendere da Facebook più trasparenza e controllo, ma trasferire una parte della responsabilità all’utente, dandogli la possibilità di pilotare cosa vuole vedere è solo un primo passo. La maggior parte delle persone è pigra e soggiogata alla “dittatura del default” per cui non è detto che raccoglierà questa opportunità di controllo. La parola chiave è educazione e su questo punto non è il caso di delegare completamente Mr. Zuckerberg. E altro ruolo lo hanno le regole, un punto su cui i lavori in corso negli Usa ed Europa procedono da tempo.
—
Vincos.it