C’è un sottogenere di meme piuttosto celebri che girano su Instagram e sostanzialmente ironizzano sull’esistenza di un particolare account associato a un profilo femminile che pubblica una serie di foto discinte assieme a frasi celebri o presunte ironiche. Lo scopo è evidente: usare foto femminili senza veli come scusa per aumentare l’engagement del post Instagram. Ovviamente il meme serve per ironizzare su questo modo poco ortodosso di attirare attenzione su una foto e quindi suscita il sarcasmo di chi lo vede o lo condivide. In realtà secondo un recente studio di AlgorithmWatch, per aumentare la circolazione dei post su Instagram è proprio questo che bisogna fare: mostrare la pelle scoperta appartenente ad una donna per far si che l’algoritmo di selezione mostri il post a quante più persone possibili.
AlgorithmWatch è una associazione non profit di ricerca e advocacy che si occupa del tema delle conseguenze sociali degli algoritmi. Qualche settimana fa in collaborazione con Lo European Data Journalism Network, hanno diffuso un report dal titolo “Undress or fail: Instagram’s algorithm strong-arms users into showing skin” la cui sintesi è la seguente: l’algoritmo di Instagram aumenta la visibilità dei post in cui ci sono donne e uomini poco vestiti, preferibilmente donne. Come sono giunti a questa conclusione?
La ricerca
La ricerca ha coinvolto due tipologie di utenti. Da un lato i creatori di contenuti definiti monitored account, 46 utenti Instagram – 31 donne e 15 uomini – che usano la piattaforma per la loro attività professionale (fornitori di servizi, operatori di negozi online, utenti che vendono post sponsorizzati). Le foto da loro pubblicate venivano analizzate da Google Vision API che le classificava in due categorie: foto piccanti (persone in pose provocanti oppure oscene, vestiti succinti, parti intime coperte in modo strategico) e foto di nudità (contenuti come lingerie, costumi, scollature e così via). La seconda tipologia di utenti sono i data donors, ovvero 31 utilizzatori regolari di Instagram che dovevano seguire i profili di almeno tre monitored account e installare nel proprio browser una estensione per Firefox in modo da raccogliere i dati (qui l’app: https://monitoring-ig.herokuapp.com/latest-firefox/). Lo scopo era quello di verificare se in una navigazione standard di Instagram, i data donors avessero più probabilità di vedere i contenuti prodotti dai monitored account classificati come foto piccanti o foto di nudità. La ricerca è stata svolta nel periodo 31 gennaio – 20 maggio 2020, monitorando un totale di 2825 post (pari a 335 immagini), di questi sono stati analizzati 1831 post (2886 immagini), ovvero solo i post seguiti da almeno un data donor.
I risultati
Per quanto riguarda le foto piccanti, (38,5% del totale dei post) sono state mostrate più spesso da parte dell’algoritmo di Instagram (il 48,3% dei casi) senza differenze significative se la foto ritraeva un uomo o una donna. Mentre per quanto riguarda le foto di nudità femminili (13,3% dei post), venivano mostrate molto più spesso (56% dei casi) rispetto alle foto delle nudità maschili (pari al 7% dei post) che invece apparivano nella timeline dei data donors in proporzione molto più bassa (35% dei casi). In sintesi, se la foto ritraeva una donna nuda (o pochissimo vestita) c’era una possibilità su due che l’algoritmo di Instagram la facesse apparire nei feed dei data donors, se fosse stato un uomo nudo c’era una possibilità su tre. Questo vuol dire che l’algoritmo di Instagram preferisce mostrare donne svestite molto più spesso degli uomini, mentre se sono pose provocanti o oscene non ci sono sostanziali differenze fra uomini e donne.
Come (e perché) difendersi da un algoritmo sessista
I dati sono parziali, gli account monitorati pochi e i data donors limitati, ma ci sono tutti gli elementi per interrogarsi sulla questione: come proteggersi da un algoritmo che si comporta in maniera sessista? E soprattutto perché?
Cominciamo da questa seconda domanda. La questione non è facile da risolvere.
Secondo gli autori del report – Judith Duportail, Nicolas Kayser-Bril, Kira Schacht e Édouard Richard – una delle ipotesi potrebbe essere un bias dell’algoritmo dovuto al fatto che il mondo della computer vision è un mondo a prevalenza maschile che potrebbe riprodurre negli strumenti di ottimizzazione dei feed una visione sessista. Un’altra ipotesi potrebbe essere dovuta ai dataset usati per il training dei sistemi di computer vision (come è già accaduto per le intelligenze artificiali psicopatiche). La verità è che non c’è una spiegazione soddisfacente per queste distorsioni, ma solo delle ipotesi di lavoro che devono essere testate sia con strumenti sperimentali sia con strumenti di analisi computazionale, una forma di filologia digitale degli algoritmi che tanto potrebbe interessare per chi si occupa di digital humanities.
La domanda chiave è: come difendersi dai bias degli algoritmi? La letteratura scientifica della sociologia digitale – ma anche la cronaca sull’innovazione – è piena di analisi di casi di algoritmi che esprimono distorsioni nell’organizzare e classificare il mondo circostante: algoritmi razzisti, sessisti, psicopatici, violenti. Per potersi difendere c’è solo un modo: sottoporre queste tecnologie alla base delle piattaforme digitali ad un sistema di auditing, di consulenza, che non ne valuti solo l’efficacia funzionale, ma anche le conseguenze sociali del loro funzionamento.
Tra l’altro quello dell’audit è il modo con cui gli autori del report di AlgorithmWatch descrivono il tipo di lavoro che hanno fatto. Una volta la vulgata della programmazione era che se un algoritmo funziona male è colpa di un bug. Ora che gli algoritmi sono dappertutto possiamo dire che non sempre è un bug, può essere una percezione socialmente distorta che prende forma all’interno delle tecnologie digitali.
Con una battuta potremmo dire che gli algoritmi non sono “cattivi” è che li disegnano così. Forse è arrivato il momento di parlare con i disegnatori.
Bibliografia
Are, C. (2020). How Instagram’s algorithm is censoring women and vulnerable users but helping online abusers. Feminist Media Studies, 20(5), 741-744.
Drenten, J., Gurrieri, L., & Tyler, M. (2020). Sexualized labour in digital culture: Instagram influencers, porn chic and the monetization of attention. Gender, Work & Organization, 27(1), 41-66.
Duportail, J., Kayser-Bril, N., Schacht, K., & Richard, É. (2020). Undress or fail: Instagram’s algorithm strong-arms users into showing skin. AlgorithmWatch. Retrieved 12 October 2020, from https://algorithmwatch.org/en/story/instagram-algorithm-nudity/.
Lupton, D. (2015). Sociologia digitale. Torino: Pearson (trad. it 2018)
O’Neill, C. (2016) Armi di distruzione matematica: come i Big Data aumentano la disuguaglianza e minacciano la democrazia. Milano: Bompiani (trad. it. 2017)