L’ingegnere statistico William James Deming sosteneva che “senza dati, siamo solo dei tizi che hanno un’opinione” e dei dati, del modo con cui vengono raccolti, interpretati, utilizzati occorre occuparsi sempre di più, man mano che le grandi piattaforme digitali accrescono il proprio ruolo nelle società contemporanee fino a costituire, in qualche misura, il sistema operativo delle nostre economie, se non delle nostre democrazie.
Che tale attenzione sia cresciuta, ce lo dicono non solo i diversi provvedimenti di carattere fiscale che, in molti Paesi europei come la Francia, sono stati presi dopo il fallimento delle iniziali negoziazioni comunitarie, ma, per rimanere in Europa, anche il Digital Services Act.
Big tech, con gli Stati è una partita a scacchi: un decalogo per decifrare le mosse
Si tratta della proposta di riforma che lo scorso autunno la Commissione Europea ha introdotto per imporre una maggiore trasparenza degli algoritmi che regolano, su tali piattaforme, le politiche di moderazione dei profili, di gestione dei contenuti e di personalizzazione dei messaggi pubblicitari affinché siano chiari nei confronti degli utenti e in regola e coerenti con la normativa europea e le leggi nazionali. Dopo anni nei quali le Big Tech si sono trincerate dietro un inquadramento giuridico che le vedeva come pure piattaforme e non come soggetti editoriali, è iniziato dunque un percorso che ne fa emergere elementi di responsabilità e criteri sanzionatori di fronte ad aspetti quali il mancato rispetto dei limiti anagrafici dei loro iscritti o l’incapacità di bloccare contenuti improntati all’odio razziale ed alla discriminazione delle persone o le campagne di disinformazione sulla attuale vaccinazione di massa.
Il primo banco di prova di questa riforma è dato infatti dal recente richiamo dell’Unione Europea a fermare la “preoccupante campagna anti-vaccinale” e proverà l’efficacia sia degli algoritmi di moderazione che i social media hanno attivato sia degli organismi di controllo umani che ne supportano l’azione. Entrambe queste dimensioni, infatti, quella tecnologia e quella organizzativa, debbono essere affrontate con l’attenzione del Legislatore e con la consapevolezza da parte degli utenti: questo contributo vuole individuare alcune aree in cui il combinato disposto fra algoritmi e controllori manuali influenza la nostra vita digitale.
Le aree di applicazione dell’Intelligenza Artificiale (IA)
L’IA interviene a molteplici livelli nella gestione delle informazioni presenti sulle piattaforme digitali e non stupisce dunque che sia in più casi richiamata non solo dal Digital Services Act, ma anche da singoli provvedimenti nazionali. Le aree più coinvolte sono:
- la determinazione delle caratteristiche di un profilo e, se necessario, il suo blocco;
- la moderazione dei contenuti contrari alle condizioni d’uso della piattaforma;
- la profilazione degli utenti per offrire loro un’esperienza più personalizzata;
- la profilazione degli utenti per erogare messaggi pubblicitari più efficaci.
- la riconciliazione del comportamento online con il comportamento offline degli utenti.
Di seguito alcuni esempi di tali applicazioni.
Il caso TikTok
Nel provvedimento con il quale il Garante della Privacy italiano ha imposto a TikTok lo scorso 9 febbraio il blocco dei profili degli under 13 si fa esplicito riferimento all’opportunità di avvalersi dell’IA per comprendere l’età degli iscritti e decidere di inibire loro la partecipazione al social network: ne è derivato che dal 21 aprile sono stati più di 12 milioni e mezzo gli utenti italiani ai quali è stato chiesto di confermare di avere più di 13 anni per accedere alla piattaforma e sono stati oltre 500 mila gli utenti rimossi perché probabili under 13: circa 400 mila perché lo hanno dichiarato esplicitamente e 140 mila attraverso una combinazione di moderazione umana e strumenti di segnalazione implementati all’interno dell’app che si sono avvalsi dell’intelligenza artificiale.
TikTok, il problema non è solo la privacy: la denuncia dei consumatori
L’analisi degli interessi desunti dalla visualizzazione dei contenuti e della rete dei collegamenti ha consentito tale intervento e dimostra, anche in termini numerici, il peso con il quale un software è intervenuto in una scelta delicata per i minori e strategica per lo sviluppo del social network.
L’IA per contrastare l’hate speech
Oltre all’Oversight Board indipendente che dallo scorso anno opera da “giudice di ultima istanza”, quindicimila sono i manual checkers che, in tutto il mondo, supportano Facebook nella moderazione dei contenuti. È un numero che appare rilevante, ma che si può ben comprendere di fronte alla valutazione che lo stesso social network ha fatto lo scorso autunno: nel 2020 sono infatti stati pubblicati 22,1 milioni di contenuti di incitamento all’odio, 19,2 milioni di immagini violente, 12,4 milioni di foto connotate da nudità infantile e 3,5 milioni di post legati al bullismo ed alle modestie. Se il 94,7% di tale materiale è stato rilevato dai software di intelligenza artificiale, l’apporto umano resta dunque determinante nel valutare il materiale e deciderne la cancellazione, ma anche nell’identificare i casi dei quali gli algoritmi non riescono ad interpretare il significato.
In uno scenario connotato da vere e proprie campagne organizzate e orientate a obiettivi di propaganda sociale e politica, risulta pertanto chiaro quanto sia importante che il sistema funzioni e che, come chiede il Digital Services Act, siano trasparenti i criteri adottati e tempestivi gli interventi attuati sia nella fase di vaglio prodotta dagli algoritmi che nella fase di revisione manuale da parte dei controllori.
Il responsabile di Facebook, Chris Palow, ha ammesso che la tecnologia, infatti, manca della capacità di un essere umano di giudicare il contesto di molte comunicazioni online, soprattutto con argomenti come disinformazione, bullismo e molestie per via della mancanza di informazioni precedenti o di fronte a errori di valutazione causati da pregiudizi o fraintendimenti ed ha dichiarato: “Il sistema consiste nel far sposare intelligenza artificiale e revisori umani per fare meno errori”. Che il futuro veda un maggiore, e non minore, ruolo dell’essere umano è evidente se si pensa all’intento, da parte di Facebook, di affidare all’IA il compito di selezionare e ordinare i contenuti che dovranno essere valutati dai revisori, dall’attuale ordine cronologico ad un diverso ordine improntato alla pericolosità, una combinazione di potenziale gravità dei messaggi in virtù del loro contenuto, di probabilità che il post infranga le regole della piattaforma e di viralità rilevata in termini di reazioni, visualizzazioni e condivisioni maggiori.
L’odio sui social è un business: ecco perché le piattaforme fanno poco per frenarlo
Rank brain
Come ha di recente ricordato Pandu Nayak, responsabile delle funzionalità di ricerca di Google, circa il 15% dei 3 miliardi di ricerche condotte giornalmente dagli utenti non sono mai state fatte: è di fronte a tale granularità di dati da processare, alla molteplicità dei formati di contenuto disponibili (testi, immagini, audio, video, …) nonché alla continua espansione con cui, anche in formato vocale, la ricerca si misura, che Google fin dal 2015 si avvale di un sistema di IA “debole” – Rank Brain appunto – che ricorre a tecniche di apprendimento automatico, cioè si avvale di sistemi di machine learning che analizzano moli dati ed identificano, grazie ad algoritmi matematici, modelli, tendenze e riferimenti incrociati, per poi giungere sulla base di questi dati ad individuare risposte che non sono solo statisticamente più pertinenti, come nel passato, ma più puntuali perché analizzate in relazione fra loro: quando sentiamo che c’è chi garantisce di offrire ad un’azienda la “prima posizione su Google”, dobbiamo ricordare che semplicemente tale posizione non esiste perché i risultati sono personalizzati sulla base dei fattori oggettivi e soggettivi con cui è inquadrata quella specifica ricerca e riconosciuto quello specifico individuo che la produce.
Alessandro Baricco ci mette però in guardia: avere sotto le nostre dita, o a portata di Google Home, tutte le informazioni del mondo rischia di illuderci perché tale facilità di accesso è ben lungi dal metterci a disposizione la conoscenza. Non per questo però, va costantemente osservato il ruolo di Google e dei suoi algoritmi come sistemi di organizzazione delle informazioni perché esso apre la strada alle tante questioni di carattere personale (le “bolle informative” in cui rischiamo di essere intrappolati) e sistemico come le numerose controversie per abuso di posizione dominante in cui Google è coinvolta dimostrano.
Google FLoCs o Google FLopS?
La decisione, da parte di Google, di bloccare i cookie di terze parti per sostituirli con una profilazione basata su “coorti” di utenti omogenei per interessi espressi – le Federated Learning of Cohorts – ha ricevuto al momento una reazione contraria o tiepida dagli altri browser, i quali pur deprecheranno anch’essi tali cookie, e la sua sperimentazione non è al momento attiva in Europa per via del GDPR.
Se dunque non è ancora chiaro il futuro della tecnologia con cui siti editoriali e commerciali potranno riconoscere gli utenti per erogare loro una pubblicità di carattere comportamentale anche dopo che gli utenti li avranno abbandonati, a non essere toccati da tale cambiamento sono le grandi piattaforme digitali – da Facebook ad Amazon, da Google a TikTok – la cui fruizione ha prevalentemente luogo nell’ambito di “walled garden” in cui gli iscritti, sempre loggati, sono riconosciuti in modo deterministico e gli algoritmi hanno la possibilità di servire loro in modo efficace contenuti salienti, prodotti correlati e messaggi pubblicitari pertinenti.
Una decisione nata per rispettare la privacy degli utenti nasconde dunque il rischio che si trasformi in un processo di ulteriore concentrazione della spesa pubblicitaria nelle mani di pochi attori. Se si considera infatti il fatto che, dal 2020, la raccolta pubblicitaria online ha superato anche nel nostro Paese la raccolta televisiva e che Google e Facebook intercettano il 78% di tali investimenti, si comprende la rilevanza data dal Digital Services Act alla trasparenza con cui gli utenti debbono poter comprendere perché sono esposti ai messaggi pubblicitari ricevuti e, nel contempo, perché gli inserzionisti debbono poter avere visibilità nei confronti delle forme con cui i loro budget sono investiti.
Ecco “FLoC”: ovvero come Google controllerà il web fingendo di tutelare la privacy
Le “visite in negozio” di Google
È sufficiente cercare su Google gli orari di apertura del supermercato vicino a casa per accorgersi quanto sia evidenziato, anche in tempo reale, il numero di persone che vi entra in ciascuna ora ed in ciascun giorno della settimana. Non serve poi consultare – e per la verità non è mai stato interessante come durante la crisi pandemica – il Mobility Report che Google offre per osservare le variazioni degli spostamenti per cogliere quanto, seppur in forma aggregata ed anonima, la localizzazione di chi possiede un telefono Android o si avvale di strumenti di Google sia oggetto di registrazione da parte del motore di ricerca. L’introduzione, infine, in Google Analytics della metrica “Visite in negozio” è basata su tale rilevazione e gli algoritmi di IA entrano in gioco per restituire agli inserzionisti la probabilità che coloro che hanno visto un annuncio sponsorizzato si siano poi recati sul punto vendita. Da sempre chimera di chi si occupa di pubblicità, la riconciliazione fra il comportamento online e il comportamento offline è una promettente direzione nell’applicazione della tecnologia al servizio del modello di business di Google e dei suoi clienti.
Conclusioni
Quelle che abbiamo visto sono solo alcune delle aree in cui l’IA è applicata dalle piattaforme digitali per risultare competitive sia per migliorare l’esperienza che offrono agli utenti che per accrescere il rendimento delle iniziative pubblicitarie e di comunicazione che propongono alle aziende e agli inserzionisti.
Basta però guardare il telefono per trovarne altre. Riposare all’ombra di un albero in una calda giornata d’estate e verificare di che albero si tratti è una buona occasione per provare Google Lens e capire quanto l’IA non renda più necessario l’apporto umano per effettuare una ricerca o etichettare un’immagine: gli algoritmi di image recognition ci hanno già pensato. Allo stesso modo, è l’IA che consente a DeepMind, una società di Alphabet / Google, di scansionare milioni di fotografie di occhi umani per effettuare una diagnosi e individuare i casi di retinopatia diabetica prima che venga individuata ad uno stadio avanzato.
Come affermava Lawrence Lessig, “the code is law”: chi predispone e organizza i servizi digitali che arricchiscono la nostra vita, la influenza. È pertanto necessario che quanto più le esperienze che facciamo e le conoscenze che acquisiamo hanno una dimensione digitale, tanto più le regole e le procedure che le organizzano siano improntate al rispetto della legge e alla consapevolezza dei cittadini.