privacy

Etica degli algoritmi, la tecnologia (ci) sta cambiando: il confronto morale che serve

Non ci può essere tutela della privacy online se non attraverso il continuo rafforzamento della trasparenza degli algoritmi e una contestuale educazione per rafforzare la conoscenza e la consapevolezza da parte di chi se ne serve

Pubblicato il 08 Ott 2021

Andrea Boscaro

Partner The Vortex

renAIssance - intelligenza artificiale

Nel 2017, forse non del tutto consapevole della delicatezza della notizia che stava per dare, l’amministratore delegato di iRobot, azienda produttrice dei piccoli robot Rumba utilizzati per pulire casa, in un’intervista alla Reuters annunciò che l’azienda era pronta a registrare le planimetrie degli appartamenti dei propri clienti per permettere lo sviluppo di attività pubblicitarie coerenti con la loro grandezza e con le loro caratteristiche. È un episodio citato da Shoshana Zuboff che, nel suo libro “Capitalismo della sorveglianza”, mette in guardia circa l’uso dei “dati eccedenti” che vengono prodotti mente usiamo servizi o prodotti connessi in Rete, in questo caso attraverso l’approccio IoT.

Per un’etica pratica della tecnologia: da dove partire

La privacy prima di tutto

Casi come questo o come quello, quotidiano, che ciascuno di noi sperimenta venendo esposto a pubblicità online frutto di comportamenti – o mancati comportamenti – precedenti hanno creato le condizioni in ragione delle quali la privacy ha assunto un’importanza tale da indurre tutti i browser, da Firefox a Chrome, a decidere di bloccare, in un lasso di tempo più o meno ampio, i cosiddetti “cookie di terze parti” che, per ragioni di analisi o di marketing, vengono oggi utilizzati per tracciare la navigazione dell’utente al fine di monitorarne il comportamento, riconoscerlo, farvi seguito con messaggi di comunicazione adeguati.

Per fronteggiare tale innovazione senza che questo vada a detrimento delle funzionalità di cui oggi il marketing digitale dispone, stanno emergendo tecnologie alternative ai cookie di terze parti, fornite da soggetti indipendenti, grandi player (es. Microsoft) e dalla stessa Google che però ha dovuto posticipare l’introduzione del suo progetto Privacy Sandbox per via delle reazioni tiepide o ostili da parte degli altri browser: così come i cookie sono uno standard, l’intento di Google è infatti promuovere una tecnologia valida anche al di fuori dei propri sistemi sulla base di un approccio collaborativo con gli altri attori (le cosidette FLoC, “Federated Learning of Cohorts”).

Sempre mettendo al centro il valore della privacy, che non è a caso è il messaggio principale dei suoi attuali spot pubblicitari, è nel frattempo intervenuta la decisione di Apple che, a partire dall’introduzione del suo sistema operativo iOS14, ha cominciato a chiedere il consenso agli utenti perché le app presenti sulla piattaforma, Facebook e Instagram in primis, potessero tracciare la loro navigazione: allo scorso giugno, solo un quarto dei possessori di iPhone aveva manifestato tale intenzione costituendo un serio attentato alle funzionalità su cui è basata l’offerta di marketing e comunicazione delle app.

Immagine 1. Le percentuali di consenso al tracciamento da parte dei possessori di iPhone

Il peso crescente dei walled garden

La tempesta perfetta determinata dalle scelte di Apple e dalla deprecazione dei cookie di terze parti da parte dei browser, fattori che indubbiamente muovono da una maggiore attenzione nei confronti della privacy dell’utente, rischia però di accrescere ulteriormente, nel tempo speso online e nelle scelte di marketing digitale delle aziende che vi sono presenti, il peso rappresentato dai cosiddetti “walled garden”, delle piattaforme (Google, Amazon, i social media) all’interno delle quali la navigazione avviene sempre dietro log-in e quindi in una forma che consente, in modo automatico e deterministico, il riconoscimento del comportamento dell’utente registrato e quindi una sua profilazione continuativa e per questa ragione più significativa di qualunque elemento possa essere desunto dai cookie di terze parti.

L’ampliamento del perimetro dei walled garden a contenuti editoriali, servizi digitali ed offerte e-commerce messi a disposizione da parte di editori e imprese è dunque destinato a crescere e lo scenario di un arricchimento di tali ambiti rispetto ai siti Internet proprietari, già in nuce prima di questi cambiamenti, è confermato dalla crescita degli shop su Facebook e su Instagram (oggi 1,2 milioni), dalle nuove funzionalità per le imprese prossime al lancio su WhatsApp per non parlare degli strumenti che in misura crescente Google sta mettendo loro a disposizione (es. le schede prodotto su My Business) e dei marketplace.

Come affermato nel Digital Services Act, non vi può dunque essere tutela della privacy online se non attraverso una continua opera di rafforzamento della trasparenza degli algoritmi con cui tali piattaforme operano e una contestuale e progressiva educazione per rafforzare la conoscenza e la consapevolezza da parte di chi se ne serve. Ecco perché, ad esempio, la possibilità di osservare le ragioni per le quali siamo esposti a un certo messaggio pubblicitario o gli strumenti come Facebook Ads Library che permettono di monitorare le inserzioni condotte da attori pubblici, privati e del terzo settore sono dunque per rafforzare entrambi questi fronti.

Per un’etica degli algoritmi

Mentre ci accaloriamo attorno al concetto di libertà, “dal” virus o “di” vivere senza restrizioni, le neuroscienze ci avvertono infatti che sono soprattutto gli automatismi a limitarla e in quale misura gli algoritmi incentivino micro-scelte impercettibili se prese singolarmente, ma rilevanti se osservate nel complesso è una presa d’atto che merita di essere fatta ogni qualvolta riceviamo, da parte del nostro telefono, la notifica del tempo speso sulle app la settimana precedente.

Le parole dell'AI - Etica e Intelligenza Artificiale nelle parole di Pasquale Stanzione

Le parole dell'AI - Etica e Intelligenza Artificiale nelle parole di Pasquale Stanzione

Guarda questo video su YouTube

Per questa ragione, da Papa Francesco all’Unione Europea, fino ad arrivare a importanti fondazioni (come l’iniziativa “Algorules” da parte di Bertelsmann) e sindacati, si è introdotto un crescente confronto sul piano morale prima ancora che giuridico ed economico volto a promuovere una “etica degli algoritmi” che supporti le decisioni del Legislatore, ma anche le scelte delle parti in causa nei confronti dei confini a cui la raccolta del dato e la sua elaborazione automatica può portare. È di questi giorni, ad esempio, la scelta da parte di Google di impedire a una società attiva nel prestito al consumo, di sviluppare un algoritmo per analizzare, sulla piattaforma di cloud computing messa a disposizione dal motore di ricerca, i volti degli utenti presenti online per analizzarne le emozioni e desumerne il profilo di solvibilità. La combinazione fra accesso ai dati, categorizzazione granulare delle informazioni e applicazione di algoritmi di intelligenza artificiale non possono che richiedere codici di comportamento adeguati e improntati a considerazioni anche di carattere etico.

Come emerge dalle riflessioni di uomini di fede come don Luca Peyron e Paolo Benanti, un algoritmo dovrebbe rispondere a principi quali

  • la trasparenza
  • l’inclusione, garantendo anche concretamente l’esercizio del diritto all’oblio;
  • l’imparzialità, escludendo – come è stato disponibile in passato – la profilazione degli utenti su base etnica;
  • la sicurezza, di fronte a interventi distorsivi quali quelli operati con bot per ragioni di propaganda;
  • la privacy, rendendo possibile, ad esempio, la cancellazione delle ricerche fatte attraverso Google History;
  • l’affidabilità
  • la responsabilità

Quanto agli ultimi due punti, l’ammissione del responsabile di Facebook Chris Palow secondo il quale, nella moderazione dei contenuti, la tecnologia manca della capacità di un essere umano di giudicare il contesto di molte comunicazioni online, soprattutto con argomenti come disinformazione, bullismo e molestie per via della mancanza di informazioni precedenti o di fronte a errori di valutazione causati da pregiudizi o fraintendimenti, mostra quanto l’etica degli algoritmi richieda in ultima analisi un’adeguata allocazione di risorse organizzative e finanziarie per fronteggiare le distorsioni: “Il sistema consiste nel far sposare intelligenza artificiale e revisori umani per fare meno errori”.

La contrattazione dell’algoritmo

La sentenza del Tribunale di Bologna dello scorso 31 dicembre secondo la quale l’algoritmo “Frank” utilizzato da Deliveroo per valutare i rider è “discriminatorio” penalizzando chi si assenta dal lavoro anche per ragioni quali lo sciopero deriva da un ricorso presentato congiuntamente dai sindacati Nidil Cgil, Filcams Cgil e Filt Cgil ed illustra quanto, anche nel sindacato, vi sia una crescente attenzione verso questi temi.

Come sostiene Massimo Mensi, Direttore P&M e Digital Policy Advisor di UNIGlobal Union, la federazione mondiale del commercio e servizi privati, “l’espressione contrattazione dell’algoritmo può evocare l’idea di una figura di sindacalista che si trasforma in provetto ingegnere informatico, intento nell’analisi di oscuri processi di calcolo”. La realtà è che, di fronte ad algoritmi che regolano il rapporto con i lavoratori “il sindacato vuole essere attore consapevole e avere contezza dei meccanismi e soprattutto degli input che sono serviti per elaborare tali effetti”. Ancor più dell’algoritmo, è il dato che deve essere reso oggetto di attenzione, soprattutto se “diventa il motore di una organizzazione del lavoro algoritmica e al quale, molto spesso strumentalmente, si vogliono addossare i carichi di responsabilità degli effetti conseguenti: non è l’azienda che licenzia, non è l’azienda che sottopone a turni estenuanti, non è l’azienda che decide i carichi e i ritmi del lavoro”.

Conclusioni

Più il tempo e le scelte individuali, più i processi produttivi e distributivi del sistema sono organizzati attraverso piattaforme online e il digitale diventa il sistema operativo delle società, più vale il vecchio adagio di Lawrence Lessig “Code is the law”, il codice è la legge. E proprio per questo motivo al codice e a chi lo crea o se ne serve, oltre che a una regolamentazione giuridica, non può non essere richiesta la partecipazione a un serio confronto sul piano morale.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati