l'approfondimento

Gli algoritmi danno un punteggio ai nostri valori: perché la sovranità degli Stati è a rischio

Cosa ne sa una macchina della natura umana? E allora perché lasciamo che l’AI venga “indottrinata” allo studio dei valori su cui si fonda la nostra società attribuendo agli stessi valori un punteggio sulla base di logiche aziendali che non sempre rispettano finalità pubbliche o principi costituzionali? Vediamo i rischi

Pubblicato il 28 Mar 2023

Bruno Fiammella

Avvocato Patrocinante in Cassazione

big tech

La domanda che pochi si pongono in tema di intelligenza artificiale, riguarda il fatto di capire perché dobbiamo utilizzarla ed avvalercene, quali siano gli effettivi benefici che la nostra specie ne può trarre e, soprattutto, se il costo da pagare non rischi di essere troppo alto o la direzione dello sviluppo umano non assuma una deriva pericolosa.

In particolare, è opportuno e urgente riflettere sul fatto che i sistemi di IA sono programmati per intervenire secondo regole dettate dalle società al cui servizio vengono costruiti ed implementati e diventano l’espressione di un potere sovranazionale le cui regole non sono scritte nelle costituzioni degli Stati e nel processo storico di sviluppo che ciascuna nazione ha avuto, ma sono scritte da esigenze privatistiche.

Big Tech: Global Sovereignty, Unintended Consequences | GZERO World with Ian Bremmer

Big Tech: Global Sovereignty, Unintended Consequences | GZERO World with Ian Bremmer

Guarda questo video su YouTube

Quali sono, dunque, i rischi per gli Stati e per il nostro futuro?

Tecnologia e disumanizzazione

Come presupposto antecedente necessario alle scelte che i nostri leader economici[1] hanno intrapreso, si impone allora un inevitabile momento di riflessione sul “chi siamo” e verso “dove andiamo”. Considerato che la riforma apportata dalla IA è in grado di mettere in crisi le sorti dello sviluppo dell’umanità (è inutile negarlo ma gli scenari vanno ipotizzati tutti con lungimiranza), occorre domandarsi se la direzione intrapresa dalle grandi aziende sia da seguire per come concepita sino ad oggi.

A volte le grandi riforme procedono da piccoli cambiamenti che consentono di inoculare alle masse, apparenti irrilevanti modifiche che, lentamente, consentono di approcciare, per assuefazione, per convincimento indiretto e mediato, alle grandi modifiche del sistema. Oggi parlare di IA è indispensabile, è l’argomento tecnico scientifico del momento e soprattutto, come ai tempi della rivoluzione portata dalla rete internet prima, e dai device “mobile” successivamente, e se non la utilizzi, tra un po’ sarai fuori dal sistema. E questo è considerato, nel mondo del lavoro, un deficit, una carenza del servizio, una deminutio dell’offerta.

Lentamente veniamo indotti a credere che l’utilizzo di app, bot, software di IA e di sistemi di automazione in generale possa davvero rendere la nostra vita migliore. Non nascondo che in alcuni contesti è così, ma lo scenario, se analizzato con maggiore attenzione non sempre è roseo, dipende dalla direzione che verrà intrapresa nei prossimi anni. Più l’uomo utilizza la tecnologia, più si accorge di quanto essa sia disumanizzante. L’IA infatti può mettere a rischio le scelte valoriali ed è evidentemente il caso di iniziare ad osservarla con un’analisi critica ed un confronto aperto che consenta di sviluppare una riflessione: decidiamo prima verso quale direzione e quali obiettivi debba essere condotto questo progresso, oppure sopportiamolo in silenzio, come tante pecore che, guidate da una i.a. scelgono di saltare nel fosso perché è la decisione che un software avrà preso loro, in un futuro in cui è “opportuno” il sacrificio di alcuni, per la salvaguardia di altri.

Solo attraverso l’analisi dei motivi che ci spingono ad avvalerci dei software di intelligenza artificiale nella nostra vita quotidiana, potremmo sviluppare contesti capaci di migliorare realmente il nostro stile di vita e costruire un sistema migliore.

La geopolitica dell’intelligenza artificiale: tutti i rischi della corsa alla supremazia tecnologica

L’uomo al centro

Non traggo benefici, in buona sostanza, se l’intelligenza artificiale mi sostituisce nello svolgimento della mia attività lavorativa, in quanto perderò il posto di lavoro: traggo benefici se l’intelligenza artificiale mi aiuta a svolgere, con meno sforzo, in meno tempo e con meno rischi per la salute, quella medesima attività che prima svolgevo da solo e per la quale, oggi, riceverò il mio stipendio. Remunerato per ciò che faccio con l’ausilio della mia applicazione di IA o con il mio robot personale, non licenziato per ciò che la IA può fare al posto mio. Affiancare, non sostituire. Migliorare la qualità della vita e accrescere le ore di tempo libero, non licenziare, devono essere i nostri obiettivi. L’uomo, non il profitto.

Viviamo in un’epoca in cui (assonnati anche dalle tecnologie e da un sistema che indirettamente ci tiene sempre di più sotto controllo) assistiamo ad un forte allontanamento della “ragione critica” in favore di una concezione dello sviluppo umano mediocre, “fondato sulla programmazione ed estrazione del dato”[2].

A differenza di alcuni rami della scienza storicizzati, come la medicina o il diritto, in tema di IA non esiste una struttura sovranazionale o governativa che ne coordini lo sviluppo o che la controlli (almeno apparentemente): le definizioni e gli obiettivi concordati stanno nascendo in questi anni,[3] e sono ancora probabilmente frutto di un ristretto oligopolio. La disciplina è in fermento ed in continuo divenire, con il pericoloso rischio che la direzione prenda pieghe di sviluppo non programmate o con evidenti vuoti normativi che causano distorsioni dal punto di vista sociale, comunicativo ed educativo.

ChatGPT, perché ora l’intelligenza artificiale ci stupisce e spaventa

Limiti nell’addestramento dell’IA

E’ il modello di apprendimento automatico su cui si fonda il concetto di deep learning che andrebbe revisionato per iniziare a porre un cambiamento a questo processo: perché l’apprendimento di una IA è strutturato secondo modelli in forza dei quali l’algoritmo decisionale utilizza le informazioni in suo possesso per formulare calcoli predittivi su ciò che non conosce. In questa tipologia di modello, nel momento in cui non conosciamo le regole poste alla base del funzionamento della programmazione, in cui non conosciamo i principi sottesi a cui si ispira l’algoritmo decisionale di costruzione del processo di auto apprendimento, stiamo avallando l’idea che un algoritmo proceda da ciò che è a lui “noto” (le informazioni caricate ed elaborate negli anni e non si sa bene come, “selezionate”) verso ciò che è a lui “ignoto”. Il tutto senza una direttiva morale o etica posta a fondamento della scelta che dovrebbe guidare il passaggio da ciò che è assodato e conosciuto, verso ciò che ancora deve essere esplorato e compreso. Le discriminazioni basate su sesso, razza religione, opinioni politiche e personali, ormai conquista della maggioranza dei sistemi socio politici, rischiano di essere messe nuovamente in discussione da un software mal programmato o che ha elaborato dati in maniera errata. Gli esempi occorsi sono numerosi[4], basti pensare al famoso caso Loomis approdato alla Corte Suprema del Wisconsin. La Corte Suprema, dopo aver stabilito che l’uso del software Compas può essere legittimo nell’ambito dei giudizi di determinazione della pena, ha indicato i limiti e le cautele che devono accompagnarne l’uso da parte degli organi giudicanti, esplicitamente soffermandosi sulla necessità che il giudice applichi i risultati raggiunti da un software contemperandoli con la propria discrezionalità e bilanciandoli con altri fattori parimenti rilevanti. Tra le altre cose, la Corte ha confermato che l’oggetto dell’algoritmo non può riguardare il grado di severità della pena, né la decisione sulla detenzione dell’imputato. E che l’intermediazione del giudice su come valutare alcuni parametri forniti dal software sia indispensabile proprio per evitare risultati aberranti che possono scaturire da un atteggiamento troppo fideistico nei confronti della IA [5],[6].

Ma c’è di più: secondo alcuni studi, i database su cui si formano alcuni software di intelligenza artificiale sono ancora approssimativi e potrebbero essere viziati ab origine. Occorre riflettere sul fatto che l’attività di raccogliere i dati, classificarli ed etichettarli per “addestrare” i sistemi d’IA è a tutti gli effetti ed a seconda di come viene svolta, un’attività dai risvolti socio – politici, perché attraverso la selezione e la raccolta delle informazioni si rappresenta la realtà lavorativa e sociale. In passato, molte delle tecniche di rilevamento delle emozioni ed i software utilizzati a tali fini hanno rivelato la fallacia dei software utilizzati a causa di errori nell’addestramento, svolto da personale non adeguatamente preparato o comunque a sua volta pre-condizionato dalla propria estrazione socio culturale nel classificare alcuni aspetti della mimica facciale riconducendoli a determinate emozioni. Secondo alcuni studi, questi sono i primi errori nella programmazione di alcuni software di AI, ma sono errori importanti perché destinati ad influenzare tutti i processi susseguenti nella catena di programmazione dell’algoritmo.[7]

Il rischio di attribuire un punteggio a scelte etiche e morali

Ciò che preoccupa è il fatto che molte AI vengano “indottrinate” allo studio dei valori su cui si fonda la nostra società attribuendo agli stessi valori un punteggio. Stiamo procedendo a rendere “contabile” ciò che in realtà la cultura anglosassone definirebbe come “uncuntable”. E’ sempre così facile attribuire un punteggio a delle scelte etiche – morali? E soprattutto, è possibile disporre i valori su una scala e “gradarli” in modo da attribuire sempre, allo stesso principio, il medesimo punteggio, oppure questo dovrebbe cambiare di volta in volta in base al contesto socio – normativo – culturale in cui ci muoviamo?

E’ possibile quantificare il valore di una vita umana da sacrificare, perché se ne potrebbero salvare 100? La risposta è sempre la stessa indipendentemente dal fatto che la vita appartenga ad un uomo politico, un personaggio famoso, i nostri genitori, un premio Nobel o un bambino?

La IA può comprendere un valore solo le lo quantifica in un punteggio che gli consenta di inserirlo in un calcolo probabilistico di opzioni: le differenze che a volte sono per il nostro contesto sociale un accrescimento, frutto di una evoluzione storica e culturale, le diversità, anche multietniche e sociali, che rappresentano una ricchezza per la comunità del terzo millennio, sono appiattite da una macchina e rischiano così di divenire delle unità computabili. Era Nietzche che sosteneva[8] che cercare di rendere eterogeneo e calcolabile ciò che non lo è per sua natura, rendendolo simile e calcolabile, è una falsificazione della realtà.

Abbiamo di fronte una vera e propria industria estrattiva del dato, che lavora da oltre 20 anni e le cui regole per l’estrazione e l’elaborazione sono dettate da logiche aziendali che non sempre rispettano le finalità pubbliche o i principi costituzionali. Gli algoritmi non sono operatori indipendenti, ma condizionati (il problema è capire da chi) tanto da arrivare ad affermare che chi governa l’algoritmo, oggi, governa il mondo.[9]

Ecco, per esempio, classificare ciò che è disumano e ciò che non lo è, è possibile farlo a priori? La storia ci insegna che esiste una legge naturale[10] scritta nel cuore dell’uomo ed in base alla quale, l’individuo, pur non avendone la conoscenza derivante dallo studio, ne è consapevole proprio perché insita nella natura umana in quanto tale. Ma la macchina cosa ne sa della natura umana?

Un’altra rivoluzione industriale

Non possiamo correre il rischio di rivivere il modello lavoristico di matrice Tayloriana delle prime fabbriche inglesi dell’ottocento, in cui la standardizzazione del processo lavorativo omologava ed appiattiva l’individuo, comprimendone diritti, identità e dignità. I braccialetti che oggi vibrano per segnalare al lavoratore l’alert che appare sui terminali di fronte ad un errore, potrebbero essere un nuovo modello di controllo imposto, rendendoci di fatto, schiavi di una tecnologia “performante” (secondo quale idea di performance? Il profitto?). I software o le app di controllo della performance, del rendimento o della redditività di un comportamento del dipendente finalizzate all’apparente sicurezza del posto di lavoro sono un esempio di come stiamo utilizzando uno strumento nato per proteggere dai rischi per la salute, per una finalità alternativa: massimizzare il tempo di produzione, per incrementare il profitto.[11]

Soddisfare le esigenze della predittività è diventata la logica naturale dell’apprendimento automatico. E questa logica si sta facendo strada in maniera incontrovertibile (forse), perché contraddire il processo “progressista” della IA (che poi è nella realtà regressista, quando viola le conquiste raggiunte dalla scienza giuridica e sociale in termini di diritti umani) è come peccare di lesa maestà. Ma a volte Il deep learning non è interpretabile dagli stessi ingegneri che lo hanno programmato e sta creando una potenza sovra umana rispetto alla quale, il creatore (l’uomo), non è in grado di opporre resistenza a ciò che ha creato.

Se riflettiamo sul funzionamento e la programmazione ci accorgiamo che l’IA non è una tecnica computazionale oggettiva, universale o neutrale, ma al contrario, le sue decisioni vengono assunte a seguito di un processo di valori volutamente o inconsapevolmente assegnati dai suoi programmatori. Il suo impatto sulla realtà socio – politica – economica è plasmato da esseri umani che risentono della storia di colui o colei che la descrive, o degli interessi che sottendono quel progetto di ricerca.

Rischi per la governance degli Stati nazionali

Il fatto che una macchina sia in grado di produrre una quantità di calcolo impossibile all’individuo non significa che sia più intelligente o che compia delle scelte indiscriminate. Questo è un concetto che va assimilato il prima possibile, ed i danni sono già sotto i nostri occhi: il punteggio di attendibilità dei software di calcolo sta invadendo i mercati dei curricula per la selezione del personale, dei prestiti bancari, degli investimenti finanziari, della gestione del personale. Quante volte ci rendiamo conto che solo un buon colloquio conoscitivo consente realmente di capire se quella persona ha le qualità per far parte del nostro team oppure no?[12]

Gli Stati nazionali non hanno la forza e le informazioni per utilizzare proficuamente molti prodotti dell’industria cyber tecnologica e per sopperire alla carenza, si rivolgono alle aziende private. La collaborazione tra lo Stato e l’industria determina che, avendo il primo bisogno di dati che solo la seconda può fornirgli, venga inconsapevolmente assegnato al privato un potere di controllo e preventiva selezione che per legge sarebbe di esclusiva competenza dell’autorità pubblica. Una volta, i software di riconoscimento facciale attingevano le informazioni dai database delle forze dell’ordine formatosi dalla raccolta di immagini provenienti da una pregressa attività di fermo, segnalazione o incriminazione. Oggi, alcuni software in dotazione alle Forze dell’Ordine di alcuni Stati, lavorano utilizzando database composti da immagini prelevate dei social senza alcun consenso da parte dei titolari. Esistono accordi commerciali tra i produttori di software ed alcuni organismi istituzionali. La domanda da prosi è a quale logica risponda il prodotto finale? Quella codificata dal diritto o quella codificata dal programmatore privato statunitense, sovietico, cinese o africano che l’ha creata, istruita ed addestrata? [13]

Pensiamo a cosa si possa fare con strumenti di facial recognition che possano attingere dalle foto personali di milioni di persone disponibili sul web o da quelle di milioni di videocamere di sorveglianza distribuite sul pianeta. L’identificazione e il tracciamento delle persone in termini di una apparente sicurezza globale rappresenta un businnes in voga già da anni.[14] In piena violazione di ogni normativa sul trattamento dei dati personali esistono archivi messi a disposizione dai privati alle istituzioni. Tuttavia, il dato che arriverà alle autorità sarà filtrato da una tecnologia che le istituzioni non controllano né nella estrazione dei contenuti, né nella scelta dell’algoritmo selettivo ed identificativo degli stessi. Il problema quindi è che chi programma il software lo dovrebbe fare secondo esigenze e regole pubbliciste di interessi costituzionalmente tutelati e non di una governance internazionale e privata.

Sono gli albori di una nuova sovranità nazionale che è determinata dall’algoritmo aziendale. Il cui funzionamento è dettato da logiche aziendali complesse che superano i confini della sovranità territoriale, creando un rischio di sbilanciamento di potere tra le istituzioni e le aziende private, a discapito non tanto del singolo individuo, ma delle istituzioni stesse e del loro potere. La storia che i padroni del mondo nono sono sempre gli Stati la conosciamo, un contesto come questo ne ha rivelato la sua attualità.

Rischi per la sovranità statale quando è modulata dalla governance algoritmica aziendale[15] si paventano. Quali rimedi?

Conclusioni

La ricerca e formazione di menti vigili, risvegliate, capaci di temperare la corsa ad un progresso senza fine, sono le uniche chiavi risolutive di una realtà in troppo rapido cambiamento, priva della necessaria fermentazione di fronte alle scelte innovative e priva di discernimento, caratteristiche umane necessarie ed indispensabili quando si lavora per il bene ed il progresso dell’umanità.

Note

  1. L’utilizzo del termine “economico” rispetto al più tradizionale “politico” è voluto. Nel contesto storico – sociale in cui viviamo la realtà economica sovrasta quella decisionale della politica, così da far perdere, in alcuni contesti, agli Stati ed alle strutture sovranazionali, parte della loro effettiva sovranità, riducendo le ambizioni di chi crede ancora in una società democratica.
  2. Achille Mbembe, Filosofo, Prof. di Storia e Scienze politiche Univ. di Witwatersrand, Johannesburg e ricercatore al Wits Institute for Social and Economic Research.
  3. Si veda la Risoluzione del Parlamento europeo del 3 maggio 2022 sull’intelligenza artificiale in un’era digitale 2020/2266
  4. Quanto è razzista il riconoscimento facciale e perché: gli studi e le prime leggi (Usa) che lo vietano. “I sistemi di comparazione delle immagini dei volti usati dalle forze dell’ordine sono spesso “affetti” da bias cognitivi che incentivano un’implicita proliferazione della discriminazione razziale. Gli episodi di bad facial recognition si moltiplicano”, 02 Mar 2021, Cristina Di Stazio, www.agendadigitale.eu
  5. Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, 24 Aprile 2019, Stefania Carrer, in www.giurisprudenzapenale.it
  6. I modelli matematici applicati al diritto diventano interessanti solo quando pongono alla base della formula matematica, e dell’algoritmo decisionale su cui si potrà costruire un software di ausilio (e mai sostituzione) ai magistrati ed agli avvocati, dei principi unanimemente riconosciuti dalla collettività. Come per esempio l’art. 12 delle preleggi, quello che impone al giurista dei criteri di applicazione della norma giuridica, fondato su principi unanimemente riconosciuti dall’intero nostro (italiano) sistema giuridico. In questo contesto quindi, se l’algoritmo rispecchia le preleggi e queste sono poste a salvaguardia di un sistema normativo riconosciuto, allora la direzione intrapresa è evidentemente conforme ai principi del diritto stesso e quindi della nostra società giuridica. Per un approfondimento sul punto: Luigi Viola: Interpretazione della legge con modelli matematici. Processo, a.d.r., giustizia predittiva, vol.1, 2017, Diritto Avanzato. I principi andranno temperati con il rispetto di alcune variabili valoriali: la buona fede, l’errore, il principio di conservazione degli atti o della volontà del testatore, la salvaguardia del minore, lo stato di bisogno o di necessità, la forza maggiore o il caso fortuito ed altri, in cui l’interazione umana con il software è indispensabile per assegnare a questi valori non un mero punteggio computazionale, ma il giusto peso all’interno del singolo caso oggetto di analisi.
  7. D. Heaven, Why Faces don’t always tell the truth about feelings, Nature, 26 febbraio 2020, www.nature.com/articles/d41586-020-00507-5 tratto da Kate Crawford, Né Intelligente, Né artificale, il lato oscuro della IA, Il Mulino, 2021, pag. 253 e ss.
  8. F. Neictchem, Samtliche Werke, vol. 11, Berlinode Gruyter, 1980, p. 506. Trad. Italiana, Frammenti postumi (1884-1885), vol. 7, tomo 3, Milano, Adelphi, 1975, pag. 182
  9. Kate Crawford, Né Intelligente , Né artificale, il lato oscuro della IA, Il Mulino, 2021, pag. 246.
  10. San Paolo (Paolo di Tarso) fa riferimento alla legge naturale e specifica che coloro che non hanno conosciuto la legge (ebraica), si possono salvare perché seguono i dettami della coscienza, i dettami della legge naturale. “Essi dimostrano che quanto la Legge esige è scritto nei loro cuori, come risulta dalla testimonianza della loro coscienza” (Lettera ai Romani 2,14-16). Si vedano anche gli studi di Ugo Grozio sul giusnaturalismo.
  11. Il controllo a distanza dei lavoratori è ammissibile solo nei casi previsti dallo Satuto dei lavoratori, ex art. 4 L. 300/1970 modificato dal d.lgs. 151/2015 e dal d.lgs. 185/2016. L’obiettivo è quello di raggiungere un compromesso tra le opposte esigenze del diritto dei lavoratori a non essere controllati in modo indiscriminato, e l’adeguamento della normativa all’evoluzione tecnologica. I dispositivi di controllo a distanza dei lavoratori sono leciti solo previo accordo collettivo stipulato dalla rappresentanza sindacale unitaria (RSU) o dalle rappresentanze sindacali aziendali (RSA) o, in mancanza, da un’autorizzazione della sede territoriale dell’Ispettorato nazionale del lavoro. L’evoluzione tecnologica rende difficile differenziare tra uno strumento di lavoro inerte (che non contenga al suo interno un impianto di controllo) e lo strumento che, invece, lo contenga. In realtà, tutti gli strumenti tecnologici, possono potenzialmente diventare strumenti di controllo della prestazione. Gabriele Fava: I braccialetti di Amazon: una possibile nuova forma di controllo dei lavoratori? www.4clegal.com
  12. Kate Crawford, Né Intelligente, Né artificiale, il lato oscuro della IA, Il Mulino, 2021, pag. 246.
  13. Hu Thung-Hui, Preistory of the cloud, pag. 89 in Kate Crawford, Né Intelligente, Né artificiale, il lato oscuro della IA, Il Mulino, 2021
  14. Giuliano Pozza, Tecnologie per la sorveglianza di massa crescono. Che possiamo fare? 30 Luglio 2020, www.agendadigitale.eu
  15. Kate Crawford, Né Intelligente, Né artificiale, il lato oscuro della IA, Il Mulino, 2021, pag. 246

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati