Riprendendo la relativa definizione data dal Vocabolario Treccani, l’etica può essere ricondotta alla individuazione di una serie di criteri atti a regolare e giudicare il comportamento umano, per comprendere se esso possa essere riconosciuto come volto al bene o al male.
Questo metro di giudizio è interamente rivolto all’essere umano anche quando questi utilizza dei mezzi tecnologici per raggiungere i suoi scopi.
L’etica nell’Intelligenza Artificiale: l’algoretica
Ma che succede quando questi strumenti arrivano ad acquisire (e forse anche a superare) la sua stessa intelligenza? Detto altrimenti: in presenza di una intelligenza artificiale generale o forte (AGI) come possiamo valutare gli aspetti etici relativi al suo sviluppo ed utilizzo?
In questo caso l’etica impone di valutare sia le modalità di progetto, sviluppo e utilizzo del modello di AI da parte dell’essere umano, che l’impatto sociale e ambientale che il modello di AI sviluppato con il suo comportamento può avere sull’ambiente e sulla società.
La cosiddetta “algoretica” assume quindi questa duplice natura. Da un lato è atta a comprendere quali sono i principi che l’essere umano deve seguire per assicurarsi che i modelli di AI da esso sviluppati servano esclusivamente per contribuire alla crescita del benessere sociale sostenibile seguendo un approccio non esclusivamente “tecnico” ma multidisciplinare (informatico, ingegneristico, psicologico, antropologico, filosofico, religioso, politico etc.). Dall’altro l’algoretica rappresenta anche il tentativo di “codificare” all’interno del modello di AI sviluppato quell’insieme di regole comportamentali che consentano alla macchina di assumere un comportamento rispettoso dell’essere umano e dell’ecosistema.
Le leggi della robotica di Isaac Asimov e i problemi tecnici nell’implementazione dell’algoretica
In questo articolo cercherò di prendere in considerazione i principali punti di vista sul tema dell’algoretica, cominciando da quello più “tecnico” affine alle discipline informatiche/ingegneristiche. Un buon punto di partenza in questo ambito particolare è rappresentato come noto dalle cosiddette leggi della robotica introdotte da Isaac Asimov nell’incipit del suo romanzo “I Robot” che si possono riassumere nelle seguenti:
1) un robot non può arrecare danno a un essere umano, o mancando di agire, lasciare che un essere umano subisca un danno;
2) un robot deve obbedire agli ordini che riceve da un essere umano, se ciò non è in conflitto con la Prima Legge;
3) Un robot deve proteggere la propria esistenza, se ciò non entra in conflitto con la Prima e la Seconda Legge.
Questo è il classico approccio della programmazione di un sistema esperto [1], ovvero il tentativo di codificare con una serie di regole logiche esplicite i criteri a cui deve attenersi una macchina nello svolgere le sue operazioni. La codifica esplicita comporta però una serie di problematiche di natura ingegneristica ed informatica. Molte di queste sono state magistralmente descritte da Asimov in ognuno dei racconti che compongono il suo “I Robot”.
“Bugiardo”! Se la macchina considera il danno morale
Per prima cosa la macchina, nell’interpretare le tre leggi della robotica, dovrebbe comprendere cosa può essere considerato “danno” per un essere umano, o cosa da questi può essere interpretato come tale (problema ontologico). Nell’episodio denominato “Bugiardo!” la macchina ad esempio arriva a considerare come danno anche quello di natura morale, il che la porta ad assecondare con false affermazioni le convinzioni e i desideri degli esseri umani allo scopo di non produrre in loro delle delusioni emotive. La teoria di bugie messa in piedi dalla macchina inizia a cedere quando essa si rende conto che in tal modo arriva a produrre danni ancora più grandi nei confronti dell’intera organizzazione in cui operano gli umani.
“Circolo Vizioso”
Le tre leggi inoltre possono entrare in conflitto tra loro producendo, proprio come spesso accade nei sistemi esperti, un blocco decisionale di natura logica. La mente “positronica” descritta da Asimov ha caratteristiche simili a quelle di un sistema decisionale “fuzzy” [2]. La logica sfumata con la quale vengono definite le regole fa sì in alcuni casi che non si riesca a seguirne una in particolare. Nel racconto “Circolo Vizioso” la macchina deve svolgere per conto degli umani un compito di raccolta materiali. La procedura di raccolta comporta però dei danni alla sua struttura e la macchina, non arrivando a dare la precedenza né alla seconda regola (obbedire agli ordini), né alla terza (autoconservazione), inizia a girare all’impazzata attorno al punto di raccolta dei materiali.
“Essere Razionale”
Un sistema esperto in grado di apprendere nuove regole in autonomia potrebbe inoltre generare nuova conoscenza, arrivando a formulare una interpretazione personale delle tre leggi della robotica non condivisibile dall’essere umano. Nel racconto “Essere Razionale” la macchina arriva ad esempio a considerare l’essere umano, che non viene presentato nelle tre leggi come l’ideatore delle stesse, come una delle tante creature del “padrone”, ovvero dell’entità che ha formulato le tre leggi. Dal momento che l’essere umano dal punto di vista fisico e cognitivo viene considerata dalla macchina come un’entità inferiore, la macchina desume che l’essere umano debba essere esonerato dall’effettuare qualsiasi tipo di attività.
“Iniziativa Personale”
Il blocco decisionale può anche essere dovuto alla carenza delle risorse computazionali necessarie per portare a termine le operazioni. Nel racconto “Iniziativa Personale” Asimov descrive un sistema multi agente (una versione avanzata di sistema esperto molto simile agli agenti intelligenti del Semantic Web introdotti da Tim Berners Lee [3], ideatore del Web), in cui una macchina controlla l’attività di altre cinque macchine. In presenza di situazioni particolarmente critiche, la macchina che organizza il lavoro delle altre entra in uno stato di blocco dovuto alla mancanza di risorse computazionali necessarie, che la porta ad attivare una subroutine di controllo di sistema facendo svolgere alle altre macchine attività di verifica della propria operatività.
Questi sono solo alcuni esempi dei problemi di natura tecnica in cui si può incorrere nel progettare e nell’implementare un modello di intelligenza artificiale avanzato, in grado cioè di prendere decisioni autonome.
L’esperimento “Moral Machine” condotto dal MIT
Alcune ricerche condotte nell’ambito della psicologia sociale e della antropologia sembrano però sollevare ulteriori dubbi sulla possibilità di definire una serie di criteri etici osservabili dalla macchina. L’esperimento “Moral Machine” condotto dal MIT ne costituisce un valido esempio [4]. Tramite l’osservazione del comportamento umano, i ricercatori hanno tentato di individuare una serie di principi universalmente seguiti dagli esseri umani alla guida di un veicolo, per poterli replicare in forma codificata all’interno di un’automobile a guida autonoma.
Difficoltà culturali e antropologiche nell’applicazione dell’Algoretica
Ne è risultato che sussistono differenze nei codici di condotta di natura antropologico/culturale. I paesi latini tendono ad esempio a tutelare maggiormente le donne rispetto agli uomini, i paesi occidentali (In particolare Nord Europa e Nord America) tendono a tutelare maggiormente chi rispetta le regole stradali rispetto a chi le infrange, mentre i paesi orientali tendono a tutelare maggiormente gli anziani rispetto ai giovani. Questa conclusione potrebbe indurre a pensare di addestrare un veicolo a guida autonoma sulla base del comportamento osservato del proprio padrone ricorrendo al deep learning [5] (ovvero addestrando un modello di rete neurale profonda), ma in caso di incidente sarebbe estremamente difficile attribuire la colpa alla macchina o al suo padrone.
Il rischio di perdita della “libertà positiva”
Sussistono infine dei problemi di natura filosofico/politica. L’approccio “cibernetico” introdotto dal matematico Norbert Wiener negli anni ’50 [6], ovvero la possibilità di migliorare il comportamento di una macchina facendo sì che l’errore da essa commesso nello svolgimento dei suoi compiti possa essere utilizzato per aggiornarne la configurazione (esattamente come avviene anche negli attuali modelli di rete neurale profonda come gli LLM), potrebbe in linea teorica (come argomentato dal filosofo Martin Heiddeger) venire utilizzato per controllare la stessa attività umana. Sarebbe la fine della cosiddetta “libertà positiva” come evidenziato dal politologo Norberto Bobbio. Ovvero se la nostra vita venisse completamente governata dalle macchine, essa non sarebbe più indirizzata da uno scopo (ad esempio dalle nostre convinzioni morali, politiche, religiose e filosofiche), e perderemmo definitivamente la nostra autodeterminazione.
L’AI come strumento, non come sostituto dell’uomo
Quanto finora esposto dovrebbe indurci a riflettere sul corretto utilizzo dei modelli di intelligenza artificiale, che dovrebbero continuare ad essere considerati come semplici strumenti di supporto all’attività umana. La macchina non deve sostituirsi completamente all’uomo. Come sottolineato dal filosofo Luciano Floridi e dall’informatico Federico Cabitza [7], l’AI non può sostituirsi interamente al suo utente umano, il quale deve tenerne sempre sotto controllo l’attività in modo da renderla quanto più conforme al proprio volere. L’utilizzo dell’AI come semplice strumento nell’espletamento di qualsiasi attività che venga svolta con la supervisione ed il controllo continuo dell’essere umano, semplificherebbe anche l’attribuzione di eventuali colpe in caso di malfunzionamenti.
L’AI Act e la sua conformità con la visione dell’AI come strumento
L’AI Act [8] recentemente approvato in via definitiva è perfettamente in linea con tale visione, dal momento che sistemi classificati come a “rischio inaccettabile”, che tentano cioè di sostituirsi completamente all’uomo (come nel caso droni militari autonomi) o che tentano di condizionarne o limitarne le attività ed i diritti (come i modelli di AI che effettuano il social scoring), vengono espressamente vietati su tutto il territorio UE. Altri modelli classificati come a “rischio alto” che potrebbero arrecare potenziali danni all’essere umano, vanno accuratamente progettati, implementati ed utilizzati, ponendoli sotto un costante controllo da parte dell’uomo. In tutti gli altri casi si suggerisce di ricorrere in ambito organizzativo a codici di condotta etica garantendo in ogni caso la trasparenza del modello di AI utilizzato.
Bibliografia
[1] J.L. Alty, M.J.Coombs, I sistemi esperti. Concetti ed esempi, Franco Angeli, 1987
[2] L. A. Zadeh, Fuzzy algorithms, Information and Control, 1968
[3] T. Berners-Lee, L’architettura del nuovo Web, Feltrinelli, Milano, 2002
[4] E. Awad, S. Dsouza, R. Kim, J. Schulz, J. Henrich, A. Shariff, J.F. Bonnefon, I. Rahwan, The Moral Machine Experiment, Nature, 2018
[5] Y. LeCun, Y. Bengio, G. Hinton, Deep learning, Nature, 2015
[6] N.Wiener, Introduzione alla cibernetica. L’uso umano degli esseri umani, Bollati Boringhieri, 2012
[7] L.Floridi, F. Cabitza, Intelligenza artificiale. L’uso delle nuove macchine, Bompiani, 2021
[8] https://digital-strategy.ec.europa.eu/it/policies/regulatory-framework-ai