Oggi la mia planetaria mi ha consigliato una ricetta svuota-frigo; è stato il refrigeratore ad avvisarmi della scadenza di alcuni prodotti. Il mio orologio, poi, mi ha vegliata tutta la notte, tenendo traccia di apnee e irregolarità nel battito.
Qualche anno fa un incipit del genere sarebbe stato un romanzo fantascientifico, oppure una qualche affermazione da reparto di psichiatria. Oggi lo chiamiamo Internet delle Cose: l’inserimento di sensori e motori negli oggetti, con cui captare dati, restituendo decisioni autonome sulla base di algoritmi statistici. L’IoT è come se avesse un’anima ma spiegabile scientificamente. Rappresenta, dunque, la razionalizzazione dell’animismo e la possibilità di vivere una schizofrenia normalizzata.
Io, robot di fronte al Covid: tecnologia fra scienza e animismo
Ogni popolo ha cercato di controllare cose ed eventi. Nella maggior parte delle comunità si è trattato di attribuire un’anima agli oggetti, rendendoli capaci di volontà. Per alleggerire la tensione e la paura del caso, si preferisce pensare che tutto abbia uno spirito e che quindi, in linea di principio, si possa intervenire rabbonendo gli oggetti, nella maniera in cui facciamo con gli altri esseri umani.
In Occidente l’approccio è stato quello di razionalizzare e meccanizzare le forze in campo. Nel nostro caso è il sapere a darci potere sulla natura. L’IoT permette di ottenere un controllo quasi totale sugli oggetti. Vengono trasformati, razionalmente, in cose interattive, capaci di decidere autonomamente e di sentire, collezionando big data. In questo caso abbiamo coniugato il determinismo occidentale con l’animismo, abbiamo trasformato la vitalità della materia in qualcosa di spiegabile scientificamente e quindi di controllabile attraverso il sapere. Fino a un certo punto, però.
È il libero arbitrio, cioè la “possibilità che sì e che no” a creare il presupposto per l’etica. Gli algoritmi dell’intelligenza artificiale, realizzando decisioni non previste dal codice, richiedono di essere inquadrati moralmente. In questo caso gli errori non risultano da una scelta pre-programmata come per i vecchi sistemi esperti. Di fronte a un bivio l’IA sceglie autonomamente una strada perché non è indifferente: una possibilità ha un peso maggiore e il perché sono i dati su cui l’abbiamo allenata.
Quando scegliamo, decidiamo anche di assumerci la responsabilità di poter sbagliare. Pure l’IA commette errori colpevolizzabili? Il tribunale può essere applicato solo a esseri viventi di cui si suppone abbiano meta-coscienza, che possano riflettere sulle loro azioni. Non è la decisione autonoma a creare ipso facto la colpa, bensì la coscienza fenomenica.
La difficile conciliazione tra animismo e meccanicismo
Per gli oggetti intelligenti, l’anima razionalizzata impedisce di giudicare la decisione applicata. È evidente che il dualismo tra animismo e meccanicismo sia in realtà difficile da conciliare. La rete artificiale sceglie sulla base di dati statistici, ma gli algoritmi restano un mistero anche per l’uomo. Né la macchina né i programmatori sanno descrivere il deep learning, le regole di apprendimento impiegate: questo svincola anche l’essere umano dalla responsabilità.
Quale etica applichiamo a questo genere di decisioni ibride, a metà strada tra finalismo e determinismo? Se non troviamo una risposta non sarà possibile ricucire i legami di solidarietà che l’IA sta scindendo, rendendo paradossali le regole morali con le quali siamo soliti solidificare le comunità. In effetti stiamo vivendo un novello feticismo delle merci. Gli oggetti si personificano, svincolandosi dai rapporti sociali che li hanno prodotti, dai dati umani su cui allenano le loro decisioni sintetiche, mentre gli individui si fanno sempre più simili alle cose: passivi e necessitati.
Le alternative possono essere l’etica Shinto, animistica, o Leibniz, con la sua conciliazione di finalismo e determinismo.
La visione animistica
La visione giapponese attribuisce i kami, gli spiriti, a ogni genere di ente, naturale o artificiale che sia, compresi robot e sistemi automatici di intelligenza artificiale. L’uomo riceve la vita e dà a sua volta vita alle cose che produce tramite gli spiriti di cui è portatore. Un artefatto conterrà varie anime: quella della materia, della forma, del fine per cui è costruito, dei legami sociali che lo condizionano: costruttori, proprietari. L’IA è una specie di automa che per essere etico, in questa ottica, dovrà avere fini fondati sulla relazione e big dati puri come puro è il cuore di chi li ha prodotti; anche il programmatore dovrà essere allineato allo shintoismo, altrimenti è inevitabile che la rete sarà nefasta, rispecchiando la sua corruzione spirituale e materiale.
Tutto è permeato dal divino. La Natura, il presente sono possibili grazie alla benedizione di questi spiriti. Anche il concetto di causalità viene meno nei contesti animisti: è sufficiente fare un rito di purificazione su un oggetto perché esso non ci ferisca; è sufficiente assumere un atteggiamento puro e sincero nei confronti della vita per ottenere la benevolenza dei kami.
Essere puri di cuore e sinceri significa compiere ciascuno il proprio dovere, nel lavoro e nelle relazioni con gli altri. Questo è il prerequisito perché gli spiriti ci benedicano. Quando non siamo puri, diventiamo come specchi su cui abbiamo fatto depositare della polvere. Ecco, quindi, che la realtà riflessa non sarà malvagia in sé, lo sporco appartiene solo a noi. Il Mondo dipende da come noi lo riflettiamo. Sarà sufficiente tornare a uno stato di purezza per riflettere una Natura sgombra dalla nostra negatività.
Gli avvenimenti infelici per lo shintoismo sono i kami che ci avvertono che non siamo in accordo con il mondo, che il nostro cuore non è puro. Come siamo intimamente condiziona gli eventi. Quando un negozio fallisce c’è l’idea che gli oggetti invenduti contengano il kami negativo del proprietario (ha fallito perché non ha fatto il suo dovere). Ecco perché i Giapponesi, per evitare situazioni nefaste, non comprerebbero mai un usato di cui non conoscono le anime che lo permeano.
Intelligenza artificiale e kami sfavorevoli
In un’ottica di intelligenza artificiale, allora, i bias che ripropone la rete dipendono dal fatto che i dati del training set contengono kami sfavorevoli dei proprietari. È sufficiente essere puri perché anche i nostri dati lo siano. Allora, anche il machine learning, permeato dai kami benevolenti, ci potrà restituire armonia. In effetti quando la rete restituisce pregiudizi è solo perché i dati su cui l’abbiamo allenata erano colmi di razzismo e malevolenza.
Non è un’etica predestinata. I segni dei kami sono solo indicazioni, non sono necessitanti: vanno letti come indizi per ritrovare il nostro solco. Il male dipende solo da un allontanamento dall’onestà, dall’eccellenza. Ripulire i big data della loro sporcizia vuol dire ripulire direttamente i soggetti a cui corrispondono, come se ci fosse un legame simbolico, non causale, non spazio-temporale, che unisce le generazioni agli avi e a quello che creano. Viceversa, contaminare il set di dati, utilizzando l’IA per fini non comunitari, significa agire negativamente sulla comunità stessa che li ha prodotti, come se quest’ultima stesse di fatto compiendo atti impuri.
Quando i sistemi autonomi compiono errori e prendono decisioni parziali, procurandoci sofferenza e male, sono i kami che ci avvertono che non è stata seguita la via shintoista. Quindi perché essere etici nell’animismo? Per avere la benevolenza delle anime che permeano tutto, compresa l’IA. Perché intervenire sui dati? È come un rito di purificazione che permette di intervenire su di noi e sulle generazioni a venire, in quella che nello shintoismo è un’Unità infinita tra cose, persone e divino. Come si fa a essere felici? Seguendo la via dei kami: rispetto della Natura, della comunità. Se si percorre un sentire puro, riti di purificazione e atti di lealtà verso sé stessi e verso ciò che ci circonda, allora si è felici. Perché va evitato un prodotto non etico? Perché il suo kami nefasto si ripercuoterebbe su di noi: dunque è bene boicottare abusi nell’intelligenza artificiale.
Insomma, il fine morale dell’IA deve rimanere il benessere collettivo, superando egoismo e individualismo: bisogna controllare che i dati non contengano odio, che il loro uso sia prosociale, perché ne va del kami di tutto.
La versione di leibniz
È possibile coniugare finalismo e meccanicismo nell’etica occidentale? Leibniz tentò di trovare una soluzione spiegando l’origine del mondo attuale con una scelta non indifferente di Dio.
Dio aveva vari progetti tra cui scegliere (mondi possibili) e, soprattutto, avrebbe potuto anche non creare nulla. Il fatto di aver scelto il migliore tra i mondi inserisce una contingenza nelle cose: la realtà poteva essere diversamente e non c’è necessità nemmeno nella logica perché poteva non crearla affatto.
Leibniz spiega la realtà in sé come se ogni cosa fosse un pacchetto energetico, un insieme di informazioni 01 (monade) pre-programmato da un’armonia prestabilita. È come se tutto avesse un suo codice da seguire. Ma allora come si giustifica il male? Dio permette il male? E il libero arbitrio dove finisce se c’è predestinazione? Nella Teodicea cerca di risolvere queste contraddizioni.
Il Male non esiste, è solo una deviazione dell’uomo rispetto all’indicazione di armonia che riceve. Insomma, l’armonia non è necessitante: resta un’indicazione da cui poter deviare. Inoltre, il mondo attuale è solo il migliore dei mondi, non si parla di perfezione. Il male è connaturato alle cose, è quello 0 mischiato al 1. È quel non essere che permea la gerarchia di monadi. Sì, perché gli atomi spirituali sono qualitativamente identici (sono forza di agire verso l’entelechia) ma quantitativamente diversi. La differenza risiede nel grado di coscienza. Alcune monadi hanno solo percezioni, punti di vista sul mondo incoscienti; l’anima è una monade consapevole delle proprie idee, sebbene non di tutte (l’oblio la rende imperfetta e passibile di errore).
L’intelligenza artificiale è una monade? È costituita da algoritmi statistici, informazioni, energia elettrica, che le consentono di realizzare decisioni sulla base di dati che, di nuovo, rappresentano prospettive del mondo, informazioni binarie. Tuttavia, l’IA, come le monadi materiali, resta incosciente: la sua intelligenza non è meta-riflessiva. Come giudicare moralmente un arbitrio, libero ma non consapevole? Come fare perché la sua decisione ricalchi un’armonia il più possibile tendente al meglio suggerito da Dio? Dandole punti di vista, rappresentazioni del mondo quanto più buone possibili.
Bisogna che noi esseri umani, essendo in grado di riflettere sul nostro essere, traduciamo l’indicazione armoniosa a cui abbiamo accesso in azioni volte al meglio, così da offrire dati, cioè punti di vista sul mondo, etici. Il machine learning solo così potrà a sua volta agire per il meglio.
Il codice dell’IA non è necessitante proprio perché noi esseri umani abbiamo il libero arbitrio di deviare dalla nostra stessa armonia prestabilita, ma farlo si ripercuote su di noi, generando male fisico e morale.
Insomma, sia che si segua l’etica shintoista sia che si guardi a Leibniz, perché l’IA sia giusta dobbiamo noi agire eticamente, online e offline, così che i dati siano in grado di insegnare alla rete la miglior versione del mondo attuale. Come noi, anche il sistema di decisione deve contribuire a mantenere l’armonia: le decisioni dell’IA non devono andare contro la Natura e le relazioni, devono invece promuoverla, pur nella consapevolezza che la perfezione non è di questo mondo. In effetti, gli interrogativi etici, il dover-essere non esisterebbero, sarebbero insensati.