Di fronte agli sviluppi nel campo dell’innovazione, si fa pressante la domanda legata alla responsabilità – che poi del resto è sempre personale, individuale e mai tecnica o artificiale – e alla necessità di “governare” gli strumenti tecnologici. Ed è questa la nuova frontiera della discussione sull’intelligenza artificiale, al di là del funzionamento e della composizione strutturale dei molteplici artefatti. Frontiera su cui si è misurata, almeno a partire dagli ultimi decenni, anche la Chiesa cattolica.
Cristianesimo e intelligenza artificiale: quale nesso tra fede e tecnologia
Le macchine sono in grado di pensare?
Ogni disamina sull’Intelligenza artificiale (AI) parte inevitabilmente da un riferimento pioneristico legato al famoso test di Alan Turing, il matematico inglese che nel 1950 propose un metodo per valutare l’intelligenza di macchine computazionali messe a confronto con l’intelligenza umana.
Il test prevede che un esaminatore ponga domande attraverso una telescrivente a un uomo e a un computer, situati in due stanze chiuse e distinte, senza sapere se le risposte che riceve vengano dall’uno o dall’altro.
Se l’esaminatore non è in grado di identificare, sulla base delle risposte ricevute, quale sia l’uomo e quale sia il computer, le capacità di interazione linguistica del computer dovranno essere considerate come non distinguibili da quelle umane, e il computer dovrà dunque essere considerato intelligente.
L’altro padre dell’intelligenza artificiale è il matematico e informatico Marvin Minsky, a cui è attribuita la prima definizione della disciplina.
Sette decenni fa, dunque, i dibattiti sulle interazioni tra macchine ed essere umano tentavano già di rispondere alla domanda se le prime fossero in grado di “pensare”, di avere dunque una “intelligenza” propria, che si sarebbe messa in competizione con quella dell’uomo. E l’interrogativo veniva posto soprattutto rispetto all’intelligenza di tipo linguistico.
Il test di Turing va in pensione? Le nuove sfide per un’IA più utile e pratica
Le successive riflessioni e gli studi anche nel settore della sociologia hanno riguardato le previsioni su come sarebbero evoluti i processi interattivi uomo-macchina, fino a desiderare di affidare alla tecnologia evoluta un’ampia gamma di processi diagnostici, valutativi o decisionali che la stessa persona deve svolgere.
Non si può dire che una simile previsione non si sia avverata, certamente il percorso con cui si è arrivati a questi risultati ha impiegato diversi decenni. Gli scienziati computazionali dei primi anni Ottanta del secolo scorso, infatti, erano interessati a scoprire “come lavora il cervello umano, come memorizza e come richiama i ricordi, come collega le sensazioni, come cataloga le immagini”, tutto ciò finalizzato alla creazione di potenti apparati tecnologici che potessero creare dei “sosia della mente di un uomo ed esporli a determinate sfide e rischi, in processi di controllo e di decisione”.
Già in quelle riflessioni era evidentemente presente anche tutto il tema della “coscienza” e la domanda molto concreta se un calcolatore o un robot potesse essere veramente cosciente. Gli sforzi degli scienziati sono andati ovviamente nella direzione di ridurre il divario tra le simulazioni di AI e l’intenzionalità soggettiva e cognitiva di ogni soggetto umano, e hanno dovuto prevedere anche successive implicazioni riguardanti ad esempio l’empatia, un elemento fondamentalmente umano e personale, e da sempre tallone d’Achille di ogni evoluzione tecnologica avanzata, che proprio per questo rischia di non diventare mai completa, almeno nel senso in cui si vuole interpretare l’AI.
Roger Carl Schank, capo del laboratorio di Intelligenza artificiale dell’Università di Yale, già nel 1984 affermava senza mezzi termini che il livello di completa empatia della comprensione “sembra essere del tutto fuori tiro del computer per la semplice ragione che il computer non è una persona”.
Successivamente anche un altro studioso, John Searle, sostenne che le macchine non possono pensare poiché sono incapaci di recepire i significati e sono prive di intenzionalità.
Tutte le ricerche successive hanno cercato di smentire queste considerazioni puntando a quella che è stata poi definita in gergo come AI di tipo “forte”: ci vorrà del tempo ed energie adeguate ma un giorno secondo alcuni sarà possibile riprodurre le attività intelligenti che caratterizzano il comportamento umano in tutte le sue svariate forme.
Call for Ethics in AI, firmato documento da rappresentati di tre religioni
I rappresentanti delle tre religioni abramitiche hanno firmato il 10 gennaio la call di Roma per l’etica dell’intelligenza artificiale, un documento pubblicato dalla Pontificia Accademia per la Vita e promosso dalla Fondazione RenAIssance nel tentativo di promuovere l’algoretica, cioè uno sviluppo etico dell’intelligenza artificiale.
Mons. Vincenzo Paglia, presidente della Pontificia Accademia per la Vita, che per primo ha promosso l’Appello di Roma nel febbraio 2020, ha partecipato alla cerimonia ufficiale di firma insieme al rabbino capo Eliezer Simha Weisz (membro del Consiglio del Gran Rabbinato di Israele) e allo sceicco Abdallah bin Bayyah (capo del Forum per la Pace di Abu Dhabi e presidente del Consiglio Fatwa degli Emirati Arabi Uniti).
Per raggiungere gli obiettivi etici nell’AI, secondo quanto espresso nel documento, è necessario partire fin dall’inizio dello sviluppo di ogni algoritmo con una visione “algoritmica”, cioè con un approccio di etica progettuale.
Progettare e pianificare sistemi di IA di cui ci si possa fidare implica la ricerca di un consenso tra i decisori politici, le agenzie del sistema delle Nazioni Unite e altre organizzazioni intergovernative, i ricercatori, il mondo accademico e i rappresentanti delle organizzazioni non governative sui principi etici che dovrebbero essere integrati in queste tecnologie.
Per questo motivo, i promotori dell’appello esprimono il desiderio di lavorare insieme, in questo contesto e a livello nazionale e internazionale, per promuovere l'”algor-etica”, ovvero l’uso etico dell’IA come definito dai seguenti principi:
- – Trasparenza: in linea di principio, i sistemi di IA devono essere spiegabili;
- – Inclusione: le esigenze di tutti gli esseri umani devono essere prese in considerazione affinché tutti possano trarre beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi;
- – Responsabilità: coloro che progettano e impiegano l’uso dell’IA devono procedere con responsabilità e trasparenza;
- – Imparzialità: non creare o agire in base a pregiudizi, salvaguardando così l’equità e la dignità umana;
- – Affidabilità: I sistemi di IA devono essere in grado di funzionare in modo affidabile;
- – Sicurezza e privacy: I sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti. Questi principi sono elementi fondamentali di una buona innovazione
L’impatto delle tecnologie sull’individuo
Se guardiamo alle discussioni tra studiosi dell’ultimo ventennio del 1900 sui temi dell’IA ci si rende conto che erano già presenti, alcune in fase embrionale, altre più sviluppate, le tematiche principali dell’impatto delle tecnologie evolute sull’uomo e sulla società in generale.
Proprio su quest’ultimo aspetto, il sociologo (e politico) Achille Ardigò tematizzava nel 1986 la necessità di riflettere sulle implicazioni di ciò che la sociologia denomina come ”controllo sociale”, avanzando tre ipotesi su questo legame.
Innanzitutto, l’AI sarebbe (stata) “causa di controllo sociale”, il cui aumento sarebbe l’effetto dei progressi tecnologici, ma anche “effetto di accresciute necessità di controllo sociale” generando investimenti pubblici e privati per rispondere a nuove esigenze sia in ambito civile, di mercato oppure militare e «correlata (in tutto o in parte) al controllo sociale e viceversa”.
Per avvalorare queste ipotesi, lo studioso cita alcuni “fatti”, tra i quali i finanziamenti pubblici negli Stati Uniti da parte del Pentagono o incentivazioni da parte di agenzie Nato, o ancora investimenti per la diffusione di sistemi di AI nell’ambito dei controlli fiscali, senza tralasciare il settore medico-sanitario e quello della rappresentanza democratica (elezioni, propaganda, eccetera). Tutti “supporti indiziari molto consistenti”, come li definisce Ardigò.
Altri temi delle speculazioni di quegli anni, al di là dell’organizzazione strutturale e di funzionamento dei cosiddetti “sistemi esperti”, affrontano già il loro utilizzo nel campo della “salute” (sia sociosanitario che di ausili medici strumentali e di diagnostica) e anche sul piano della “generatività”, intesa come capacità di questi sistemi di ristrutturarsi internamente, propensi a produrre nuove “organizzazioni” di sé stessi.
Che ne sarà dell’uomo?
Trent’anni dopo, la domanda non è più se queste applicazioni tecnologiche così in evoluzione saranno veramente in grado di passare all’ambito operativo concreto, ma se le persone non abbiano piuttosto ormai ceduto ad esse il monopolio delle proprie esistenze, creando agli uomini non pochi problemi o sfide.
Di fronte alla pervasività di tutti gli strumenti tecnologici che abitano il nostro presente e che ci assistono in tante operazioni quotidiane (dal comunicare con i familiari al raggiungere una destinazione, dall’esprimere un’opinione a presentare la dichiarazione dei redditi) gli interrogativi di fondo che si palesano riguardano il “che ne sarà dell’uomo”: sarà (oppure già è) più libero o più schiavo? più umanizzato o più alienato? più socializzato o più solo? comprenderà di più o sarà ancora più smarrito?
Nel 2020 Stefano Quintarelli, imprenditore informatico e già deputato alla Camera scriveva: “Senz’altro, sono stati accesi i riflettori su nuove e più sofisticate tematiche, oltre a quelle evidenziate poc’anzi, tra cui la pervasività degli assistenti vocali di ultima generazione (vedi Alexa, Google Assistant & co.), definiti dei veri e propri maggiordomi, i veicoli a guida autonoma, la digital agriculture, le più sofisticate armi letali anch’esse autonome, le conseguenze sul mondo del lavoro, dove in ogni caso gli allarmi sulla fine del lavoro vanno ridimensionati, perché più che l’impiego viene a mancare la specializzazione per certi tipi di attività” (Quintarelli, 2020).
Le preoccupazioni della Chiesa
Ma cosa è l’uomo? Ecco una delle domande che rimandano alla notte dei tempi. La tradizione biblica ne accenna una risposta alquanto dettagliata in riferimento anche al Creatore dell’uomo, risposta che è possibile rintracciare nel Salmo 8, tratto dalla più ampia raccolta di 150 preghiere che nella Bibbia ebraica e cristiana vanno sotto il nome di Libro dei Salmi.
In questo testo, in particolare, mentre si accenna alla magnificenza del Creato, l’autore si domanda cosa possa mai essere l’uomo, creatura indubbiamente molto più contenuta dell’estensione del cielo e ancor meno appariscente rispetto alla luna e alle stelle.
Eppure, riflette l’orante, questo “figlio dell’uomo” è stato fatto “poco meno degli angeli”, coronato “di gloria e di onore” e – cosa ancora più eccezionale – dotato di un esclusivo “potere sulle opere” di tutta la creazione, che viene interamente posta “sotto i suoi piedi”.
Insomma, una creatura così fragile ed esigua viene dotata di una dignità suprema. Il punto è che questa concessa signoria potrebbe essere interpretata in maniera errata ed egoistica, trasformando l’uomo in un “folle tiranno” più che in un “governatore saggio e intelligente”, come ha commentato in una delle sue catechesi Papa Giovanni Paolo II – Karol Wojtyla.
Qui si inserisce tutta la riflessione che la Chiesa e il Magistero ecclesiastico hanno fatto lungo i secoli a proposito della custodia dell’armonia e della bellezza di tutta la creazione che Dio ha affidato all’uomo, affinché “ne usi ma non ne abusi, ne faccia emergere i segreti e sviluppare le potenzialità”, come ha ribadito Papa Giovanni Paolo II.
In questa cornice è possibile intravvedere anche tutta la “responsabilità” che deriva all’individuo nel cammino di comprensione e sviluppo delle tecnologie in generale e dell’Intelligenza artificiale in particolare, considerate senza dubbio anch’esse frutto di un ingegno primigenio che è stato instillato nell’impronta specifica di ogni essere terreno.
I filosofi, più che domandarsi “cosa è l’uomo?” si sono chiesti piuttosto “chi è l’uomo”. La risposta a questo interrogativo pone senz’altro le premesse per una giusta comprensione e utilizzo di tutte le potenzialità che gli sono state affidate, preoccupazione che sta a cuore all’insegnamento della Chiesa, come si diceva poc’anzi.
In questa prospettiva si inserisce la concezione “personalista” dell’essere umano, che ha cominciato a diffondersi con l’avvento del cristianesimo e a cui ha dedicato molti studi il filosofo Karol Wojtyla, prima ancora di diventare Papa. Evidentemente, lungo il suo Magistero ne ha potuto accentuare ancora di più l’insegnamento.
Per Wojtyla, la persona è “qualcosa di più della natura individualizzata”. La sua pienezza, infatti, ha a che fare piuttosto con “unicità e irripetibilità”. In questo senso, l’uomo è inteso come «soggetto dell’esistenza e dell’azione». Ciò ne identifica anche la piena dignità, configurando l’individuo come “degno di tutto ciò che gli è dovuto per natura”, uno status che non si perde poiché si è preziosi “in sé” e non soltanto per gli altri.
Resta la possibilità, come sottolinea Aparecida Ferrari, professore associato di Etica applicata presso la Pontificia Università della Santa Croce di Roma, di poter perdere, mediante un esercizio cattivo della libertà, la dignità morale, che comunque non cancella quella sostanziale.
Quale visione dell’uomo?
Fatte queste premesse, risulta più semplice addentrarsi nel percorso di analisi della visione dell’uomo che scaturisce dall’insegnamento della Chiesa e dell’approccio che questa ha maturato lungo gli ultimi decenni rispetto alla tecnologia e alle sue innovazioni più sofisticate.
Questo “cammino” prevede senz’altro i pronunciamenti degli ultimi Pontefici in tale ambito. Per il loro legame sia con il mondo ecclesiastico che con quello dell’editoria e della comunicazione, va anche individuata una traiettoria comune che emerge dalla lettura di specifiche pubblicazioni e rubriche apparse negli ultimi anni su testate specializzate (per esempio “La Civiltà Cattolica”).
Non sarebbe completo un simile lavoro di analisi senza una raccolta documentale dell’insieme delle iniziative realizzate nei tempi recenti da alcuni Organismi della Santa Sede dedicate espressamente al tema dell’AI, come la Pontificia Accademia per la Vita o le Pontificie Accademie delle Scienze e delle Scienze Sociali.
Una rassegna di questo dinamismo è stata raccolta nel libro Anima Digitale. La Chiesa alla prova dell’Intelligenza Artificiale. I risultati emersi dimostrano che l’antropologia cristiana è portata a ribadire che l’uomo, oltre ad essere stato creato a immagine e somiglianza di Dio, racchiude non solo la dimensione corporale ma anche quella dello spazio e del tempo, capace di vivere una serie di esperienze che lo rendono unico tra gli altri esseri viventi.
C’è poi la questione dell’agire libero con decisioni prese in maniera cosciente e consapevole, e ciò può avvenire solo nelle relazioni con altri simili. A differenza delle macchine, insomma, l’uomo è in grado di mettere anche in discussione i principi e i criteri con cui decide, fermo restando che questa dinamica la può applicare nel momento in cui progetta e programma un sistema di AI, pure avocando a sé tale caratteristica cognitiva propria. In tutto ciò si gioca, praticamente, la dignità umana.
Giovanni Paolo II, oggi Santo, con la sua formazione di indole filosofica, ha puntato evidentemente di più sulle questioni antropologiche, invitando a porsi di fronte alle rivoluzionarie scoperte della tecnica “con vigile allenamento all’ascetica”, ben soppesando la responsabilità sociale e internazionale rispetto agli stessi progressi. È il Papa che suggerisce inoltre libertà di giudizio e scelta, uno spirito di servizio e la salvaguardia della dignità dell’uomo.
Con Papa Francesco si è già nell’epoca in cui le scoperte sono maggiormente evolute, per cui l’inquietudine della Chiesa assume più un carattere sociale, pur ribadendo con insistenza l’utilità di discernere questi cambiamenti “con coscienza morale” e regolamentarne l’impiego.
Attenzioni espresse anche dalla pubblicistica cattolica la quale, nel rivendicare per la Chiesa un ruolo di primo piano nel sensibilizzare su questi temi, ribadisce la costante centralità della persona umana in tutto il processo, la salvaguardia della sua dignità e la necessità dell’inclusione.
Bibliografia
Turing, A. (1959). Computing Machinery and Intelligence. Mind, 433-460
Horgan, J. (2016, gennaio 30). In memoria di Marvin Minsky, romantico della scienza. Tratto il giorno maggio 7, 2022 da le Scienze: https://www.lescienze.it/news/2016/01/30/news/ritratto_marvin_minsky-2948947/
Ardigò, A. & Mazzoli, G. (1986). Intelligenza artificiale. Conoscenza e società. Milano: Franco Angeli
Hofstadter, D.R. & Dennel, D.C. (1985). L’io della mente. Milano: Adelphi
Searle, J. R. (1986). Minds, Brains and Science. Harvard University Press
Taulli, T. (2019). Artificial Intelligence Basics: A Non-Technical Introduction. Monrovia, CA, USA: Apress
Il futuro è arrivato. (2019, dicembre). Aggiornamenti sociali, 805-806
Quintarelli, S. (A cura di). (2020). Intelligenza Artificiale. Cos’è davvero, come funziona, che effetti avrà. Torino: Bollati Boringhieri
Giovanni Paolo II. (2002, Giugno 26). Udienza generale. Tratto da https://www.vatican.va/content/john-paul-ii/it/audiences/2002/documents/hf_jp-ii_aud_20020626.html
Wojtyla, K. (1982). Persona e atto. Città del Vaticano: Libreria Editrice Vaticana
Ferrari, M. A. (2022). Persona umana. Roma: Edusc
Tridente, G. (2022). Anima digitale. La Chiesa alla prova dell’Intelligenza Artificiale. Todi: TAU