Nel film Don’t look up di Adam Kay (USA, 2021), si racconta l’effetto sociale ed emotivo che la notizia di una cometa in rotta di collisione verso la terra scatena sull’opinione pubblica mondiale, usando un registro narrativo che somiglia di più alla commedia grottesca che non ai film fantascientifici in cui si fa di tutto per salvare il pianeta.
Fra la varia umanità che reagisce ognuno secondo il proprio sistema valoriale, si distingue il personaggio di Peter Isherwell (interpretato da Mark Rylance), un ricchissimo imprenditore del settore tech che convince il governo degli USA – in prima linea sul difendere la Terra – a non deviare subito l’orbita dell’oggetto celeste ma provare ad estrarre i minerali preziosi di cui risulta dotato. Le conseguenze di tale maldestro tentativo saranno catastrofiche per tutto il pianeta. Oltre ad essere una summa di tutti i luoghi comuni che caratterizza l’attuale élite tech – come Mark Zuckerberg, Jeff Bezos, Elon Musk – il fittizio imprenditore esprime un atteggiamento che in realtà è in linea con l’ideologia più alla moda in Silicon Valley negli ultimi tempi.
Moratoria sull’IA e ideologia del lungotermismo
Lo scorso marzo, il Future of Life Institute ha reso pubblica una lettera aperta dall’inequivocabile titolo “Pause giant AI experiment”, in cui si chiedeva una moratoria di almeno sei mesi alle ricerche sui sistemi di intelligenza artificiale, come ChatGPT, perché una IA avanzata potrebbe rappresentare una minaccia per la società e l’umanità, e un tale cambiamento dovrebbe essere pianificato e gestito con attenzione (Future of Life Institute 2023). Pertanto, la lettera chiede a tutti i laboratori di IA di fermare le loro ricerche: in caso contrario sarebbe necessario l’intervento dei governi per rendere attuabile tale moratoria.
Da un primo punto di vista, la lettera sembra espressione di un legittimo timore guidato dal principio di precauzione, il principio etico che vuole un atteggiamento di cautela verso le questioni scientificamente controverse. Ma controllando l’istituzione che promuove la lettera e le fonti bibliografiche usate a sostegno dell’argomentazione esposta, l’orizzonte ideologico in cui la lettera si colloca è la assai dubbia ideologia del lungotermismo.
Con questo termine piuttosto fantascientifico si fa riferimento ad una corrente ideologica che sta prendendo piede nella Silicon Valley, e che sta affascinando diversi nomi importanti dell’élite tech statunitense, che affronta i problemi della società contemporanea adottando una prospettiva temporale millenaristica, ovvero spostata in un orizzonte cronologico di migliaia se non di milioni di anni (Paura 2017, Torres 2021). Il dogma centrale del lungotermismo afferma che bisogna difendere l’umanità dal rischio esistenziale che potrebbe minacciare la società dalla possibilità di esprimere appieno il proprio potenziale in un futuro remoto, anche a discapito di alcuni importanti problemi contemporanei – come le pandemie, la crisi climatica, le guerre globali – che devono essere considerate delle semplici increspature della condizione sociale attuale (Torres 2021). In pratica se un problema globale dovesse interessare la vita – letteralmente – di migliaia di persone, questo problema dovrebbe essere considerato uno scotto da pagare pur di evitare all’umanità problemi ben più gravi che la potrebbero colpire nel lunghissimo periodo.
Come si può notare, nonostante le buone intenzioni, il lungotermismo propone una soluzione che è a dir poco eticamente controversa: d’altronde la strada dell’inferno è lastricata di buone intenzioni.
I due punti chiave della controversia
La controversia si basa su due punti chiave. Il primo punto chiave è il concetto – tecnico nel lungotermismo – di rischio esistenziale, ovvero di un rischio che possa interessare l’umanità tutta (Bostrom 2019). Questo è un concetto molto problematico. Prima perché sposta in un orizzonte estremamente futuro un problema che attualmente è solo ipotetico o comunque materializzabile solo in linea di principio. Poi perché giudicare rischio esistenziale un problema attuale, ha il limite di utilizzare un quadro valutativo che oggi potrebbe essere valido per giudicare un processo, ma nel futuro tale quadro valutativo potrebbe non avere molto senso. Il secondo punto chiave è la problematicità della soluzione delineata: considerare come costo accettabile il sacrificio di milioni di vite attuali a favore di miliardi di vite future è quantomeno questionabile o comunque da non considerare con troppa leggerezza.
Al di là delle aporie logiche ed etiche alla base del lungotermismo, tale ideologia è piuttosto pericolosa perché sta uscendo dal dibattito filosofico ed accademico e sta entrando nella vita sociale provando ad orientare socialmente e politicamente l’opinione pubblica e le istituzioni della governance globale (Doda 2022, Signorelli 2023).
Il lungotermismo e l’ottimismo tecnologico della Silicon Valley
Il lungotermismo è compatibile con la visione del mondo di imprenditori di punta di Silicon Valley come Elon Musk o Jeff Bezos perché da un lato è intrisa di ottimismo tecnologico a discapito di una visione problematica del rapporto società-tecnologia, ovvero per ovviare ai problemi della tecnologia serve più tecnologia, quando la storia mostra che al cambiamento tecnologico serve una consapevolezza politica non una tecnologia migliore. Dall’altro il lungotermismo è un ottimo modo per procrastinare la soluzione attuale di problemi pressanti sollevando il sospetto che tali problemi siano poca cosa rispetto ai rischi esistenziali di un futuro millenaristico. Per inciso, tali problemi spesso sono stati creati o peggiorati dalle stesse élite tech che con l’adozione di un approccio economicamente spregiudicato hanno guadagnato immense fortune a discapito del contesto globale in cui agiscono.
Come i lungotermisti influenzano la vita sociale e politica
Le forme con cui il lungotermismo sta provando ad influenzare la vita sociale e politica sono piuttosto classiche: una rete piuttosto capillare e molto ben finanziata di think tank, centri di studio e analisi – spesso con origini accademiche – che producono progressivamente tutta una serie di strumenti per riflettere su queste idee come ricerche, libri, seminari, workshop, report. E lettere aperte.
Il think tank al centro di questa ideologia è il Future of Humanity Institute, fondato da Nick Bostrom – celebre filosofo del transumanesimo – e Nick Beckstead, entrambi dell’Università di Oxford. A questo istituto si affianca il Center for the Study of Existential Risk, fondato da Huw Price, filosofo della scienza, Martin Rees, astrofisico e Jaan Tallin, co-fondatore di Skype. Tallin è anche il cofondatore del Future of Life Institute, centro promotore della lettera di moratoria, assieme a Elon Musk, Max Tegmark, cosmologo, sua moglie Meia-Chita Tegmark – dottoranda di Nick Bostrom – Viktorya Krakovna, ricercatrice di DeepMind – società del gruppo Alphabet-Google per la ricerca sulla IA – e Anthony Aguirre, fisico della UCSC (University California Santa Cruz). Altri centri sono la Long Now Foundation, la cui mission è esplicitamente quella di diffondere il lungotermismo, e la Forethought Foundation diretta da William MacAskill, ideatore dell’effective altruism, ideologia connessa al lungotermismo, assieme a Toby Ord, co-fondatore del Future of Humanity Institute.
Lo scopo palese di questo intreccio di filosofi, imprenditori e studiosi di varia estrazione è quello di inserire i temi del lungotermismo nelle priorità delle grandi agenzie sovranazionali come le Nazioni Unite o le istituzioni del governo americano, così da avere una legittimazione globale e transnazionale. E già qualche risultato di questa strategia si comincia a intravedere (Paura 2017, Torres 2021). Nick Bostrom e Meia-Chita Tegmark sono stati relatori alle Nazioni Unite con un dibattito sulle minacce dell’intelligenza artificiale, Il Center for Security and Emerging Technology (CSET) fondato da Jason Metheny, assistente ricercatore del Future of Humanity Institute, è diventato uno dei centri di consulenza su questi temi per conto del presidente Joe Biden, mentre Toby Ord è diventato membro del gruppo di consulenti della World Health Organization e del World Economic Forum.
In pratica un ridotto gruppo di persone che si riconoscono nel lungotermismo e molto ben inserite economicamente e istituzionalmente, stanno cominciando ad agire per modificare le agende delle priorità globali a tutto vantaggio degli interessi di un gruppo di capitalisti di Silicon Valley.
Conclusioni
Che l’intelligenza artificiale abbia bisogno di un dibattito ampio e condiviso è fuori questione: le sue conseguenze sociali sul lungo periodo saranno inevitabili e solo una gestione consapevole ed una decisione informata potrà far sì che gli effetti negativi siano minori rispetto agli effetti positivi. Ma le forme di questo dibattito è necessario che siano svolte all’interno di parametri etici che godano la maggior condivisione possibile per evitare di fare scelte che possano avvantaggiare classi politiche e sociali già egemoniche.
C’è però una cosa che lascia interdetti: il lungotermismo ha tutte le caratteristiche di una ideologia nata all’interno della cultura informatica, nutrendosi di un immaginario millenarista di tipo fantascientifico, al servizio del progetto economico di Silicon Valley. In pratica il lungotermismo è una ideologia nerd che prova a sostituire un’immagine del mondo postmoderno con uno sguardo postumano di tipo tecnocratico.
Siamo sicuri che sia il modo migliore per affrontare le sfide del XXI secolo?
Bibliografia
Bostrom, N. (2019), The Vulnerable World Hypothesis, “Global Policy”, vol. 10, n.4, pp.455-476.
Doda, I. (2022), Lungotermismo: la filosofia peggiore di sempre?, “L’indiscreto”, 16 dicembre, https://www.indiscreto.org/lungotermismo-la-filosofia-peggiore-di-sempre/.
Future of Life Institute (2023), Pause Giant AI Experiments: An Open Letter, “Future of Life Institute”, https://futureoflife.org/open-letter/pause-giant-ai-experiments/.
Paura, R. (2017), Il concetto di rischio esistenziale come strumento di anticipazione nella governance del progresso scientifico, “Futuri”, 18 luglio, https://www.futurimagazine.it/articoli/in_evidenza/rischio-esistenziale-anticipazione-governance-progresso-scientifico/
Signorelli, A. D. (2023), Perché la lettera per sospendere lo sviluppo dell’intelligenza artificiale è tutta sbagliata, “Wired”, 30 marzo, https://www.wired.it/article/intelligenza-artificiale-lettera-elon-musk-errori/.
Torres, E. P. (2021), Against longtermism, “Aeon”, 19 October, https://aeon.co/essays/why-longtermism-is-the-worlds-most-dangerous-secular-credo.