Come coesisteranno esseri umani e macchine IA?[1] Due visioni si fronteggiano: l’Intelligenza Artificiale superintelligente come singolarità o come mito che non tiene conto della complessità dell’intelligenza umana. Per uscire dall’impasse, occorre una visione evoluzionistica di portata più ampia.
Ma i robot devono anche starci simpatici? Quali paletti nel rapporto uomo-macchina
Coevoluzione macchine IA ed esseri umani: le due tesi a confronto
Il Center for Human-Compatible AI dell’Università di Berkeley presenta la sua missione in uno scenario tutt’altro che rassicurante, evidenziando come sembra probabile che a lungo termine la ricerca sull’IA includa macchine più capaci degli umani in un’ampia gamma di obiettivi e ambienti. L’obiettivo del CHAI diventa quindi garantire che queste macchine non provochino risultati negativi e irreversibili per gli esseri umani[2].
Il principale promotore dell’IA come ultimo evento della storia umana è Stuart Russell, un informatico molto noto, coautore con Peter Norvig del notissimo volume “Artificial Intelligence: A Modern Approach”.
Altre persone importanti che condividono opinioni simili sono Stephen Hawking, Max Tegmark e Frank Wilczek, che in un articolo di commento al film “Transcendence” hanno evocato la “singularity”[3], sottolineando che le macchine con un’intelligenza sovrumana potrebbero ripetutamente migliorare ulteriormente il loro stesso design, innescando ciò che Vernor Vinge ha chiamato “singolarità” e il personaggio del film di Johnny Depp chiama “trascendenza”. È possibile immaginare una tecnologia tale da superare in astuzia i mercati finanziari, i ricercatori umani, da manipolare i leader umani e da sviluppare armi che non possiamo nemmeno capire. Mentre l’impatto a breve termine dell’IA dipende da chi la controlla, concludono, l’impatto a lungo termine dipende dal fatto che possa essere controllata del tutto[4].
Il deep learning diventerà onnipotente? Limiti e prospettive delle reti neurali artificiali
Per il punto di vista opposto, è la stessa idea di “Superintelligenza” ad essere criticata come un concetto intrinsecamente viziato.
Melanie Mitchell, professoressa di informatica alla Portland State University (USA), sostiene come il problema di queste previsioni è che sottovalutano la complessità dell’intelligenza generale[5] di livello umano. L’intelligenza umana, sottolinea, è un sistema fortemente integrato, i cui molti attributi tra cui emozioni, desideri, un forte senso del sé (selfhood) e autonomia, non possono essere facilmente separati: la nozione di superintelligenza senza limiti umani, conclude Mitchell, può essere un mito[6].
Roger Penrose, professore di matematica, premio Nobel per la fisica 2020 e amico del collega Stephen Hawking, è ancora più tagliente e, in un’intervista rilasciata a maggio 2018, in occasione dell’AI For Good 2018 Global Summit di Ginevra, in Svizzera, ha affermato che il vero rischio per l’umanità sono le persone che pensano che l’IA superintelligente possa essere l’ultimo evento della storia umana, piuttosto che l’IA in sé[7].
Posta in questi termini, l’opposizione è pressoché irrisolvibile, anche per le cospicue risorse emotive che temi come quello della singularity sono capaci di attivare.
Coevoluzione macchine IA ed esseri umani: l’autodomesticazione e la nicchia ecologica
Una via d’uscita dalla contrapposizione è offerta da una visione evoluzionistica di portata più ampia, i cui cardini possono essere i concetti di autodomesticazione e di nicchia ecologica.
Come è noto, secondo l’ipotesi dell’autodomesticazione, gli esseri umani sono passati attraverso un processo di selezione autoindotto che ne ha ridotto l’aggressività. Nel suo libro “Il paradosso della bontà”, Richard W. Wrangham ha notato come alcune capacità umane straordinarie dei tempi attuali, come la chirurgia cardiaca, i viaggi nello spazio o l’opera comica, dipendano tutte, da un punto di vista evolutivo, da una capacità abbastanza eccezionale di cooperare, che comprende la tolleranza, le fiducia e la comprensione. Qualità che, sottolinea l’antropologo, fanno sì che la nostra specie sia considerata eccezionalmente “buona”[8].
La relativa docilità e tolleranza della specie umana è un fenomeno raro negli animali selvatici e lo si trova nei bonobo, i quali, in modo simile agli umani, mostrano molte delle caratteristiche di una specie addomesticata. Escluso che gli umani abbiano addomesticato i bonobo, la conclusione potrebbe essere che il processo è avvenuto in natura (quindi, “devono essersi autodomesticati”). E, se ciò è accaduto per loro, può essere accaduto anche a noi umani che potremmo esserci auto-addomesticati.
In realtà l’idea di autodomesticazione non è compiutamente risolta ed è anche criticata per i suoi possibili usi razzisti, tanto che di recente alcuni studiosi, come Dor Shilton e altri sostengono che l’evoluzione sociale degli esseri umani possa essere spiegata meglio in termini di selezione per la motivazione pro-sociale e l’autocontrollo, che sono guidati dalla comunicazione simbolica e dalla rappresentazione, piuttosto che come un processo di auto-domesticazione[9] .
In questa visione un ruolo speciale sarebbe stato giocato dall’emergere della comunicazione mimetica, dagli inizi dell’impegno musicale e della cognizione legata alla mimesi, e, in una seconda fase, dall’emergere del linguaggio e dell’immaginazione, che avrebbero facilitato il controllo emotivo e la plasticità emotiva.
La questione è aperta, ma certo si può far riferimento a entrambe, come due varianti alla base delle spiegazioni sulla riduzione di aggressività o sviluppo di atteggiamenti di maggiore socialità tra gli umani.
La teoria della costruzione della nicchia ecologica, per parte sua, offre una visione dell’evoluzione nella quale gli organismi non sono entità passive, malleabili a volontà dalla selezione. Le attività metaboliche e comportamentali delle popolazioni biologiche modificano le nicchie ecologiche, influenzando così le risorse ambientali e le pressioni selettive che a loro volta retroagiscono sugli organismi stessi. Questo fenomeno, chiamato “costruzione della nicchia”, è essenziale nell’evoluzione. Gli organismi cambiano attivamente il loro ambiente e gli ambienti cambiano selettivamente gli organismi[10].
L’idea alla base della teoria della costruzione della nicchia ecologica è interessante in quanto è in grado di comprendere la relazione uomo-macchina nel più ampio concetto di evoluzione umana, contemporaneamente all’ambiente più ampio, che comprende anche i prodotti dell’attività umana, dalle macchine fino alle istituzioni sociali, come le leggi e le regole etiche e sociali.
Coevoluzione macchine IA ed esseri umani: chi addomesticherà chi?
A questo punto si può verificare come interagiscono idee come l’autodomesticazione o l’autocontrollo nel contesto di discussione sopra delineato che vede, per un verso, la singularity, che chiamiamo Scenario 1, e, per altro verso, quello del concetto viziato, che chiamiamo Scenario 2.
La questione è se lo sviluppo di qualcosa come l’autodomesticazione/autocontrollo sia concepibile nelle macchine intelligenti.
Secondo lo Scenario 2, questo è inconcepibile, a causa della mancanza nelle macchine IA di emozioni, desideri, e del forte senso di selfhood e di autonomia propri degli umani. All’estremità opposta dello spettro, le idee dei sostenitori dello Scenario 1 sembrano lasciare spazio a questa possibilità. Tuttavia, anche a voler seguire quest’ultima idea, sorgerebbero alcune questioni importanti: se l’autodomesticazione è un’ipotesi per spiegare la riduzione dell’aggressività nell’evoluzione degli umani e se la tesi della singularity include la possibilità che le macchine IA si autosviluppino in modo simile o superiore agli umani, perché si dovrebbe escludere la possibilità che esse evolvano nel senso di una riduzione della loro aggressività?
Nello Scenario 2 c’è spazio per l’ipotesi opposta, e cioè che siano gli umani ad “addomesticare” le macchine IA. Potrebbe essere il caso delle regolamentazioni dell’IA e delle macchine IA con lo scopo di prevenire danni agli esseri umani e all’ambiente e di aumentare il livello di sicurezza. Questa prospettiva è collegata all’idea oggi dominante di mantenere gli esseri umani nel ciclo (loop) del processo decisionale e di indirizzare l’IA verso i bisogni e i valori umani[11]. Non intendo qui discutere se questa idea (l’umano nel loop) sia solo un’aspirazione o un’idea guida realistica per le decisioni pratiche. In ogni caso, è un significativo tentativo di affrontare i problemi che le macchine intelligenti presentano.
Coevoluzione macchine ed esseri umani: siamo già nell’umanità aumentata
Tuttavia, credo che vi sia anche un altro modo di inquadrare la questione. Potremmo considerare ciò che sta accadendo oggi nel rapporto uomo-macchina come una nuova svolta nell’evoluzione del “nostro” (umano) autocontrollo.
Un’idea di base dello Scenario 1, quello apocalittico, è che le macchine intelligenti possano evolvere in modo completamente indipendente dagli umani. A me pare che questo sia un presupposto non corretto e non realistico. Le cose sembrano essere in un altro modo. Le macchine, più o meno intelligenti, fanno parte di un più ampio scenario (già attuale) uomo-macchina, popolato da molte cose unificate in una logica essenziale di avvicinamento delle tecnologie all’uomo, verso una progressiva integrazione.
Siamo, infatti, entrati in una fase in cui le tecnologie si avvicinano e si compenetrano con il corpo umano: gli esempi partono dalla tecnologia sul nostro corpo (es. dispositivi indossabili), alla tecnologia integrata con il nostro corpo, all’umanità aumentata (sensi, cognizione, movimento), all’interfaccia di segnali neurali invisibili fino alle interfacce neurali dirette.
Per usare il gergo di una delle più grandi società di analisi economica e informazione tecnologica, si dovrebbe dire che siamo già nell’era dell’umanità aumentata, dove la tecnologia si fonde con la biologia per estendere le capacità fisiche e mentali del corpo umano[12].
Sul versante accademico, è significativo che l’Università di Stanford (USA) abbia dedicato la sua conferenza di primavera 2021 all’Intelligence Augmentation, che viene descritto come il modo per far sì che l’intelligenza artificiale non sostituisca gli umani ma aumenti le loro capacità.
La conferenza è stata presentata a partire dalla domanda: come assicurarsi che l’Intelligenza Artificiale aumenti e non sostituisca gli esseri umani?[13].
Quale sarà quindi il soggetto, il “chi”, dell’autocontrollo/autodomesticazione? Le macchine da sole?[14] Questo non sembra probabile: c’è troppa compenetrazione tra uomini e macchine per poter dire che le macchine intelligenti si svilupperanno autonomamente e un bel giorno si manifesteranno a noi. Possono essere gli esseri umani da soli? Di nuovo, un’umanità antistorica non contaminata (dalla tecnologia) semplicemente non è mai esistita, come ci ha ricordato in modo magistrale Carlo Sini[15].
Gli esseri umani, nella loro situazione ed esperienza attuale, assomigliano piuttosto a persone “il cui funzionamento fisiologico è aiutato o dipendente da un dispositivo meccanico o elettronico”[16], che è la definizione del dizionario Oxford per “Cyborg”.
Non paia un modo solo suggestivo di porre la questione: studi recenti mostrano la possibilità di costruire sistemi di IA che siano progettati in modo da essere complementari alle abilità umane, secondo la logica per cui umano+macchina è meglio di solo umano o solo macchina.
Un interessante studio condotto in ambito medico indica questa strada: lo sviluppo di sistemi che possano integrare gli esseri umani per compiti percettivi, diagnostici e di ragionamento. Fino ad oggi, i sistemi che mirano ad integrare le abilità delle persone hanno impiegato modelli addestrati per essere il più precisi possibile in modo isolato. Lo studio dimostra come una strategia di apprendimento end-to-end possa essere sfruttata per ottimizzare le prestazioni combinate dei team uomo-macchina considerando le distinte abilità delle persone e delle macchine[17].
Per ora si tratta di un primo passo verso la complementarità, ma è una strada che mi pare molto interessante (e promettente anche in altri campi) e che conferma la tesi sostenuta in questo articolo.
In questa prospettiva realistica, le macchine non distruggeranno l’umanità. Gli esseri umani co-evolveranno con le macchine IA che loro stessi creeranno e che, in un modo o nell’altro, controlleranno anche attraverso regole sociali, etiche e giuridiche. Inoltre, gli umani, integrati con dispositivi meccanici o elettronici, continueranno la loro evoluzione sviluppando il loro autocontrollo come cyborg[18].
Coevoluzione degli uomini-macchine e della nostra nicchia ecologica
Le macchine IA fanno parte del gioco di azione-retroazione che avviene nella nicchia ecologica, con altre entità che la popolano come gli umani (con il loro sviluppo di istituzioni come il diritto, l’attività economica e lo scambio) e gli animali non umani.
La visione della nicchia ecologica ci permette di avere una visione più complessa e ricca del nostro futuro: non siamo agenti solitari, anche se siamo portatori di maggiori responsabilità che sono legate al nostro sviluppo di un ricco sistema di comunicazione e autocontrollo basato sul linguaggio e sulla neuroconsapevolezza.
Come tutto questo funzionerà e secondo quali dinamiche specifiche è un’agenda per un ulteriore progetto di ricerca. Per esempio, secondo l’ipotesi dell’autocontrollo/autodomesticazione, il potenziamento di umani+macchine non dovrebbe, necessariamente, essere funzionale alla loro aggressività, che potrebbe continuare a diminuire. Per altro verso, bisogna considerare che un aumento di potenza di solito genera problemi di controllo: cosa potrebbe spingere l’evoluzione verso l’autocontrollo o verso l’aggressività?
Quella indicata in questo articolo è insieme una prospettiva di ricerca e, al tempo stesso, una ragionevole missione da assumersi per i tempi correnti, piuttosto che una garanzia a scatola chiusa che tutto proceda per il meglio.
Note
- Una versione maggiormente argomentata della tesi sostenuta in questo articolo è apparsa (in inglese) in Online First – BLJ 1S/21 (Special Issue S1/2020 of BioLaw Journal – Rivista di BioDiritto) con il titolo “About coevolution of humans and intelligent machines: preliminary notes”, https://www.biodiritto.org/Online-First-BLJ/Online-First-BLJ-1S-21-About-coevolution-of-humans-and-intelligent-machines-preliminary-notes . ↑
- Si vedano https://humancompatible.ai/about e http://bit.ly/3r7am1L. ↑
- S. Hawking, R. Stuart, M. Tegmark, F. Wilczek “Transcending Complacency on Superintelligent Machines”, in The Huffington Post, 2014, available at http://bit.ly/3dd0fUf. Recently published: S. Russell, “Human Compatible”, Viking, 2019. ↑
- The Blog 04/19/2014 09:14 am ET Updated Jun 19, 2014; S. Hawking, R. Stuart, M. Tegmark, F. Wilczek, “Transcending Complacency on Superintelligent Machines”. ↑
- Come è noto Superintelligenza, Intelligenza generale (general intelligence o general purpose intelligence), Intelligenza artificiale in senso forte (strong AI) e Singolarità (Singularity) sono termini sostanzialmente equivalenti nel dibattito corrente (pur avendo origini storiche e sfumature concettuali diverse). ↑
- M. Mitchell, “We Shouldn’t be Scared by Superintelligent A.I.. “Superintelligence” is a flawed concept and shouldn’t inform our policy decisions”, in NYT, Oct. 31, 2019, http://nyti.ms/3cWx4nZ. ↑
- See https://www.youtube.com/watch?reload=9&v=dpSpwzyO0vU. ↑
- Wrangham, Richard. “The Goodness Paradox” (p.4). Knopf Doubleday Publishing Group: le citazioni che seguono son tratte dall’edizione originale inglese nel formato Kindle (trad. italiana: “Il paradosso della bontà”, Bollati Boringhieri, 2019). ↑
- Shilton D, Breski M, Dor D and Jablonka E (2020) “Human Social Evolution: Self-Domestication or Self-Control?” Front. Psychol. 11:134. doi: 10.3389/fpsyg.2020.00134. ↑
- T. Pievani, “How to Rethink Evolutionary Theory: A Plurality of Evolutionary Patterns”, in Evol Biol, 2015, DOI 10.1007/s11692-015-9338-3; K. Laland, B. Matthews, M.W. Feldman, “An introduction to niche construction theory”, in Evol Ecol., 30, 2016, 191-202. ↑
- Esempio significativo è lo “Stanford Institute for Human-Centered Artificial Intelligence”, http://stanford.io/317ttOv: uno dei cui direttori è la notissima computer scientist Fei Fei Lin (resa famosa dal progetto Imagenet). ↑
- IDC is a leading global provider of market intelligence, consulting services and events for the information technology, telecommunications and general technology markets: see https://www.idc.com/ (visited November 20, 2020). For the vision by IBM, see Rucas, “The Fourth Platform Revolution of IBM: From Hybrid Cloud to AI”, May 26, 2020, https://www.rucashk.com/the-fourth-platform-revolution-of-ibm-from-hybrid-cloud-to-ai/ (visited November 20, 2020). See also C. Wong, “Get ready for the ‘fourth platform’”, November 14, 2016, https://blog.allstream.com/get-ready-for-the-fourth-platform/ (visited November 20, 2020). ↑
- Traduzione mia. Si veda presso https://engineering.stanford.edu/events/hai-2021-spring-conference-intelligence-augmentation-ai-empowering-people-solve-global ↑
- E. Fosch‑Villaronga, C. Lutz, A.Tamò‑Larrieux, “Gathering Expert Opinions for Social Robots’ Ethical, Legal, and Societal Concerns: Findings from Four International Workshops”, International Journal of Social Roboticshttps://doi.org/10.1007/s12369-019-00605-z; A.P. Vargas, E. A. Di Paolo, Inman Harvey and Phil Husbands (eds), “The Horizons of Evolutionary Robotics”, The MIT Press, Cambridge MA 2014. The idea of a machine able to alter its own instructions is well rooted in Alan Turing ideas: see J. Copeland, “The Modern History of Computing”, in: The Stanford Encyclopedia of Philosophy, 2017. ↑
- Carlo Sini, “L’uomo, la macchina, l’automa. Lavoro e conoscenza tra futuro prossimo e passato remoto”, Bollati Boringhieri, Torino, 2009. ↑
- Traduzione mia ↑
- B. Wilder, E. Horvitz, E. Kamar, “Learning to Complement Humans”, arXiv:2005.00582v1 [cs.AI] 1 May 2020. ↑
- Sulla coevoluzione si vedano anche P. J. Richersona, R. Boyd, and J. Henrich, “Gene-culture coevolution in the age of genomics”, PNAS, May 11, 2010, vol. 107, suppl. 2, 8985–8992, https://doi.org/10.1073/pnas.0914631107; O. R. Goodenough, “Mind viruses: culture, evolution and the puzzle of altruism”, Social Science Information, Vol. 34, No. 2, P. 287 (1995). ↑