Lo sviluppo di innovativi sistemi di intelligenza artificiale, come Tong Tong, presentato nel gennaio 2024 alla mostra Frontiers of General Artificial Intelligence Technology dagli scienziati dell’Istituto di Pechino per l’Intelligenza Artificiale Generale (BIGAI) e definito dai media internazionali “il primo bambino AI al mondo”, si configura come un potenziale ennesimo punto di svolta nel campo dell’IA e in particolare nel campo dell’IA emotiva.
Tong Tong: un nuovo sistema di IA con proprie emozioni e valori
Come si esaminerà più analiticamente in seguito, infatti, un tale sistema, grazie ad alcune sue caratteristiche, sembrerebbe gettare i prodromi per un progressivo superamento dello iato intelligenza artificiale e intelligenza che, seppur in una prospettiva spiccatamente antropocentrica, potremmo definire “umana”. Fin dalle sue prime fasi di sviluppo, ancor prima di essere categorizzata nella locuzione “intelligenza artificiale”, già nell’articolo Computing machinery and intelligence che Alan Turing scrisse nel 1950 per la rivista Mind, l’intelligenza artificiale era vista principalmente come un’attività logica. L’obiettivo primario consisteva nel creare sistemi in grado di eseguire calcoli e analizzare dati più velocemente e meglio dell’uomo. Questi compiti, sebbene complessi, erano esclusivamente razionali e privi di qualsiasi dimensione emotiva. Alla luce del riconoscimento del profondo impatto delle emozioni sul comportamento umano e sui processi decisionali, soltanto intorno ai primi anni 2000, innovatori e ricercatori hanno, però, cominciato a considerare l’integrazione dell’intelligenza emotiva nei sistemi di intelligenza artificiale e a studiare l’affective computing. Questa trasformazione di prospettiva ha aperto le porte a una nuova era dell’intelligenza artificiale, non limitata alla mera esecuzione di compiti computazionali, ma finalizzata a comprendere, interpretare e, in alcuni casi, emulare le emozioni umane (Martinez-Miranda, 2005, pp. 329 ss.).
In questa prospettiva, Tong Tong, un’entità connotata da intelligenza artificiale che esiste e opera all’interno di un ambiente virtuale con cui è in grado di interagire autonomamente, appare come il segno di una ulteriore tappa dell’intelligenza artificiale verso quella che viene definita intelligenza artificiale generale (AGI o strong artificial intelligence).
È possibile sussumere nel novero dell’AGI quei sistemi progettati per eseguire una vasta gamma di compiti intelligenti, per pensare astrattamente e per adattarsi a nuove situazioni. Il sistema Tong Tong, caratterizzato da un coinvolgimento emotivo senza precedenti nel processo di sviluppo, promette, infatti, di manifestare sentimenti quali gioia, rabbia e dolore e la sua metodologia innovativa si distingue per un approccio alternativo alla simulazione dell’intelligenza umana, fondato sull’acquisizione di buon senso sociale e fisico, sulla promozione di comportamenti guidati da valori e su una comprensione estremamente simile a quella umana (Hunter, 2024).
Tong Tong è, infatti, una sorta di ologramma antropomorfo concepito con le fattezze e il sistema cognitivo di una bambina di 3 o 4 anni, che, però, opera nel suo ambiente virtuale e con cui l’utente interagisce attraverso uno schermo. Il sistema, secondo i suoi sviluppatori, può comprendere il linguaggio e apprendere compiti virtuali assegnati, come ad esempio semplici attività domestiche. In sostanza, può simulare realisticamente un processo di crescita, si ipotizza fino ai 18 anni, attraverso l’accumulo di esperienza. I ricercatori sostengono che Tong Tong possa dimostrare una forma di consapevolezza di sé, poiché se si disegna un puntino rosso sul suo viso ed è posto di fronte a uno specchio, sebbene virtuale, pulirà il puntino dal proprio volto anziché cercare di rimuovere il riflesso (Barbera, 2024). Va, inoltre, evidenziato che il caso di Tong Tong, seppur rappresenti forse il punto più alto dell’attuale approdo nel campo dell’intelligenza artificiale emotiva, non si pone certamente come un unicum. Si pensi in tal senso a titolo meramente esemplificativo ad EMO, sviluppato nei laboratori della Columbia University di New York, praticamente in contemporanea a Tong Tong.
Da quanto emerge dallo studio pubblicato sulla rivista Science Robotics si tratta, infatti, di un sistema di intelligenza artificiale emotivo, che questa volta, a differenza di Tong Tong, si innesta su un contenitore ‘fisico’, un hardware umanoide e antropomorfo e, contrariamente a quest’ultimo, non è dunque un mero artefatto virtuale. EMO non solo replica e si adatta alle espressioni dell’uomo con cui interagisce, ma per fornire maggiore autenticità ed evitare l’effetto sorriso tipicamente artificiale, è stato addestrato ad anticipare il sorriso dell’interlocutore. EMO, dunque, grazie all’addestramento tramite un set di dati video e sulla base di impercettibili – all’occhio umano – cambiamenti nel volto e nell’espressione, riesce a prevedere un sorriso in avvicinamento 839 millisecondi prima che questo avvenga ed è in grado di adattare il suo volto per sorridere prima o almeno simultaneamente a chi si trova di fronte. (Hu et al., 2024).
La distinzione con Tong Tong appare, però, evidente, non solo per un dato appunto fisico (i.e. la virtualità di quest’ultimo) ma soprattutto per la portata autonoma innovativa da cui è connotato. Tong Tong a differenza di sistemi come EMO non necessita di un input o stimolo o di un insegnamento specifico; è, infatti, in grado di autoassegnarsi compiti, apprendere autonomamente ed esplorare il suo ambiente virtuale.
Si ipotizzi, infatti, che un essere umano versi accidentalmente del latte nel suo ambiente virtuale, Tong Tong sarebbe in grado di dedurre da sé sulla base del suo background assiologico la necessità di pulire, senza bisogno che gli sia dato un compito in tal senso e troverebbe da sé un asciugamano per farlo. La caratteristica più distintiva di Tong Tong, risiede, dunque, nella sua capacità di autoassegnarsi mansioni e di comprenderne la necessità sulla base del buon senso e dei valori a cui è orientato. Ciò, dunque, a differenza dei chatbot basati sull’IA, che rispondono solo a compiti assegnati da agenti umani e non agiscono autonomamente se non viene loro esplicitamente richiesto o di robot avanzati che non operano in maniera autonoma, ma secondo un approccio human in the loop, necessitando dell’intervento di un agente umano coinvolto nel processo decisionale e che deve impartire istruzioni affinché agiscano. In riferimento al sistema, non a caso, il gruppo di ricercatori ha anche presentato il “test Tong”, inteso come sostituto del test di Turing per sistemi AGI, che esamina uno spettro di parametri molto più ampio rispetto al test di Turing (Peng et al., 2024).
Sistemi di intelligenza artificiale emotiva e rischi
Sistemi come Tong Tong, pur pensati con la funzione sociale di offrire un surrogato di un figlio o una forma di compagnia, in una società che invecchia progressivamente come quella cinese, o di accompagnare lo sviluppo e l’apprendimento dei bambini in maniera interattiva, pongono senza dubbio nuove sfide sia dal punto di vista etico, sia dal punto di vista giuridico. Se, come affermato dai suoi creatori, Tong Tong è in grado di definire nuovi compiti sulla base del buon senso e di valori simili a quelli umani, è in primo luogo necessario evidenziare la difficoltà, in una società spiccatamente multiculturale e in un’epoca di pluralismo etico, nell’individuare distintamente quali siano da considerarsi i valori e i principi comuni verso i quali orientare un tale sistema.
Accanto ai benefici che si possono enucleare, ad esempio sul piano emotivo ed affettivo, si pongono i problemi che connotano il novero di sistemi di emotional AI oggi emergenti. In primis, vi è il fatto che la riproduzione delle emozioni passa per uno step preliminare, i.e. il riconoscimento delle emozioni dell’interlocutore da parte del sistema, che avviene sulla base di indicatori biometrici, comportamentali e segnali psicologici. Da ciò emergono le possibili questioni connesse al diritto alla privacy e alla libertà di autodeterminarsi dell’individuo nonché a manifestare le proprie emozioni. I dati emotivi si configurano come dati ultrasensibili, riconducibili all’ombrello protettivo ex art. 21 Cost., in quanto estrinsecazione della libertà di espressione e intima manifestazione della propria personalità, potenzialmente compressa dalla consapevolezza di essere analizzati sulla base della manifestazione delle proprie emozioni, così da poter pensare di delineare una sorta di habeas mentem. Un’altra preminente questione attiene al rischio di esiti discriminatori conseguenti all’uso acritico di tali sistemi determinando una violazione del principio di eguaglianza.
Le potenziali conseguenze discriminatorie sono, infatti, dovute alla capacità di tali tecnologie di captare o riconoscere con accuratezza solo le emozioni della cultura predominante o di chi ha programmato il modello, con discriminazione delle classi non rappresentate (c.d. “neo-colonialismo emotivo”) nonché all’eccessivo riduzionismo di tali teorie (Latif et al., 2022 p. 5). Alla luce della riconosciuta infondatezza scientifica e del superamento della Basic Emotion Theory (BET), sviluppata dallo psicologo Ekman negli anni ’60, che sosteneva che si potesse dedurre universalmente lo stato emotivo delle persone osservando espressioni facciali e microespressioni degli individui, si ritiene, infatti, che non vi sia corrispondenza assoluta fra espressione ed emozione. Tali modelli si basano, infatti, su teorie non universalmente riconosciute né universalmente valide e comunque soggette da decenni ad aspre critiche. Da ciò consegue che i dati assunti come indicatori non siano da ritenersi universalizzabili: a un dato espressivo non è possibile associare in maniera univoca una determinata emozione, in quanto le modalità di espressione variano, non solo fra gruppi etnici o socio-culturali diversi, ma anche fra diverse persone all’interno di uno stesso gruppo di appartenenza e addirittura spesso in diversi momenti della vita o della giornata di un singolo individuo (Purdy et al., 2019).
Sistemi di intelligenza artificiale emotiva e soggettività giuridica
Sulla scia di quanto finora detto, nel contesto di un’intelligenza artificiale emotiva progressivamente potenziata in sistemi come Tong Tong, emerge un’ulteriore questione, seppur ancora meramente speculativa, riguardante la possibilità di attribuire personalità giuridica o di riconoscere una soggettività giuridica ad AI agents. Nonostante vi siano molti dubbi sull’utilità di questa attribuzione e sia prevalente la posizione contraria a tale riconoscimento, la questione non è del tutto relegabile al mondo della science-fiction (D’Aloia, 2022, p. 673). Sul tema v’è da dire, infatti, che tradizionalmente la dottrina e il dibattito filosofico tendono a individuare un discrimen fra intelligenza artificiale e quella “umana” sulla base di un elemento mancante – c.d. aboutness dell’IA – identificabile, per dirla con Harari, nella coscienza, da cui i sistemi di IA si risolverebbero, pertanto, in sistemi dotati di un’intelligenza senza coscienza (D’Aloia, 2020, p. 61, Harari, 2017, p. 539).
Per dirla con Damasio, in particolare, “gli organismi viventi sono costruiti secondo algoritmi e li usano per far funzionare le loro macchine genetiche, ma non sono essi stessi algoritmi”. La natura umana, dunque, per quanto sia costituita anche di algoritmi, non si riduce a questi comprendendo anche valori, sentimenti, sistemi morali (Damasio, 2017, p. 233). Considerata, però, la crescente ed esponenziale capacità delle AI based technologies nel replicare le componenti emotive avvicinandosi sempre più alla realtà, proprio grazie allo sviluppo di sistemi avanzati e dall’ampio coinvolgimento emozionale come Tong Tong, è opportuno interrogarsi sulla possibilità di un futuro superamento di questa cristallizzata polarizzazione.
Connotazione emozionale e valenza sociale dei sistemi AI “human-like”
Un focus va posto anche sulla connotazione emozionale e la conseguente valenza sociale che possono assumere determinati sistemi di IA con caratteristiche human-like o deputati a funzioni di supporto emotivo, specie a beneficio di categorie vulnerabili (D’Aloia, 2019, p. 5). Ciò soprattutto nel caso in cui tali sistemi di IA fungano da entità “sostitutive” tali da far sì che il soggetto che vi interagisca vi proietti propri desideri o emozioni, analogamente a quanto potrebbe accadere a un adulto senza figli che “adotti” Tong Tong. Non ci si può, infatti, esimere dall’evidenziare che sistemi in grado di assumere comportamenti realistici, rispondere a gesti sociali e utilizzare movimenti ed espressioni facciali per comunicare emozioni in un modo che percepiamo immediatamente come umano mirano specificamente alle risposte biologiche umane involontarie, influenzando così la nostra percezione. Si menziona a tal proposito un interessante esperimento condotto nel 2013 da ricercatori del MIT Media Lab in Massachusetts che, dopo aver trascorso un paio d’ore in una stanza con dei dinosauri robotici simili a cuccioli domestici che reagiscono al comportamento umano con movimenti realistici, si rifiutavano, difronte alle richieste dei ricercatori, di colpirli con violenza. Proprio in forza dei legami psicologici più intensi che si instaurano fra uomo e taluni sistemi di intelligenza artificiale o robot sociali si potrebbero innescare, pertanto, implicazioni tali da consentire un’evoluzione nello status giuridico dei sistemi.
L’effetto sostituzione: come AI e algoritmi incidono sulle relazioni sociali
Il costituzionalista americano Jack Balkin parla del c.d. substituion effect, proprio in riferimento alla trasformazione delle relazioni sociali dovute al fatto che robot, agenti di IA e algoritmi sostituiscono in sempre più funzioni gli esseri umani arrivando a configurarsi come “persone a destinazione specifica” c.d. special-purpose people (Balkin, 2017, p. 14). Dalla funzione sostitutiva assunta da tali sistemi consegue, infatti, la tendenza dell’uomo a proiettare su di essi valori ed emozioni, specie nel caso in cui si tratti di sistemi dotati di elevate capacità replicative delle caratteristiche sensoriali e motorie proprie della natura umana. A tal proposito, Balkin chiarisce, però, che tale effetto sostitutivo dispiega la sua portata in maniera solo parziale, non costante, ma” instabile e opportunista” tanto da far sì che, in base ai diversi contesti, sistemi come social robots possano essere considerati talvolta alla stregua di persone o animali e talaltre alla stregua di cose (Balkin, 2015, p. 56; D’Aloia, 2022, p. 675).
A fronte della progressiva contaminazione che intercorre fra mondo umano e artificiale e della summenzionata attribuzione di una componente e di un valore emotivo da parte degli uomini a tali oggetti ‘agenti’ – o ‘attanti’ nella terminologia usata da Gunther Teubner per riferirsi ai processi relazionali con cui questi partecipano alla comunicazione sociale (Teubner, 2015, p. 51; D’Aloia, 2022, p. 672) – si potrebbe in futuro addivenire a situazioni di riconoscimento di una soggettività (anche parziale) a tali sistemi, in analogia al processo che ha portato negli ultimi decenni diversi ordinamenti giuridici a modificare lo status degli animali (Darling, 2016, pp. 13 ss.).
Verso sistemi di IA con uno status giuridico?
Ciò può dirsi quanto mai vero, muovendo dal maturato convincimento che lo stesso concetto di persona, seguendo linee argomentative già proposte da Kelsen, sia da risolversi in una fictio iuris utilizzata nei secoli per aggirare le barriere della soggettività naturalisticamente intesa. In accordo col giurista austriaco, infatti, il concetto stesso di persona non sarebbe altro che un costrutto giuridico, un fascio di norme che determina l’imputazione di diritti e doveri, contrassegnato da un termine che deriva dal latino e, non a caso, significa etimologicamente “maschera”; un concetto, questo, che può andare oltre il sostrato fisico naturalistico, come esemplificato dal caso della schiavitù nell’antica Roma, o prescindere da questo, come evidente nel caso degli enti con personalità giuridica nei sistemi giuridici contemporanei. Dinnanzi a sistemi sempre più autonomi – si ricorda che per Kant è proprio l’autonomia il fondamento della dignità dell’uomo e di ogni natura ragionevole – e in grado di replicare in maniera quantitativamente rilevante anche il dato emotivo, una volta appannaggio dell’intelligenza c.d. umana, è lecito chiedersi che cosa, in futuro, col progresso tecnologico, potrà ostare al riconoscimento di uno status giuridico anche ai sistemi di IA o a un’apertura in tal senso?
Prendendo le mosse dall’obiezione, definita da Solum “The Missing-Something Argument“, per cui i sistemi di IA non potrebbero essere soggetti di diritto in quanto difetterebbero di caratteristiche come intenzionalità, emozioni, interessi propri esperienza e percezione mentale, sintetizzati da alcuni nell’elemento della coscienza, si evidenzia che per tale obiezione è possibile ipotizzare un superamento, nonché un tramonto delle rigide categorie tradizionali (Solum, 1992, pp. 1231 ss..). Sul fronte dell’estensione di una personalità giuridica a entità di AI, volendo rispondere alla domanda cui prodest?, si evidenzia che questa potrebbe qualificarsi come condizione necessaria, seppur non sufficiente, ad esempio, per considerare i sistemi di AI, come potenziali titolari di diritti d’autore, sebbene per affrontare questa questione sarebbe necessario indagare la portata definitoria di ulteriori concetti chiave come quello di creatività (Doomen, 2023, p. 284). Sul punto si segnala, però, che, ad oggi, la dottrina prevalente, esclude la possibilità di assegnare la titolarità del diritto d’autore dell’opera interamente e automaticamente generata da un sistema di IA all’IA stessa e propone di anticipare l’indagine sull’originalità dell’atto creativo, necessario ai fini del riconoscimento della tutela autoriale, alla fase di programmazione e addestramento dell’AI (Capparelli, 2020, p. 335).
Anche alla luce di una rilettura dell’art. 1 della Dichiarazione Universale dei Diritti Umani, che pone come elementi fondanti la natura umana la ragione e la coscienza, bisognerebbe chiedersi, a questo punto, se basti come elemento escludente il mero fatto che la ragione e la coscienza di cui arriverebbero ad essere dotati i sistemi di IA siano per l’appunto artificiali. Conseguentemente sarebbe necessario domandarsi se una coscienza e una ragione artefatte abbiano natura intrinsecamente diversa da quella umana e, in caso negativo, se sia necessario pensare a dei nuovi elementi discretivi tali da connotare la sola intelligenza e natura umana.
Conclusioni
Alla fine, è proprio l’avvento di sistemi come Tong Tong – sempre più sofisticati e mimetici nella loro capacità di replicazione/imitazione (se non qualitativamente, almeno quantitativamente) dell’aspetto emotivo e ‘assiologico’ umano – a mettere in crisi questa dicotomia. Dinanzi all’impatto di queste trasformazioni, il concetto stesso di natura umana, in accordo con quanto sostenuto da Serres con l’idea di hominescence, assume contorni più labili e viene messa in discussione, perdendo così progressivamente i netti confini che la distinguono sia dagli esseri viventi non umani, sia dalle cose.
Questo processo pone così inevitabilmente all’attenzione dello studioso nuove riflessioni e il ripensamento di alcune categorie giuridiche.
Bibliografia
Balkin J. M., The Path of Robotics Law, in California Law Review Circuit, 6, 2015, pp. 45 – 60.
Balkin J. M., The Three Laws of Robotics in the Age of Big Data, in Ohio State Law Journal, 78, 1217, 2017.
Barbera D., TongTong, la bambina virtuale per le famiglie senza figli, in Wired Online, 2024, https://www.wired.it/article/tongtong-ai-bambina-3-anni-cina/.
Capparelli M., Le nuove frontiere del diritto d’autore alla prova dell’Intelligenza artificiale, in Ruffolo U. (a cura di), Intelligenza artificiale – Il diritto, i diritti, l’etica, Milano, Tech e Law, 2020, pp. 341-343.
D’Aloia A., Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in BioLaw Journal, 1, 2019, pp. 3 – 31.
D’Aloia A. (a cura di), Intelligenza artificiale e diritto. Come regolare un mondo nuovo. Milano, FrancoAngeli, 2020.
D’Aloia A., Intelligenza artificiale, società algoritmica, dimensione giuridica. Lavori in corso, in Quaderni Costituzionali, 3, 2022, pp. 651 – 683.
Damasio A., Lo strano ordine delle cose. La vita, i sentimenti e la creazione della cultura, Milano, Adelphi, 2017.
Doomen J., The artificial intelligence entity as a legal person, in Information and Communications Technology Law, Vol. 32, n. 3, 2023, pp. 277 – 287, https://www.tandfonline.com/doi/epdf/10.1080/13600834.2023.2196827?needAccess=true.
Darling K., Extending Legal Rights to Social Robots: The Effects of Anthropomorphism, Empathy, and Violent Behavior Towards Robotic Objects, in Robot Law, Calo, Froomkin, Kerr eds., Edward Elgar 2016, https://robots.law.miami.edu/wp-content/uploads/2012/04/Darling_Extending-Legal-Rights-to-Social-Robots-v2.pdf.
Harari Y., Homo Deus. Breve storia del futuro, Milano, Bompiani, 2017.
Hu Y., et al., Human-robot facial coexpression, in Science Robotics, 9 (88), 2024, https://www.science.org/doi/10.1126/scirobotics.adi4724.
Hunter W., Meet the ‘world’s first AI child’: Chinese scientists develop a creepy entity dubbed Tong Tong that looks and acts just like a three-year-old kid, in Daily Mail Online, 2024, https://www.dailymail.co.uk/sciencetech/article-13060507/AI-child-Chinese-scientists-creepy-Tong-Tong.html.
Latif S. et al., AI-Based Emotion Recognition: Promise, Peril, and Prescriptions for Prosocial Path, in Human – Computer Interaction, 14, 2022, https://arxiv.org/pdf/2211.07290.
Martinez-Miranda J. et al., Emotions in human and artificial intelligence, in Computers in Humana Behavior, 21, 2005, pp. 323 – 341.
Peng Y. et al., The Tong Test: Evaluating Artificial General Intelligence Through Dynamic Embodied Physical and Social Interactions, in Engineering, Preprints, 2024, v https://doi.org/10.1016/j.eng.2023.07.006.
Purdy M. et al., The Risks of Using AI to Interpret Human Emotions, in Harvard Business Review Home, 2019, https://hbr.org/2019/11/the-risks-of-using-ai-to-interpret-human-emotions.
Serres, M., Hominescence, Paris, Le Pommier, 2001.
Solum L. B., Legal Personhood for artificial intelligences, in North Carolina Law Review, n. 4/1992, pp. 1231 ss..
Teubner G., Ibridi e attanti. Attori collettivi ed enti non umani nella società e nel diritto, Milano, Mimesis, 2015.