Cosa significa entrare in empatia con un agente artificiale? Perché dovrebbe essere importante? Soprattutto, un dispositivo intelligente potrebbe sembrare “sovrappensiero”, come una persona? Sarebbe utile rivolgere a questo dispositivo l’idioma: “Un penny per i tuoi pensieri… artificiali”?
Un penny per i tuoi pensieri
Citato presumibilmente per la prima volta nel libro A Treatyce on the last thynges, di Sir Thomas More nel 1535, l’idioma “a penny for your thoughts” (“un penny per i tuoi pensieri’) è diventato simbolo di empatia e vicinanza emotiva, in quanto rappresenta l’invito rivolto a un soggetto, che viene percepito sovrappensiero, ad aprirsi e condividere le sue preoccupazioni, qualora ci fossero.
L’empatia è la capacità di immaginare e comprendere ciò che un’altra persona sta vivendo nel contesto di una sua specifica cornice concettuale, cioè della schematizzazione di una situazione, di uno stato o di un evento che la persona delinea nella sua mente.
È intuitivo che concetti quali condivisione di pensiero ed empatia siano connessi fra loro. Non è possibile empatizzare, e quindi entrare in quella cornice concettuale, se non si riuscisse ad ascoltare le intime preoccupazioni, i dialoghi interiori dell’altra persona. Si potrebbero forse immaginare, se la persona fosse conosciuta, se fossero noti il suo vissuto e la sua esperienza, ma non se ne potrebbe avere vicinanza e condivisione piena.
È possibile contestualizzare tutto questo nell’ambito degli agenti artificiali?
Il ruolo delle emozioni nelle AI
Lo sposalizio tra emozioni e intelligenza artificiale non è affatto recente, e si prevede che si rafforzerà nel corso dei prossimi anni. Innumerevoli sono stati i fronti di ricerca che si sono delineati nell’ultimo trentennio, e che mirano ad indagare le diverse sfaccettature ed i collegamenti fra affettività e tecnologia. Si parla di Affective Computing, Emotional AI, di Computational Emphaty, campi di ricerca verticali alle più tradizionali aree di ricerca della Human Computer Interaction, della Sentiment Analysis, e del Natural Language Processing.
L’importanza della componente emotiva artificiale venne riconosciuta da Picard [1] che riteneva “dovesse esserci una forma di ragionamento emotivo affinché ci fosse una vera forma di intelligenza artificiale”. Fu proprio Picard a introdurre la definizione di Affective Computing, a cui seguirono altre aree di ricerca.
Sono aree di ricerca interdisciplinare che combinano psicologia, neuroscienze, cognitivismo, intelligenza artificiale e robotica, con lo scopo di sviluppare sistemi e dispositivi che, oltre a riconoscere, interpretare e reagire opportunamente alle emozioni umane, siano in grado loro stessi di fare esperienze emotive. Non soltanto, quindi, risposte/adattamento ad emozioni riconosciute dell’essere umano con il quale si sta interagendo, ma un’attiva e autentica esperienza emozionale, “vissuta” dallo stesso sistema artificiale. Emozioni simulate, o artificiali, che emergono in base al contesto e che potrebbero essere riconosciute a loro volta dagli esseri umani.
L’impatto è notevole. Un dispositivo “emotivo ed empatico” potrebbe influenzare e migliorare l’esperienza di interazione uomo-macchina, creando una forma di “relazione” più significativa, e non un mero interfacciamento d’uso dello stesso dispositivo. Se si stabilisse una relazione empatica tra l’utente e il dispositivo, oltre ad esibire comportamenti intelligenti, lo stesso dispositivo diventerebbe uno strumento più affidabile, più vicino alle esigenze della persona, consentendo una “profilazione” di più alto livello e rispondendo in modo sempre più appropriato ed “emotivamente” vicino all’utilizzatore.
Concetti come usabilità (grado di facilità e soddisfazione nell’uso dello strumento tecnologico), portabilità delle competenze (applicazione delle stesse conoscenze a tutti gli strumenti), affordance (intuitività d’uso), che sono stati oggetto di studio e attenzione negli ultimi anni, tanto da richiedere processi di standardizzazione da parte degli organi preposti (ISO, COMEST), vengono oggi arricchiti da concetti come “sintonia digitale”, “Intelligenza artificiale emotiva”, “empatia computazionale” [2].
È noto che la tecnologia ha prodotto interessantissimi risultati nell’ambito del riconoscimento delle emozioni della persona [3][4], tanto che ne sono stati attenzionati perfino gli aspetti etici [5]. Algoritmi avanzati in grado di discriminare le emozioni provate dagli utenti, analizzandone le espressioni facciali, le movenze, la prosodica del linguaggio e il tono utilizzato, e che attivano nel dispositivo le risposte e i comportamenti più opportuni, attribuendo quindi a tali dispositivi abilità affettive.
Sono sistemi basati su tecniche di machine e deep learning, che hanno appreso le corrispondenze tra le su citate features (quindi tra le espressioni linguistiche sia scritte che parlate, suoni, movenze, espressioni) con le emozioni correlate, e sono quindi divenuti in grado di riconoscerle autonomamente, su scala generale e per qualsiasi potenziale utente. E dopo averle riconosciute, sono programmati per agire opportunamente, più spesso sulla base di regole predefinite. Sono quindi spesso sistemi affettivi ibridi, in cui coesistono apprendimenti supervisionati delle emozioni e regole ad-hoc per la definizione della risposta all’emozione dell’utenza.
Ad esempio, un sistema affettivo potrebbe essere in grado di riconoscere un atteggiamento rabbioso dell’utente, e rispondere proponendo una serie di esercizi rilassanti, o suggerendo strategie di auto-regolazione e controllo. Analogamente, potrebbe produrre messaggi di incoraggiamento e/o motivazionali nel caso in cui rilevasse che la persona presenti stati di tristezza o, nel peggiore dei casi, depressione.
Ancora, si parla ormai diffusamente di “cyberterapia“ [6], nell’impiego di sistemi affettivi a supporto di persone con disturbi nella comunicazione emotiva, come l’autismo.
Si comprende quindi l’importante ruolo sociale che sistemi di questo tipo potrebbero ricoprire. Basti pensare alla situazione emergenziale appena conclusa, in cui l’isolamento forzato avrebbe potuto essere “assistito” e supportato da tali macchine, proponendo nuovi stimoli alle situazioni di chiusura sfociate in noia e apatia, e fronteggiare la maggiore labilità psicologica, come emersa dalle rilevazioni ISS ufficiali [7].
A questo livello, si parla di riconoscimento delle emozioni umane da parte delle macchine. Si ha una forma di empatia a seguito del comportamento adattativo dalla macchina a supporto di tale emozione. Ma per divenire effettivamente empatica, secondo la definizione di Picard, la macchina dovrebbe “fare sue” queste emozioni, comprenderle in modo più significativo, “farne esperienza”.
La branca di ricerca che si occupa di instillare comportamenti esperienziali emotivi nelle macchine, è quella che ha come obiettivo la definizione di modelli computazionali di emozioni, ovvero modelli che si ispirano alle teorie della psicologia umana e che tentano di riprodurli artificialmente.
Le teorie delle emozioni e i modelli computazionali
Focus della modellazione computazionale dei processi emotivi umani, è il tentativo di spiegare formalmente i fenomeni alla base dell’esperienza emotiva, in modo da poterli instillare nelle macchine.
Tali modelli tentano di implementare i meccanismi che valutano gli stimoli esterni, causano l’emergenza di emozioni corrispondenti a tali stimoli, e generano i comportamenti ad esse correlati, che possono riguardare sia la sfera fisica (reazione fisiologica dell’emozione, come battito cardiaco accelerato, tremore, etc..) che psicologica (controllo, auto-regolazione, presa di consapevolezza dell’emozione).
Il processo di sviluppo di tali modelli, secondo la letteratura scientifica, prevede che si faccia riferimento ad almeno uno dei fondamenti teorici alla base della psicologia umana [8] [9], e una volta scelto tale fondamento, il processo prosegue con la rappresentazione del fondamento in linguaggio formale, poi in linguaggio di programmazione e si conclude con l’esecuzione del codice sulla macchina per la validazione.
Le teorie di appraisal
Tra i fondamenti teorici a cui si fa spesso riferimento, trovano ampia considerazione le teorie di appraisal [10] (o di valutazione), risalenti agli anni sessanta. Secondo tali teorie, le emozioni umane sono frutto dell’attività di coscienza e di valutazione della situazione che la persona sta vivendo. La persona cioè prende consapevolezza dei fatti emotivamente rilevanti nel contesto in cui si trova, e da tale consapevolezza scaturisce una personale valutazione che porta all’emozione. Un’emozione quindi emerge in base ai soggettivi significati, interessi e scopi che la persona attribuisce a quei fatti [11] ovvero in funzione del grado di rilevanza e pertinenza che tali fatti hanno per il sè [12].
Le teorie di valutazione associano le emozioni ai processi cognitivi, ed affermano che l’attivazione delle emozioni necessita dell’elaborazione cognitiva della situazione. Elaborazione che sembra essere cosciente e consapevole: le emozioni infatti differiscono dai riflessi e dagli istinti perché sono l’esito di un’attività di conoscenza e valutazione dei vari stimoli [13]. Non è la situazione che genera l’emozione, ma è il significato ragionato e individuale che ogni persona le attribuisce.
La valutazione delle emozioni e la loro intensità emerge da specifici parametri o variabili, note come variabili di appraisal, il cui valore viene attribuito in modo diverso da ogni individuo. Tali variabili formalizzano la dipendenza fra gli eventi e le componenti emotive [13].
Innumerevoli sono i modelli computazionali che si ispirano a queste teorie, come EMA [14][15].
Opposte a tali teorie, vi sono quelle che considerano le emozioni come un insieme di risposte chimiche e neuronali che definiscono uno schema distintivo, noto come “marcatore somatico” di Damasio [16]. Ciò allude al fatto che tutti noi disponiamo di un’impronta originale emotiva, che ci influenza al momento in cui reagiamo agli stimoli. Le emozioni quindi precedono i sentimenti che si ritiene abbiano una relazione più profonda con i pensieri.
Modelli come SEAI [17] fanno riferimento a questo fondamento teorico.
Indipendentemente dalla scelta della base teorica di riferimento, emerge una chiave comune fra queste. Il pensiero è importante nell’esperienza emotiva. Sia nella fase di valutazione della situazione nelle teorie di appraisal, sia nel momento della presa di coscienza della reazione corporale vissuta nella teoria del marcatore somatico, il pensiero emerge.
Il pensiero, che induce ad una forma di dialogo con il sé, permette la concreta esperienza emotiva. Questa prospettiva è stata supportata da filosofi, psicologi e neuroscienziati che hanno a lungo studiato i ruoli della voce interiore in ambito cognitivo e psicologico, comprese l’affettività e le passioni [18][19].
Nonostante i contributi esistenti abbiano prodotto interessanti risultati nell’ambito dei sistemi affettivi, il ruolo del dialogo interiore come uno dei processi fondamentali nella formazione di emozioni artificiali non è stato studiato ancora nel dettaglio, e rappresenta una nuova frontiera di ricerca nei modelli computazionali delle emozioni.
Il ruolo del pensiero nell’esperienza emotiva
La voce interiore è la forma linguistica dei pensieri. È un dialogo, non necessariamente ben formato nella sintassi, che l’individuo intrattiene con sé stesso. Una persona sperimenta tale dialogo privato quando commenta fra se e se verbalmente le situazioni, quando ripete un concetto per memorizzarlo, o quando tende a concentrarsi sugli aspetti che ritiene rilevanti nelle varie situazioni. Il dialogo privato permette di prevedere e pianificare azioni, prendere decisioni, divenire coscienti e consapevoli dei fatti e degli eventi.
Il legame tra il discorso interiore e le emozioni venne enfatizzato per la prima volta da Vygotsky nel suo lavoro Theory of Emotions [21]. In questo studio, si sottolinea l’importanza di considerare l’anima degli individui umani come strettamente correlata alla manifestazione corporea, e non ritenere solo il corpo come principale fonte di esperienza delle emozioni. Diviene fondamentale l’interconnessione dinamica e dialettica tra vita mentale e corpo, che influenza le esperienze psicologiche. Secondo questa teoria, i pensieri sono lo strumento mediatore dell’esperienza di sé e del contesto, elicitati infine dalle parole.
Quando si prova un’emozione, il pensiero fornisce i mezzi per vivere questa esperienza. Tale interconnessione si evolve e fluttua nel corso della vita, ed è bidirezionale: dalla sfera affettiva al pensiero, e dal pensiero alla sfera affettiva. La parola nomina il sentimento, e il sentimento, quindi, è incanalato nel pensiero attraverso la parola.
L’esistenza del collegamento pensiero-affettività è stata dimostrata anche da Morin [22], i cui studi evidenziano che i contenuti comuni del discorso interiore riguardino anche la valutazione degli stati emotivi. Parlando da soli, è possibile vivere e prendere coscienza dell’esperienza emotiva, autoregolarsi e agire in modo appropriato.
La stessa prospettiva è sostenuta da Lazarus [23] e, in generale, dai teorici dell’appraisal: i pensieri sono indispensabili nell’affettività perché il pensiero si manifesta come primo step nella sequenza dei processi cognitivi umani che inducono a un’esperienza emotiva. Più precisamente, la sequenza inizia quando uno stimolo motiva la persona, seguito da un pensiero in forma linguistica associato a quello stimolo, e termina con l’esperienza di una risposta fisiologica o psicologica, che è l’emozione. Pertanto, il ruolo del pensiero nel provare emozioni è fondamentale.
Emozioni e dialogo interiore nei robot
Recenti studi in Robotica e IA suggeriscono che i robot che “pensano ad alta voce” [24] durante un’attività di cooperazione con l’essere umano, inducono un feedback positivo nella controparte umana, migliorando il raggiungimento degli obiettivi della stessa cooperazione. Esteriorizzando la sua voce interiore, il robot diventa più trasparente perché spiega i processi decisionali sottostanti il suo comportamento.
Implementata questa nuova abilità, lo stesso gruppo di ricerca ha adesso possibilità di indagare il legame tra discorso privato del robot ed emozioni artificiali. Il punto di partenza è proprio la ben nota correlazione pensiero-emozione, e si sta indagando il ruolo che il discorso interno, intrattenuto dal robot per la valutazione cognitiva della situazione (come stabilito dalle teorie di appraisal), gioca nell’ambito dell’interazione affettiva uomo-robot.
Il dialogo interiore simula la riflessione interna che consente la valutazione del contesto. Usando il discorso privato, il robot può focalizzare la sua attenzione sugli elementi rilevanti del contesto, acquisendo le informazioni necessarie per calcolare le variabili di appraisal. Come detto, tali variabili rappresentano un legame tra il contesto e l’emozione, ed una volta che il robot ha costruito la sua schematizzazione concettuale sulla situazione, può attribuire valori a tali variabili, e può infine calcolare l’emozione corrispondente alla configurazione di variabili, “sperimentandola”.
Per esempio, si può immaginare la situazione in cui venga richiesto al robot, in fase di collaborazione, di recuperare un certo oggetto. Mediante il dialogo privato stimolato dal comando ricevuto, il robot ragionerà sul fatto che dovrà rilevare e riconoscere quell’oggetto, determinarne la posizione e quindi pianificare il movimento opportuno dei suoi giunti, che gli consentirà di prendere l’oggetto richiesto, assolvendo con successo il comando. Se tutto andrà come previsto, le variabili di appraisal condurranno ad un’emozione positiva. Supponiamo però che il robot non riesca a rilevare, mediante il suo algoritmo di identificazione degli oggetti, quello richiesto. Ciò scatenerà una diversa forma di ragionamento, mediante il quale il robot andrà a settare le variabili di appraisal ad un valore corrispondente ad un’emozione negativa, quale la tristezza, per non poter adempiere al comando ricevuto.
Il nuovo modello computazionale basato sul discorso interiore tiene conto della specificità e delle caratteristiche del robot, in accordo a quanto conclamato dalle teorie sulle emozioni, e cioè che tali esperienze sono altamente soggettive, e dipendono dalle specificità di ognuno.
Una delle sfide è stata proprio l’identificazione delle caratteristiche distintive degli artefatti (di un robot nella particolare sperimentazione presentata). Alcuni esempi relativi a queste specificità sono le condizioni di funzionamento interno del robot (come lo stato di carica della batteria, lo stato dei giunti, la temperatura dei motori interni e dei giunti stessi), o ancora condizioni esterne percepite (come i livelli di disordine e rumore nell’ambiente circostante, che potrebbero influenzare la percezione del robot e la sua capacità di discriminare i segnali). Tutti questi aspetti dovrebbero contribuire alla valutazione del contesto e all’esperienza emotiva risultante.
Primi risultati hanno dimostrato che le prestazioni del modello che lega dialogo privato ed emozioni, sono in linea con le tendenze emotive tipiche degli adulti in buono stato di salute, quando affrontano situazioni stressanti {trend stabiliti nella letteratura psicologica e raccolti mediante il test SCPQ [25]), mostrando che, nelle stesse situazioni, le reazioni emotive del robot sono quelle attese secondo tali trend.
Altro aspetto fondamentale è che, coinvolgendo il discorso privato overt, ovvero a voce alta, l’essere umano può ascoltare i processi sottostanti che generano emozioni, e può comprende le motivazioni dello stato emotivo del robot, aprendo le porte ad una forma di “empatia” uomo-robot. Tale aspetto è stato indagato ponendo alla valutazione di una cinquantina di partecipanti un insieme di atti interattivi tra un robot e un attore umano. In tali atti interattivi è stato rappresentato un fatto emotivamente rilevante (ad esempio, l’attore ha alzato la voce per dare un comando al robot, oppure ha compiuto un’azione non prevista, o ancora l’ambiente era rumoroso), che ha scatenato il ragionamento emotivo nel robot. Questo ragionamento è stato espresso dal robot a voce alta.
I partecipanti alla sperimentazione, non conoscevano a priori a cosa avrebbero assistito, né tanto meno erano stati informati dell’abilità del robot di dialogare con sé stesso. Valutando i questionari somministrati a tali partecipanti, seguendo uno specifico protocollo, è emerso l’instaurarsi di un alto livello di empatia tra essi e il robot, dal momento che erano in grado di rilevare una forma di esperienza emotiva vissuta dal robot, ed anche di identificare la corretta emozione.
Ulteriori approfondimenti sono in corso di indagine, e riguardano l’estensione del set emotivo utilizzato (fino ad ora il robot è in grado di valutare solo le 5 emozioni fondamentali di Ekman [26], ovvero rabbia, tristezza, gioia, paura, sorpresa e disgusto) e l’embodiment dell’emozione generata, che mira a far assumere al robot “atteggiamenti” coerenti all’emozione.
Conclusioni
Sembra quindi che si sia fatto un piccolo passo avanti nell’instaurarsi di una relazione più empatica uomo-robot, permettendo agli esseri umani di richiedere al robot l’attivazione del ragionamento che porta alla valutazione di un’emozione. Siamo cioè in grado di poter dire oggi al robot: “Un penny per i tuoi pensieri artificiali”.
Bibliografia
[1] Picard, R. W. (1997). Affective computing. The MIT Press.
[2] Ana Paiva et al. “Empathy in virtual agents and robots: A survey”. In: ACM Transactions on Interactive Intel-ligent Systems (TiiS) 7.3 (2017), pp. 1–40
[3] Marechal, C. et al. (2019). Survey on AI-Based Multimodal Methods for Emotion Detection. In: Kołodziej, J., González-Vélez, High-Performance Modelling and Simulation for Big Data Applications. Lecture Notes in Computer Science(), vol 11400. Springer, Cham.
[4] Maryam Imani, Gholam Ali Montazer, A survey of emotion recognition methods with emphasis on E-Learning environments, Journal of Network and Computer Applications, 2019, ISSN 1084-8045.
[5] Saif M. Mohammad. 2022. Ethics Sheet for Automatic Emotion Recognition and Sentiment Analysis. Computational Linguistics, 48(2):239–278.
[6] Wiederhold, B. K., & Wiederhold, M. D. (2004). The future of cybertherapy: improved options with advanced technologies Cybertherapy (pp. 263-270): IOS Press.
[7] https://www.epicentro.iss.it/coronavirus/sars-cov-2-salute-mentale
[8] J. Broekens et al. Challenges in computational modeling of affective processes IEEE Transactions on Affective Computing (2013)
[9] L.-F. Rodríguez et al. Modeling the interaction of emotion and cognition in autonomous agents Biologically Inspired Cognitive Architectures (2016)
[10] G.L. Clore et al. Appraisal theories: How cognition shapes affect into emotion (2008)
[11] N.H. Frijda The laws of emotion. American Psychologist (1988)
[12] Gross, James J. and Lisa Feldman Barrett. 2011. “Emotion generation and emotion regulation: One or two depends on your point of view.” Emotion Review 3 (1): 8-16.
[13] Anolli-Legrenzi, Psicologia generale, Il Mulino, 2012
[14] J. Gratch et al. Evaluating a computational model of emotion Autonomous Agents and Multi-Agent Systems (2005)
[15] S.C. Marsella et al. Ema: A process model of appraisal dynamics Cognitive Systems Research (2009)
[16] A.R. Damasio et al. Emotion, reason and the human brain (1994)
[17] Cominelli, L., Mazzei, D., & De Rossi, D. E. (2018). SEAI: Social Emotional Artificial Intelligence Based on Damasio’s Theory of Mind. Frontiers in Robotics and AI, 5, 6.
[18] Daniel Gregory. Inner Speech: New Voices. Analysis, 80(1):164–173, 01 2020.
[19] M. Perrone-Bertolotti, L. Rapin, J.-P. Lachaux, M. Baciu, and H. Loevenbruck. What is that little voice inside my head? Inner speech phenomenology, its role in cognitive performance, and its relation to self-monitoring. Behavioural Brain Research, 261:220–239, 2014.
[21] Lev Vygotsky. Th´eorie des ´emotions: ´etude historicopsychologique. The´orie des E´motions, pages 1–416, 1998.
[22] Alain Morin and Breanne Hamper. Self-reflection and the inner voice: activation of the left inferior frontal gyrus during perceptual and conceptual self-referential thinking. The open neuroimaging journal, 6:78, 2012.
[23] Richard S Lazarus. Emotion and adaptation. Oxford University Press, 1991.
[24] Arianna Pipitone and Antonio Chella. What robots want? Hearing the inner voice of a robot. Iscience, 24(4):102371, 2021.
[25] Meinrad Perrez and Michael Reicherts. Stress, coping, and health: A situation-behavior approach: Theory, methods, applications. 01 1992.
[26] P. Ekman An argument for basic emotions Cognition & Emotion (1992)