L’IA, sfruttando le più recenti evoluzioni nel machine learning e nelle neuroscienze computazionali, è ora in grado di decodificare le emozioni con notevole accuratezza (Kowalczuk & Czubenko, 2022).
Uno degli sviluppi più rilevanti è il suo impiego nella regolazione emotiva, un processo da sempre considerato esclusivamente umano. Algoritmi avanzati possono riconoscere segnali emotivi attraverso analisi multimodali di testo, voce ed espressioni facciali, adattando le risposte in tempo reale (Mozikov et al., 2024).
Già oggi queste tecnologie trovano applicazione in chatbot terapeutici, assistenti virtuali e sistemi predittivi con risultati promettenti nella gestione dello stress, dell’ansia e nella regolazione affettiva (Lai et al., 2023).
Indice degli argomenti
IA emotiva e implicazioni etiche nella decisione umana
Poiché le emozioni giocano un ruolo chiave nelle scelte quotidiane e nella risoluzione dei problemi, la possibilità di modellarle attraverso algoritmi apre scenari complessi. Studi recenti (Mozikov et al., 2024) evidenziano come l’IA non solo influenza il processo decisionale umano ma può anche sviluppare strategie sulla base di segnali emotivi. Questo solleva interrogativi etici e pratici legati a trasparenza, autonomia decisionale e alla possibile manipolazione emotiva; la ricerca attuale sottolinea l’importanza di sviluppare framework etici e tecniche per ridurre bias e influenze indesiderate (Lai et al., 2023).
In che modo l’IA ridefinirà il nostro rapporto con le emozioni e le decisioni? Quali sono le opportunità e i limiti di questa evoluzione?
Modelli neurocomputazionali per un’IA emotiva
Il costrutto di regolazione emotiva, introdotto da Gross (1998), descrive il processo attraverso cui le persone monitorano, modificano e gestiscono le proprie emozioni per adattarsi alle situazioni e raggiungere obiettivi personali o sociali. Una regolazione emotiva efficace è essenziale per il benessere psicologico e per una gestione equilibrata delle risposte agli stimoli ambientali.
Oggi, questo meccanismo non è più esclusivamente umano. Modelli di apprendimento automatico avanzati sono in grado di analizzare e modulare gli stati emotivi degli utenti: tecnologie come l’elaborazione del linguaggio naturale (NLP) e il riconoscimento facciale consentono di identificare segnali emotivi e di fornire risposte personalizzate (Kowalczuk & Czubenko, 2022).
Migliorando la capacità dell’IA di comprendere e rispondere in tempo reale agli stati emotivi umani, questi modelli neurocomputazionali la rendono più capace di agire in modo simile a quello di un essere umano.
Kowalczuk e Czubenko (2022) hanno proposto un modello operativo cibernetico ispirato alla psicologia cognitiva e motivazionale. Il sistema Intelligent System of Decision-making (ISD) integra concetti di psicologia dello sviluppo e teoria della motivazione e arriva a combinare processi cognitivi fondamentali tra cui percezione, memoria, attenzione e pensiero. Testato in scenari come la guida autonoma e la robotica sociale, il modello ha dimostrato la capacità di prendere decisioni basate su stati interni e percezioni ambientali.
L’effetto di delega decisionale con IA emotiva
Se l’IA acquisisce la capacità di riconoscere e modulare le emozioni umane, potrebbe anche essere soggetta agli stessi bias emotivi con possibili ripercussioni sulla qualità delle decisioni; in effetti anche quando progettata per ottimizzare i processi decisionali, sviluppa distorsioni simili a quelle umane (Mozikov et al., 2024). Allo stesso tempo, l’IA può alterare la percezione che le persone hanno delle proprie scelte, inducendole a fare maggiore affidamento sugli algoritmi e a mettere in dubbio le proprie capacità cognitive (Lai et al., 2023). Questo fenomeno, noto come “effetto di delega decisionale“, descrive la tendenza delle persone ad affidare le proprie scelte ai sistemi di intelligenza artificiale, soprattutto quando vengono percepiti come altamente performanti (Song & Lin, 2024).
Una direzione emergente nella ricerca è lo sviluppo di sistemi decisionali ibridi, in cui esseri umani e IA collaborano per ottimizzare le scelte. Lai et al. (2023), analizzando oltre cento studi sull’interazione tra esseri umani e intelligenza artificiale nei processi di scelta, hanno evidenziato come l’IA possa non solo supportare ma anche influenzare le decisioni. In particolare, il design di questi sistemi influisce sulla qualità delle risposte e sulla fiducia nei modelli di IA.
Ad esempio, gli effetti emotivi variano in base alla lingua principale di addestramento del modello. Gli autori sottolineano la necessità di linee guida condivise per stabilire criteri chiari su quando e come l’IA debba intervenire, evitando sia un’eccessiva delega sia una resistenza ingiustificata alle sue raccomandazioni.
Standard e prospettive future per l’IA emotiva
Le capacità dell’IA di riconoscere e gestire le emozioni influenzano l’affidabilità delle sue risposte e il modo in cui gli esseri umani le percepiscono e accettano. I progressi nella ricerca sull’IA emotiva potrebbero portare allo sviluppo di sistemi sempre più sofisticati, capaci di adattarsi dinamicamente agli stati emotivi individuali. Diventa quindi cruciale sviluppare benchmark per valutare il grado di allineamento emotivo dei modelli rispetto agli esseri umani, garantendo un’integrazione efficace tra uomo e macchina.
Per assicurare che queste tecnologie operino in modo etico e trasparente, è necessario definire standard condivisi (Lai et al., 2023). Mozikov et al. (2024) hanno proposto l’EAI (Emotional AI) Framework, un sistema che valuta l’influenza delle emozioni sulle decisioni etiche e strategiche dei modelli di linguaggio di grandi dimensioni.
Gli studi mostrano che le emozioni influenzano significativamente le decisioni degli LLMs, decisioni che non sono prive di bias e, soprattutto, che non sono sempre allineate allo standard di risposta umano.
Il futuro della regolazione emotiva mediata dall’IA dipenderà dalla capacità di bilanciare il potere predittivo degli algoritmi con l’autonomia e la consapevolezza umana. Una stretta collaborazione tra scienze cognitive, intelligenza artificiale e filosofia etica sarà essenziale per sviluppare sistemi che supportino, senza sostituire, le capacità umane di regolazione emotiva e decisionale.
Bibliografia
Gross, J. J. (2008). Emotion regulation. Handbook of emotions, 3(3), 497-513.
Kowalczuk, Z., & Czubenko, M. (2023). Cognitive motivations and foundations for building intelligent decision-making systems. Artificial Intelligence Review, 56(4), 3445-3472.
Lai, V., Chen, C., Smith-Renner, A., Liao, Q. V., & Tan, C. (2023, June). Towards a science of human-AI decision making: An overview of design space in empirical human-subject studies. In Proceedings of the 2023 ACM conference on fairness, accountability, and transparency (pp. 1369-1385).
Mozikov, M., Severin, N., Bodishtianu, V., Glushanina, M., Nasonov, I., Orekhov, D., … & Makarov, I. (2025). EAI: Emotional Decision-Making of LLMs in Strategic Games and Ethical Dilemmas. Advances in Neural Information Processing Systems, 37, 53969-54002.
Song, J., & Lin, H. (2024). Exploring the effect of artificial intelligence intellect on consumer decision delegation: The role of trust, task objectivity, and anthropomorphism. Journal of Consumer Behaviour, 23(2), 727-747.