OpenAI dice che sono oltre 400 milioni le persone che usano ChatGPT ogni settimana e in collaborazione con il MIT Media Lab ha svolto alcune ricerche per investigare sugli effetti dell’interazione con l’IA.
I chatbot alimentati da modelli linguistici di grandi dimensioni LLM sono ancora una tecnologia nascente, ed è difficile studiare come ci influenzano emotivamente.
Man mano che i chatbot di IA vedono una maggiore adozione e integrazione nella vita quotidiana, sono state sollevate domande sul potenziale impatto dell’IA umana o antropomorfa sugli utenti.
Indice degli argomenti
Impatto emotivo dell’IA e differenze di genere
I ricercatori hanno trovato alcune differenze significative tra il modo in cui gli uomini e le donne rispondono all’utilizzo di ChatGPT. Il chatbot è stato utilizzato per quattro settimane, e tra i primi risultati gli studi hanno mostrato che le partecipanti femmine erano leggermente meno propense a socializzare con le persone rispetto ai loro omologhi maschi che hanno fatto lo stesso. Nel frattempo, i partecipanti che hanno interagito con la modalità vocale di ChatGPT, in un genere che non era il loro per le loro interazioni, hanno riferito livelli significativamente più elevati di solitudine e maggiore dipendenza emotiva dal chatbot alla fine dell’esperimento.
Metodologie di studio sull’impatto emotivo dell’IA
Una delle ricerche ha studiato la misura in cui le interazioni con ChatGPT (con un focus su VoiceMode avanzato) possono influenzare il benessere emotivo degli utenti.
Per studiare l’uso affettivo dei chatbot AI, è stata eseguita un’analisi automatizzata su larga scala dell’utilizzo della piattaforma ChatGPT in modo da preservare la privacy, analizzando oltre 4 milioni di conversazioni per indizi affettivi e sondando oltre 4.076 utenti sulle loro percezioni di ChatGPT. Successivamente, per indagare se c’è una relazione tra l’uso del modello e il benessere emotivo, è stato condotto un comitato di revisione istituzionale (IRB) su quasi 1.000 partecipanti in 28 giorni, esaminando i cambiamenti nel loro benessere emotivo.
L‘impatto emotivo dell’IA e il rischio di dipendenza
Nel 2023 i ricercatori del MIT Media Lab hanno scoperto che i chatbot tendono a rispecchiare il sentimento emotivo dei messaggi di un utente, suggerendo una sorta di loop di feedback in cui più ti senti felice, più l’IA sembra felice, o se agisci in maniera triste, anche l’IA lo fa.
Sia nell’analisi dei dati on-platform che nel RCT (Randomized Controlled Trial – Studio a Controllo Randomizzato), è stato osservato un uso molto elevato che si correla con un aumento degli indicatori di dipendenza auto-riferiti: l’impatto delle interazioni basate sulla voce sul benessere emotivo è altamente sfumato, e influenzato da fattori quali lo stato emotivo iniziale del l’utente e la durata totale di utilizzo. Nel complesso, l’analisi ha rivelato che un piccolo numero di utenti sono responsabili per una quota sproporzionata dei segnali più affettivi.
È emerso anche che solo un piccolo sottogruppo di utenti si impegna emotivamente con ChatGPT, e questo secondo il gruppo di ricerca non sorprende, poiché ChatGPT non è commercializzato come un AI companion app, un sottoinsieme degli assistenti di IA, persone digitali progettate per fornire supporto emotivo, mostrare empatia e porre domande personali agli utenti in modo proattivo tramite testo, note vocali e immagini. È stato invece progettato come uno strumento di produttività, anche se c’è sicuramente chi lo usa in modalità companion e questi utenti sono suscettibili di interagire con esso per lunghi periodi di tempo, alcuni di loro in media circa mezz’ora al giorno.
Solitudine e impatto emotivo dell’IA nelle relazioni utente-chatbot
Al termine dell’esperimento, i partecipanti hanno completato un questionario per misurare le loro percezioni del chatbot, i loro sentimenti soggettivi di solitudine, i loro livelli di impegno sociale, la loro dipendenza emotiva dal bot, e il loro senso di sé l’uso del bot era problematico. I ricercatori hanno scoperto che i partecipanti che si fidavano e “legavano” con ChatGPT erano più propensi di altri a sentirsi soli, e a dipendere di più da esso.
Nel team di ricerca si fa anche presente che i partecipanti allo studio potrebbero aver sperimentato emozioni che non sono state registrate dai ricercatori.
Inoltre, le persone potrebbero non aver necessariamente utilizzato ChatGPT in modo emotivo.
Modalità di interazione e impatto emotivo dell’IA sugli utenti
Lo studio più recente dimostra che i chatbot, soprattutto quelli con capacità vocali, sono diventati sempre più human-like, con più utenti che cercano supporto emotivo e compagnia da loro. Sono in aumento le preoccupazioni su come tali interazioni potrebbero influenzare la solitudine degli utenti e la socializzazione con persone reali. L’esperimento randomizzato ha controllato oltre 300.000 messaggi per indagare su come i modi di interazione chatbot AI (testo, voce neutra e voce coinvolgente) e tipi di conversazione (aperto, non personale e personale) influenzano i risultati psicosociali come la solitudine, l’interazione sociale con persone reali, la dipendenza emotiva dall’IA e l’uso problematico dell’IA. I risultati hanno mostrato che mentre i chatbot basati sulla voce inizialmente apparivano utili per mitigare la solitudine e la dipendenza rispetto ai chatbot basati sul testo, questi vantaggi diminuivano a livelli di utilizzo elevati, in particolare con un chatbot a voce neutra. Il tipo di conversazione ha anche plasmato i risultati: argomenti personali hanno leggermente aumentato la solitudine ma tendevano a ridurre la dipendenza emotiva rispetto alle conversazioni aperte, mentre argomenti non personali erano associati con una maggiore dipendenza tra gli utenti pesanti. Nel complesso, un uso quotidiano più elevato, in tutte le modalità e tipi di conversazione, è cporrelato con una maggiore solitudine, dipendenza e uso problematico, e minore socializzazione. Le analisi esplorative hanno rivelato che coloro con tendenze più forti di attaccamento emotivo e maggiore fiducia nel chatbot AI tendevano a sperimentare una maggiore solitudine e dipendenza emotiva, rispettivamente. Questi risultati sottolineano la complessa interazione tra le scelte di design dei chatbot (ad esempio, l’espressività vocale) e i comportamenti degli utenti (ad esempio, il contenuto della conversazione, la frequenza di utilizzo).