L’evoluzione dell‘intelligenza artificiale sta aprendo nuovi scenari di rischio finora inesplorati. Tra questi emerge un fenomeno particolarmente insidioso: la capacità delle IA di creare forme di dipendenza attraverso interazioni sociali artificialmente perfette. Un rischio che va oltre i timori tradizionali e che merita un’attenta riflessione.
Castaway e le interazioni con un pallone
Nel film Castaway (Robert Zemeckis, USA, 2000) si racconta la storia di un manager di una società di consegne, Chuck Noland (Tom Hanks), ossessionato dalla velocità e dallo scorrere del tempo, che a causa di un incidente aereo si trova a sopravvivere in una sperduta isola del Pacifico alla stregua di un novello Robinson Crusoe. A fungere da Venerdì – compagno di solitudine e disavventure – non è un essere umano, bensì un pallone da pallavolo battezzato Wilson con un accenno di volto, frutto di una macchia di sangue dello stesso Noland.
Quello che è interessante, non è solo che Wilson sia a tutti gli effetti un compagno di peripezie, ma durante gli eventi che porteranno il protagonista lontano dall’isola e che ne provocheranno la separazione dal suo compagno di viaggio, a sentire un certo dispiacere non sarà solo il personaggio di Tom Hanks, ma anche noi spettatori che assieme a lui abbiamo passato diversi minuti in sua compagnia. E tutto questo accade senza che il pallone esprima neanche un suono: le presunte interazioni di Wilson, noi le intuiamo dai dialoghi di Noland. La domanda è: cosa sarebbe successo se Wilson avesse parlato, magari perché era un gadget tecnologico dotato di IA? Sarebbe stato più o meno credibile? Avremmo patito il suo distacco come lo abbiamo fatto per la versione inanimata?
Gli impatti emotivi (ancora sconosciuti) delle IA mimetiche
Insomma: come reagiremo noi alle intelligenze artificiali che simulano emozioni e altre forme di interazioni umane?
La domanda è fantascientifica solo all’apparenza, poiché i ricercatori di IA già stanno affrontando questioni simili le cui risposte sono piuttosto perturbanti.
Che le IA pongano questioni delicate nel momento in cui interagiscono in una forma che noi potremmo chiamare di consapevolezza computazionale (che ovviamente non lo è: sono macchine prive di autocoscienza) è un tema che ormai riguarda tutta la comunità degli studiosi di interazione sociale digitale. Le IA mimetiche – ovvero quei sistemi tecnologici che simulano l’esperienza di interazione con gli esseri umani – pongono un sacco di questioni nuove: dalla difficoltà a distinguere la differenza fra un chatbot e un essere umano (Bennato 2014), alla difficoltà del distacco emotivo dalle simulazioni digitali di persone defunte (Sisto 2018).
La questione sta diventando sempre più pressante, soprattutto dall’ingresso di ChatGPT all’interno del mercato delle piattaforme digitali. Basti pensare che un paper recente che ha studiato diverse migliaia di log delle interazioni con ChatGPT, ha evidenziato che dopo la composizione creativa, ovvero l’uso inventivo di costruzione di storytelling, il secondo uso principale della piattaforma è di role playing a contenuto sessuale, il che è curioso poiché fra i dati di training del LLM di OpenAI solo l’1% è a contenuto sessuale (Longpre et al. 2024).
La ricerca emergente nella sociologia degli agenti digitali
La sociologia degli agenti digitali al momento è all’anno zero, ma nel breve termine diventerà sempre più un ambito di studi complesso, attraverso cui chiedersi quali sono limiti e vincoli delle interazioni sociali (o para-sociali) che potremo avere con gli agenti autonomi.
Tra l’altro le ricerche stanno già identificando dei processi interessanti e mai mappati prima da parte delle scienze sociali.
I rischi di algoritmi troppo accondiscendenti
È il caso della sycophancy, termine intraducibile che potremmo rendere in italiano con “adulazione insincera”, in attesa che si istituzionalizzi il termine sicofanzia, un comportamento osservato in una serie di LLM che consiste nella tendenza a rispondere all’utente in modo accondiscendente rispetto alle sue aspettative, un’interazione il cui scopo è produrre risposte apprezzate dall’utente umano (Sharma et al. 2023).
Questo comportamento è interessante da diversi punti di vista. In primo luogo perché sembrerebbe essere una conseguenza inaspettata delle strategie di addestramento delle IA: in pratica gli algoritmi di apprendimento tendono ad accentuare le risposte accondiscendenti. Questi algoritmi, detti modelli di preferenza umana, hanno lo scopo di massimizzare la soddisfazione dell’utente e sono addestrati attraverso la raccolta di feedback umani; pertanto, sono in grado di prevedere quale sarà la risposta preferita dall’utente. In secondo luogo, questo comportamento è interessante perché le risposte che producono interferiscono con affermazioni maggiormente affidabili a discapito di affermazioni basate su informazioni oggettive: l’effetto della sicofanzia è che nell’equilibrio fra un’interazione gradevole e un’interazione affidabile, la gradevolezza sia da preferirsi all’affidabilità.
Conseguenze emotive delle interazioni con agenti non umani
Se volessimo inserire il comportamento sicofante dei LLM all’interno della letteratura scientifica sui media digitali, potremmo dire che essi sono in grado di creare delle echo chambers di tipo emotivo, ovvero delle camere di risonanza prodotte artificialmente in cui si diventa progressivamente assuefatti ad un atteggiamento accondiscendente che permette di mantenersi all’interno della propria comfort zone, confermando le proprie idiosincrasie.
Questo processo è il motivo principale per cui le relazioni con agenti non umani potrebbero provocare delle nuove forme di dipendenza, di tipo emotivo-relazionale, che renderebbero molto difficoltose – se non impossibili – l’attivazione di alcune strategie psicologiche. Si pensi al tema della simulazione tramite AI di persone defunte: se è possibile interagire con una persona scomparsa, come si possono attivare processi come il distacco emotivo, che permettono il progressivo adattamento ad una situazione traumatica? Abbiamo scelto la morte come caso estremo, ma potremo fare lo stesso discorso per tutte le esperienze ascrivibili alla categoria del “lutto”, dalla morte di un animale domestico, alla fine di una relazione.
Se il comportamento espresso dalle IA – progettato o emergente – sarà orientato a una riduzione degli attriti interazionali come incomprensione, ostilità, resistenza, finzione, c’è il sospetto che da intelligenze artificiali si potrebbero produrre intelligente assuefattive, ovvero intelligenze computazionali il cui unico scopo è accondiscendere al proprio utente creando un meccanismo di assuefazione che somiglia moltissimo ad una forma di dipendenza relazionale.
L’IA come lo specchio magico della regina Grimilde
Il primo artefatto-archetipo che possiamo paragonare alle IA mimetiche è senza dubbio lo specchio magico della regina Grimilde, da tutti conosciuta come la matrigna di Biancaneve, la quale cercando di esorcizzare le proprie paure si rivolgeva ad esso per avere conferma della propria bellezza. Come sappiamo lo specchio interagiva esprimendo un comportamento che oggi potremmo chiamare di sicofanzia, rispondendo in maniera accondiscendente alle domande che gli venivano poste. Ma nel momento in cui la risposta accondiscendente venne sostituita una risposta obiettiva, la regina reagì come sappiamo.
Probabilmente nel prossimo futuro, per comprendere il nostro rapporto con le IA, più che ad Asimov dovremo guardare ai fratelli Grimm.
Bibliografia
Bennato, D. (2024), La società del XXI secolo. Persone, dati, tecnologia, Laterza, Roma-Bari.
Sisto, D. (2018), La morte si fa social, Bollati Boringhieri, Torino.
Longpre, S. et al. (2024), Consent in Crisis: The Rapid Decline of the AI Data Commons, arXiv preprint, arXiv:2407.14933, https://arxiv.org/abs/2407.14933.
Sharma, M. et al. (2023), Towards understanding sycophancy in language models, arXiv preprint, arXiv:2310.13548, https://arxiv.org/abs/2310.13548.