Immaginiamo di sederci a tu per tu con un modello di Intelligenza Artificiale e di farci intervistare da esso per diverse ore. Il modello “intelligente”, con una voce amichevole, ci guida in una conversazione che spazia dalla nostra infanzia ai nostri ricordi a scuola, dalla nostra carriera lavorativa sino alle nostre idee in merito alla geopolitica.
Al termine di questa piacevole intervista, viene creata automaticamente una replica virtuale della nostra personalità, con i nostri valori e le nostre preferenze. Il tutto in maniera precisa e dettagliata. Stiamo parlando di fantascienza? Non proprio. Come dimostra una recente ricerca di University of Stanford e di Google DeepMind.
Indice degli argomenti
IA e duplicazione della personalità: la ricerca di Stanford e Google DeepMind
Come sappiamo dall’utilizzo periodico di strumenti generativi del calibro di ChatGPT, DALL-E e Gemini, è davvero senza fine la capacità creativa dell’Intelligenza Artificiale. Spesso sì, alla quantità non corrisponde la qualità, con risultati non sempre soddisfacenti, ma il risultato non cambia. Il paradigma è questo: l’Intelligenza Artificiale può creare e può migliorare creando. Nonché “allenandosi” (mediante i cosiddetti dati di addestramento).
Ma gli avanzamenti non si fermano qui, anzi: i ricercatori della University of Stanford e di Google DeepMind, in una recente ricerca[1] che ha coinvolto ben mille persone diverse per età, sesso, etnia, regione geografica, istruzione e ideologia politica, hanno messo in pratica proprio la duplicazione della personalità dei partecipanti allo studio (al costo di cento dollari ciascuno). Dalle interviste con i partecipanti, il team di ricerca ha creato “repliche artificiali” di queste persone con una facilità disarmante. Per verificare quanto le repliche artificiali imitassero le loro controparti umane, i partecipanti hanno svolto una serie di test della personalità, indagini sociali e giochi di logica, due volte ciascuno, a distanza di due settimane. Successivamente, tali repliche hanno completato gli stessi esercizi con un’equivalenza e precisione delle risposte pari all’ottantacinque percento. Non male per cento dollari, no?
Agenti di simulazione: cosa sono, a cosa servono
Nel progetto (non ancora sottoposto a revisione scientifica paritaria da parte di specialisti) le repliche sono chiamate “agenti di simulazione” e lo scopo della loro creazione è quello di rendere più facile per i ricercatori delle scienze sociali e di altri campi condurre studi che sarebbero altrimenti costosi, poco pratici o non etici da condurre con esseri umani. Secondo i ricercatori della University of Stanford e di Google DeepMind, se si riuscisse a creare modelli di Intelligenza Artificiale che si comportano come persone reali, si potrebbe pensare di poterli utilizzare per testare qualsiasi cosa, dalla capacità tecnica dei social media di combattere la disinformazione ai comportamenti, nella “vita reale”, che causano gli ingorghi stradali.
Questi agenti di simulazione sono leggermente diversi dagli agenti che oggi dominano il lavoro delle principali aziende di Intelligenza Artificiale.
Chiamati anche “agenti basati su strumenti”, essi non sono altro che modelli costruiti per “fare cose” al posto degli esseri umani, non per dialogare con lui. Per esempio, gli agenti basati su strumenti possono inserire dati, recuperare informazioni memorizzate da qualche parte o, nel futuro, prenotare viaggi e fissare appuntamenti.
Verso agenti di IA “più forti”
I due tipi di agenti, quelli di simulazione con cui dialogare e quelli su strumenti posti come “servitori dell’uomo”, sono diversi ma hanno un terreno comune. La ricerca sugli agenti di simulazione, come quelli di cui al presente elaborato, porterà probabilmente ad agenti di Intelligenza Artificiale “più forti” in generale. D’altronde, la ricerca della University of Stanford e di Google DeepMind punta a creare una sorta di ibrido, che vede usare esseri umani reali per generare personaggi che poi possono essere usati in modo programmatico o di simulazione in modi che non si potrebbero usare con esseri umani “reali”.
I rischi della generazione di agenti
Ovviamente, e ormai è un concetto quasi pleonastico, la ricerca pone un alert importante su rischi e pericoli di tale tecnologia. Proprio come la tecnologia di generazione di immagini ha reso facile la creazione di deepfake dannosi di persone senza il loro consenso, qualsiasi tecnologia di generazione di agenti solleva domande sulla facilità con cui le persone possono costruire strumenti per “personificare altri” online, dicendo o autorizzando cose che non avevano intenzione di dire.
Il metodo utilizzato dalla Stanford University
Il team della University of Stanford e di Google DeepMind ha utilizzato metodi “elementari” di valutazione utilizzati per verificare la capacità degli agenti di Intelligenza Artificiale di replicare gli esseri umani. Tra questi, il “General Social Survey”, che raccoglie informazioni su dati demografici, felicità, comportamenti e altro e le valutazioni dei tratti della personalità “Big Five” (in psicologia, modello che descrive la personalità attraverso cinque fattori): apertura mentale, coscienziosità, estroversione, gradevolezza e nevroticismo. Questi test sono comunemente utilizzati nella ricerca sulle scienze sociali, ma non pretendono di catturare tutti i dettagli unici che ci rendono noi stessi.
Gli agenti dell’Intelligenza Artificiale, invece, sono stati anche peggiori nel replicare gli esseri umani in test comportamentali come il “gioco del dittatore”, che ha lo scopo di illuminare il modo in cui i partecipanti considerano valori come l’equità.
Per costruire un agente di Intelligenza Artificiale che riproduca bene le persone, i ricercatori della University of Stanford e di Google DeepMind avevano bisogno di un modo per “distillare” l’unicità dei partecipanti in un linguaggio comprensibile ai modelli di Intelligenza Artificiale. Per farlo, i ricercatori hanno scelto di porre in essere interviste qualitative, ritenuto il modo più efficace per conoscere qualcuno. Questo tipo di interviste può anche rivelare idiosincrasie che è meno probabile che emergano da un sondaggio. Si può immaginare qualcuno che abbia avuto il cancro ma sia finalmente guarito qualche mese prima. Si tratta di un’informazione molto particolare che dice molto su come ci si comporta e si pensa alle cose. Informazione che sarebbe difficile da traslare nella creazione di domande per un sondaggio (nel quale sarebbe impossibile suscitare ricordi e risposte qualitativamente accettabili).
Insomma, la sfida al futuro di questo particolare impiego dell’Intelligenza Artificiale, che ricorda nemmeno troppo vagamente “Io, robot”, il film tratto dall’omonima antologia di Isaac Asimov, è aperta. Staremo a vedere quanto tempo impiegherà a passare dagli studi osservazionali alla commercializzazione del prodotto. Partendo con un pregiudizio intrinseco che, come sempre accade parlando di Intelligenza Artificiale, la normativa a tutela delle persone arriverà dopo, a macchia di leopardo e, ovviamente, in ritardo.[2]
Riferimenti
AI can now create a replica of your personality. MIT Technology Review. https://www.technologyreview.com/2024/11/20/1107100/ai-can-now-create-a-replica-of-your-personality/ ↑
Generative Agent Simulations of 1,000 People. Arxiv. https://arxiv.org/pdf/2411.10109 ↑