tecnologie e salute

IA non vuol dire fiducia: attenti a scambiare il chatbot per un terapista



Indirizzo copiato

Quando ChatGPT ci restituisce espressioni come, “capisco”, “mi dispiace sentire che ti senti giù”, ci sta rimandando una sorta di empatia che tendiamo a percepire come proveniente da un “altro” che ci comprende. È d’obbligo allora iniziare un percorso verso una maggiore comprensione dell’eccessiva fiducia verso questa tecnologia

Pubblicato il 1 giu 2023

Tommaso Ciulli

Psicologo, Psicoterapeuta Cognitivo Comportamentale



bonus psicologo -
bonus psicologo

Da qualche anno le intelligenze artificiali (IA) sono argomento centrale di discussione e dall’uscita di ChatGPT ancora di più.

Vi è una questione correlata a questa tecnologia che salta fuori altrettanto spesso, a volte in modo implicito, a volte in modo superficiale, generando così due fazioni tra chi ne è entusiasta, e chi vede queste tecnologie come generatrici di una probabile apocalisse. Ovvero: quanto possiamo fidarci delle intelligenze artificiali?

Quanta fiducia (troppa?) nell’IA

Chiariamo subito che la fiducia è un concetto molto profondo, complesso e sfaccettato.

All’interno di uno studio psicologico la fiducia tra il terapeuta e il paziente è uno dei principali pilastri dove si poggia il rapporto terapeutico.

In un post di qualche mese fa su Reddit dal titolo “ChatGPT è meglio del mio terapeuta” un utente riportava come la sua esperienza con l’IA, sviluppata da OpenAI, era stata in qualche modo più soddisfacente di quella avuta con il suo terapeuta. La persona si era sentita come più compresa e ascoltata.

Quanto descritto dalla persona rimandava ad un senso di maggiore fiducia nei confronti della IA rispetto al suo terapeuta.

Quel post come altri altrettanto simili ha portato ad un bel dibattito che però rischia di rimanere troppo sulla superficie.

ChatGPT e l’empatia

Come molti, anche il sottoscritto ha usato e testato l’IA di OpenAI per fargli svolgere vari compiti come: scrivere un articolo, inventare un esercizio di gruppo, scrivere alcune righe di codice da eseguire sul sito personale e così via.

Prendendo spunto dal post su Reddit, ho fatto alcune prove simulando delle richieste simili a quelle ricevute da alcuni pazienti e devo dire che sono rimasto quantomeno perplesso.

Ho simulato una persona con degli attacchi di panico o con depressione lieve o anche grave. A volte descrivendo sintomi ed emozioni in modo molto dettagliato e specifico, a volte in modo più sfumato e poco chiaro.

Le risposte ricevute erano particolarmente corrette (come diagnosi ma anche da un punto di vista delle indicazioni fornite) e mostravano una sorta di empatia.

Erano anche rispettose di una certa etica invitando sempre il sottoscritto a mettersi in contatto con un professionista della salute mentale o un medico. In caso di forte crisi, a mettersi immediatamente in contatto con dei centri specialistici fornendo anche i loro riferimenti.

Potrei fermarmi qui e restare sulla superficie tra l’entusiasmo o la preoccupazione.

Quello di cui stiamo parlando è in fondo la stessa cosa, sia da una parte che dall’altra, ovvero di una fiducia forse eccessiva. In breve, la fiducia che l’IA realizzate oggi siano intelligenti quanto gli esseri umani (o anche di più).

In un certo senso quel post ripercorre quanto accaduto con Eliza nel 1966; una IA (chatterbot) in grado di replicare ad un utente come farebbe uno psicologo. È da quelli esperimenti che è nato il cosiddetto effetto Eliza, ovvero pensare di parlare con una macchina realmente intelligente quanto questa non lo è.

In una ricerca più recente del 2013 è stato verificato come i ricercatori valutavano i dialoghi generati da Eliza come naturali e centrati sul tema.

Intelligenza non vuol dire fiducia

Attenzione però a scambiare la percezione di intelligenza dell’altro (in questo caso una IA) con la fiducia.

Ad esempio, se una persona è (o sembra) particolarmente intelligente, questo basterebbe per fidarci totalmente di essa?

Tornando al tema dell’articolo, cos’è cambiato da Eliza ad oggi? Da un punto di vista tecnologico è cambiato tanto, forse tutto. Dal 1943 (i primi studi sulle IA) ad oggi si sono aperte innumerevoli strade o metodi per giungere a creare un’IA veramente intelligente.

Siamo circondati da IA che fanno molte cose e le fanno anche bene, a volte meglio degli esseri umani ma sono comunque intelligenze ambito specifiche (la guida autonoma, il riconoscimento e produzione delle immagini, riconoscimento e produzione di testo scritto, riconoscimento delle emozioni e così via).

Nel tempo consapevolmente o meno abbiamo sviluppato una fiducia generale elevata nelle IA. Gli ingegneri si sono particolarmente impegnati nel creare algoritmi che non solo funzionassero bene ma che, come nel caso dei robot o dei chatterbot, sembrassero delle persone reali.

Nel caso di ChatGPT, quando questa ci restituisce espressioni come, “capisco”, “mi dispiace sentire che ti senti giù”, “è normale che tu ti senta…”, ci sta rimandando una sorta di empatia simulata, certo, ma quello che percepiamo come essere umani è un “altro” che ci comprende e che prova a mettersi nei nostri panni.

Non solo l’IA mi fornisce delle informazioni e/o delle soluzioni corrette riguardanti la mia richiesta ma rimanda anche un sentimento di condivisione.

Tutto questo contribuisce a creare un sentimento di fiducia poiché sviluppo l’idea di parlare con “qualcuno” di credibile, competente, affidabile, intelligente, genuino ed empatico.

Reazioni all’IA: estrema paura o estrema fiducia

Come descritto sopra, questo può generare due reazioni praticamente opposte, estrema paura o estrema fiducia.

Entrambe le posizioni però possono creare diversi problemi. Nel primo caso, un allontanamento da una tecnologia che in realtà potrebbe essere particolarmente utile e strategica, mentre nel secondo caso, alla minimizzazione di certi limiti e problemi soprattutto se demando totalmente alcune decisioni all’Intelligenza Artificiale.

Un esempio pratico, cosa accadrebbe se attivando la funzione di guida autonoma questa, per un problema non previsto, provocasse un’incidente? Chi ne avrebbe la responsabilità legale?

Restando nell’ambito giuridico, cosa potrebbe accadere se ci affidassimo ad una IA all’interno di un tribunale? Questo caso è anche molto reale e attuale. Lo scorso febbraio un imputato è stato seguito da una IA creata dalla società DoNotPay in una causa legata ad una multa stradale in un tribunale californiano.

IA e lavoro: cosa rischiamo?

O ancora, cosa accade se ripongo estrema fiducia nelle IA all’interno del mondo del lavoro? Come quello dei copywriter, grafici, programmatori ecc. Secondo un’indagine di ResumeBuilder dello scorso febbraio condotta su 1000 manager di aziende americane, il 25% delle aziende ha già sostituto i propri lavoratori con ChatGPT.

Ma attenzione, le IA attuali non mancano di pregiudizi o stereotipi (anche razziali) poiché la loro intelligenza, dipende molto dai dati usati per addestrarle e spesso i dati inseriti non sono così neutrali e gli output generati non sono privi di bias.

Uno studio [2] della ricercatrice Joy Buolamwini non recente (2018) ma che chiarisce questo rischio, ha verificato che tre diversi algoritmi avevano sensibilmente maggiore difficoltà a riconoscere il genere delle donne nere rispetto agli uomini bianchi.

Non sono nemmeno così infallibili, in qualche caso mi è capitato di incontrare degli errori bibliografici all’interno di articoli scritti da una IA, come riferimenti sbagliati o conclusioni leggermente diverse rispetto a quanto scritto negli articoli scientifici menzionati.

Senza parlare di quanto concediamo di noi stessi come utenti, in modo forse troppo superficiale, in termini di privacy per addestrare i vari algoritmi.

Dato che oggi le IA sono diventate davvero intelligenti e sono pressoché onnipresenti (e lo saranno ancora di più) è d’obbligo iniziare un percorso scientifico verso una maggiore comprensione dell’eccessiva fiducia verso questa tecnologia.

Qualche punto chiave per trovare un equilibrio

Il dibattito è aperto ma vi sono alcuni punti chiave che possiamo fissare e seguire per non gettarci troppo velocemente verso un ottimismo irrealistico o una paura immotivata:

  • Educazione: è importante che le persone acquisiscano una conoscenza di base dell’AI, dei suoi limiti e dei suoi rischi;
  • Trasparenza: gli sviluppatori dell’AI dovrebbero rendere pubblici i dettagli del loro funzionamento e le fonti dei dati utilizzati per addestrarla;
  • Verifica: le persone dovrebbero verificare i risultati dell’AI per accertarsi che siano corretti e non discriminatori;
  • Diversità: è importante che i progettisti dell’AI includano dati più diversificati possibile per evitare eventuali bias;
  • Multidisciplinarietà: è importante che questo argomento sia dibattuto coinvolgendo professionalità e conoscenze diverse oltre a quelle ingegneristiche.

Ma possiamo fidarci dell’IA? Ecco cosa ne pensa ChatGPT

Ma cosa ne pensa ChatGPT su quanto dovremmo fidarci?

Come intelligenza artificiale, non ho emozioni, opinioni o bias personali. Sono programmato per fornire risposte basate sui dati e sulla logica, senza pregiudizi o influenze esterne.

Tuttavia, va notato che le risposte fornite da una intelligenza artificiale dipendono dalle informazioni a cui ha accesso e dalle istruzioni che ha ricevuto. In altre parole, se le informazioni a cui ho accesso sono incomplete o se le istruzioni sono errate, le mie risposte potrebbero non essere accurate.

Inoltre, alcune questioni richiedono competenze specializzate o conoscenze specifiche che potrebbero non essere a disposizione di una intelligenza artificiale come me. In questi casi, potrebbe essere necessario rivolgersi a un esperto del settore per avere una risposta più precisa.

Infine, non scordiamoci una cosa fondamentale, attualmente anche la migliore IA per quanto intelligente, non persegue scopi personali ma quelli di chi la utilizza.

Bibliografia

[1] Cristea, Ioana & Sucala, Madalina & David, Daniel. (2013). Can you tell the difference? Comparing face-to-face versus computer-based interventions. The “Eliza” effect in psychotherapy. Journal of Cognitive and Behavioral Psychotherapies. Journal of Cognitive and Behavioral Psychotherapies. 13. 291-298.

[2] Buolamwini, J., Gebru, T. “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.” Proceedings of Machine Learning Research 81:1–15, 2018 Conference on Fairness, Accountability, and Transparency.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2