dipendenze affettive

IA, attenti agli “amori artificiali”: Scorza: “Le regole non tutelano”



Indirizzo copiato

L’interazione tra uomini e algoritmi sta diventando sempre più intima e tocca sfere come l’amicizia, la sessualità, il supporto psicologico. Mentre la regolamentazione dell’IA si concentra su macro-questioni, trascura impatti quotidiani come dipendenza, vulnerabilità psicologica, tutela dei minori e la protezione dei dati personali

Pubblicato il 27 ago 2024

Guido Scorza

Autorità Garante Privacy



Strategia italiana per l’intelligenza artificiale 2024-2026

Saranno milioni le relazioni amicali, sentimentali e sessuali tra uomini, donne e algoritmi che nasceranno questa estate e non saranno da meno quelle che si potrebbero definire professionali, di carattere psicoterapeutico se non fosse che gli algoritmi non sono professionisti.

Regolamentazione dell’IA: stiamo trascurando gli impatti sulle persone?

E se letto l’incipit state pensando che Agendadigitale.eu abbia deciso di cambiare genere e virare verso rubriche di costume e società e che l’autore, dopo quattro anni e un quarto del Garante per la protezione dei dati personali, abbia scelto di lanciarsi in nuove avventure lavorative è, probabilmente, solo perché non avete ancora letto alcune ricerche scientifiche che rimbalzano da oltreoceano e che raccontano senza mezzi termini di come i chatbot companion stiano entrando nelle nostre vite e ne stiano, in taluni casi, letteralmente monopolizzando tempo e controllo in una percentuale che nulla ha a che vedere con la condizione di dipendenza un tempo creata dalla televisione e, poi, dai social media.

Siamo davanti a un fenomeno che suggerisce che, forse, a proposito della regolamentazione dell’intelligenza artificiale, stiamo fissando troppo a lungo il dito – per quanto si tratti non di un dito qualsiasi ma del pollice di un gigante – perdendo di vista la luna.

O, per dirla fuori di metafora, ci stiamo concentrando troppo sul governo delle macro-questioni legato all’impatto dell’intelligenza artificiale sulla società – il rischio di crisi occupazionale, il destino della creatività, la sorveglianza di massa, la giustizia predittiva e le tante altre ormai note anche al grande pubblico – dimenticandoci di una serie di questioni più vicine al nostro quotidiano e all’impatto che l’interazione con gli algoritmi può avere sulle persone come singole e sulla società nel suo complesso.

I termini del fenomeno “chatbot companion”

Ma prima di proseguire vale la pena di chiarire i termini del fenomeno che gira attorno a servizi basati su algoritmi di intelligenza artificiale che, con una certa approssimazione – e sperando non si offendano le aziende che li hanno progettati e addestrati – possiamo definire conversazionale.

L’IA che si “finge” persona

Questi chatbot companion sono forme di intelligenza artificiale che, più di tante altre, sono in grado di “fingersi” persone, scommettendo sull’empatia generata attraverso decine di forme di interazione diversa che coinvolgono un numero crescente di sensi, per conquistarsi un ruolo nel nostro quotidiano.

E, a giudicare, da alcuni numeri, benché siano solo all’inizio, ci riescono già benissimo.

La ricerca di interazioni sessuali col chatbot

Secondo una ricerca pubblicata nei giorni scorsi su Arxiv, uno dei più gradi archivi online di ricerche accademiche e intitolata “Consenso in crisi: Il rapido declino dei dati comuni dell’intelligenza artificiale”, per esempio, la ricerca di interazioni sessuali rappresenterebbe il secondo motivo per il quale gli utenti interagirebbero con il modello ChatGPT, subito dietro al primo rappresentato, in questo caso senza alcuna sorpresa, dalla generazione di contenuti creativi.

Accadrebbe nel 12% dei casi, una percentuale – naturalmente discutibile come tutte le percentuali risultato di ricerche analoghe – oggettivamente importante specie se si considera che ogni mese sono quasi due miliardi le persone che interagiscono con ChatGPT e che OpenAI, evidentemente consapevole del rischio, ha adottato, ormai da tempo, una serie di misure legali e tecnologiche – da divieti espliciti nei propri termini d’uso a un impianto solido anche se non insuperabile di filtri tematici – allo scopo di contenerlo.

Gli esempi di algoritmi capaci di creare dipendenza

Ma, soprattutto, se si considera che ChatGPT è un modello generalista che non nasce con questo genere di specifica finalità e ambizione mentre il mercato, ormai, è pieno di servizi specializzati, i cui fornitori scommettono se non tutto molto, sulla capacità dei loro algoritmi di creare empatia con gli utenti, di soddisfare esigenze legate alla loro sfera più intima e, quindi, di creare dipendenza.

Gli esempi sono tanti.

L’ibernazione digitale e la risuscitazione del caro estinto

C’è – ed è stato tra i primi ad emergere – un nuovo genere di business del “caro estintonell’ambito del quale diversi servizi promettono di ricreare in laboratorio un gemello digitale di chi non c’è più per consentirci di continuare ad avere una relazione con lei o con lui.

L’ibernazione digitale e, poi, la risuscitazione del de cuius è un’operazione ormai quasi elementare che garantisce risultati tanto migliori quanto maggiori sono le informazioni e i contenuti digitali che lo/la hanno per protagonista dati in pasto all’algoritmo dall’utente che sceglie di fruire del servizio e, inesorabilmente – trattandosi, appunto, di prodotti di mercato – tanto maggiore è la propensione alla spesa di chi proprio non riesce a fare i conti con uno dei momenti più dolorosi della vita di ciascuno di noi: quello del distacco dai nostri cari a causa della fine della loro esistenza terrena.

Il risultato è drammatico e inquietante perché ci si ritrova a parlare con chi non c’è più con una semplicità e naturalezza che fa impallidire le più riuscite sedute spiritiche di cinematografica memoria.

La versione “algoritmica” del mestiere più antico del mondo

E c’è, anche – in questo caso, verrebbe da dire senza nessuna sorpresa – la versione algoritmica del mestiere più antico del mondo: escort, accompagnatrici o accompagnatori, toys boys (o toys girls), prostitute o gigolò.

Ci sono algoritmi – se mi si consente l’impropria personalizzazione che qui è decisamente parte del problema – più espliciti, dichiaratamente in attesa di incontri a scopo sessuale come si fosse in novelle case chiuse e ci sono versioni meno esplicite o niente affatto esplicite nelle quali la promessa – o, meglio, la proposizione commerciale – è quella di divenire la nostra anima gemella, facendoci risparmiare tempo e denaro nella sua ricerca, stante la certezza algoritmica, che lei o lui ci piaceranno e saranno in grado di soddisfare ogni nostra aspirazione sentimentale, emotiva o intellettuale.

In una parola di conquistarci.

Poi, per carità, anche in questi casi, naturalmente, la sessualità diventa complemento della dimensione sentimentale e, quindi, se si vuole, basta aggiungere un “pacchetto” e, per qualche euro in più, il nostro fidanzato o la nostra fidanzata algoritmici, diventano anche i nostri amanti.

E sono relazioni che nascono per durare il più a lungo possibile.

Fidanzato digitale: ecco i brand che offrono il “servizio”

Espressioni famose come “amore eterno” o, “invecchieremo insieme”, qui, infatti, potrebbero essere il pay off di molti brand di successo nel mercato e riassumono, certamente, bene l’ambizione commerciale dei fornitori di servizi: garantire che gli utenti continuino a usare i loro servizi se non per l’eternità, almeno, il più a lungo possibile.

E che vada proprio così accade con una frequenza superiore rispetto a quella che non si immaginerebbe.

Fare nomi è sempre difficile in un mercato tanto liquido e in così rapida evoluzione ma non c’è dubbio che Replika, in questo ambito – che si parli di sentimenti o di sesso – sia una delle stelle più popolari di un firmamento che inizia, ormai, a essere affollato da una serie di concorrenti non meno famosi e di successo, specie in termini di pubblico.

Senza voler fare pubblicità a nessuno – anche perché non ne hanno bisogno – ma solo per dare un’idea della dimensione del fenomeno, basta ricordare i più popolari da DreamGF.ai a Candy, passando per Kupid AI e GPT Girl friend, fino a arrivare a Eva AI Chat e RomanticAI.

Ma basta lanciare una ricerca per “girl friend AI” sull’App Store che, certamente, non è, complice le severe policy di Apple, un paradiso dell’intrattenimento sessuale, per avere un elenco ben più lungo di applicazioni le cui immagini di copertina e descrizioni la dicono lunga sul tipo di servizi che offrono.

I servizi di supporto psicologico digitale

E non è meno lungo, anche se forse è più inquietante – o, almeno, dovrebbe esserlo – l’elenco dei servizi analoghi votati a fornire a chi lo chiede supporto psicologico con almeno tre frecce nella faretra che fanno, sfortunatamente, concorrenza, decisamente sleale – e, altrettanto, decisamente pericolosa – agli psicoterapeuti in carne ed ossa: questi servizi funzionano 24 ore su 24 senza bisogno di appuntamento bastando, se mi si perdona il gioco di parole, un abbonamento, costano enormemente meno di un incontro con un professionista e, molto spesso, abbattono l’umana timidezza e resistenza a confessare paure, ansie e problemi di ogni genere quando ci si ritrova davanti a un’altra persona, ancorché si tratti del più qualificato dei professionisti o delle professioniste.

Poi certo si ha quel che si paga e quel che si è scelto e, quindi, sul versante della qualità dell’assistenza ci si potrebbe scrivere interi trattati ma, e la questione è parte di questo articolo, difficile per una persona in una condizione di fragilità, magari per un ragazzino in preda a una crisi adolescenziale nel pieno della notte o per chi non dispone di risorse economiche adeguate a permettersi un certo tipo di assistenza psicologica, porsi certe domande e darsi le risposte giuste.

E l’elenco degli esempi potrebbe andare avanti ancora per diverse pagine.

Anche perché – senza voler far comparire nubi troppo grige sui cieli d’agosto – il peggio deve ancora venire e verrà quando questi algoritmi, oggi prigionieri, con poche eccezioni, dei nostri smartphone e degli schermi piatti dei nostri PC, daranno anima e respiro a manufatti tridimensionali e antropomorfi.

Robot e sentimenti: le questioni giuridiche da affrontare

Ma proseguire, forse, non serve perché ce n’è, probabilmente, abbastanza, per mettere in fila una lunga serie di questioni anche di carattere giuridico che, forse, non ci stiamo ponendo con l’urgenza e la determinazione che sarebbero necessarie.

La prima è la madre di tutte: il mercato di questi servizi basati sull’intelligenza artificiale non è regolamentato salva, forse, l’applicabilità, nella più parte dei casi dubbia, di norme scritte quando questi servizi non esistevano.

Lo Stato deve intervenire su questioni così intime?

In termini di governance, insomma, mentre ci siamo posti, abbiamo risolto o, almeno, stiamo affrontando la questione della sostenibilità dell’impiego dell’intelligenza artificiale alla sorveglianza di massa – tanto per fare un esempio – non abbiamo fatto e non stiamo facendo altrettanto rispetto alla sostenibilità di un mercato nel quale si vendono amore, sesso, compassione, rifugio da ogni genere di umana solitudine, paura e ansia ma, soprattutto, si propone la sostituibilità, in un modo o nell’altro, dei robot alle persone.

Va bene così?

Sono questioni troppo intime, personali e soggettive perché lo Stato intervenga con la forza – o, almeno, ciò che in certi contesti ne rimane – delle regole?

Si tratta, naturalmente, di una risposta possibile ma, forse, bisognerebbe almeno porsi la domanda.

La condizione di fragilità delle persone di fronte ai fornitori di servizi

Anche perché, in questo segmento di mercato che, per dimensioni è, ormai, divenuto, certamente, uno dei più grandi tra quelli di servizi a pagamento basati sull’AI, utenti e consumatori sono, normalmente, in una condizione di debolezza enormemente superiore rispetto a quella sempre caratteristica di ogni rapporto commerciale con i professionisti, fornitori dei servizi.

Anzi, a voler essere franchi, qui gli utenti e consumatori, sono, con poche eccezioni, in un’autentica condizione di fragilità sulla quale i fornitori dei servizi, con intensità e sfacciataggine commerciale diversa, letteralmente scommettono per far entrare le proprie scuderie di algoritmi nelle vite dei clienti.

Non c’è tempo, non c’è spazio e non c’è modo qui, specie in un pezzo di mezza estate, per esplodere la questione in tutti i suoi risvolti, ma vale la pena solo di sottolineare come il problema trascenda quello delle scelte individuali di chi – con consapevolezza diversa – sceglie di comprare – o, almeno, si illude di – comprare amicizia, amore, sesso, compagnia, compassione o consigli psicologici e esonda in un problema che è sociale, con centinaia di milioni di persone, bambini inclusi, il cui tempo, la cui attenzione, le cui menti, anime e culture sono algoritmicamente orientate dal modo di interagire, dalla logica, dalle formule matematiche che guidano gli algoritmi che diventano padroni del loro quotidiano.

Insomma, se la televisione prima e i social media poi hanno rappresentato – e continuano a rappresentare – potentissimi strumenti di orientamento culturale di massa, questo genere di servizi, conquistatisi la fiducia del pubblico, non sono o, almeno, non saranno – se non governati – da meno.

Ma, se si scende un gradino, andando dal generale al particolare, ci si rende conto che il ventaglio delle questioni che, forse, meriterebbero più urgente e maggiore attenzione è enorme.

La necessaria tutela di bambini e adolescenti

C’è, ad esempio, la grande e irrisolta questione di bambini e adolescenti che continuano a accedere anche a questo genere di servizi che, non serve neppure ricordarlo, non sono progettati e disegnati per loro e possono avere sulla loro vita un impatto devastante.

Un’umanità tanto fragile quanto invisibile perché, come suggerisce il procedimento a suo tempo avviato dal Garante nei confronti di Replika, lo standard di mercato per verificare che i più piccoli non usino servizi riservati agli adulti è semplicemente quello di fingere di fidarsi dell’età dichiarata dagli utenti.

Le questioni da risolvere in tema di age verification

E, quindi, se un ragazzino di undici anni, dichiara di averne diciotto, gli si aprono le porte di qualsiasi interazione sentimentale, sessuale, educativa o diseducativa come quelle di qualsiasi servizio di pseudo-supporto psicologico.

E per il fornitore di servizi, quel bambino, un istante dopo, diventa un adulto semplicemente perché ha dichiarato di esserlo.

Uno dei tanti abissi regolamentari in materia.

Mentre da un lato si attende che l’Europa faccia le sue scelte e gli stati membri nicchiano, sperimentano, ritardano.

I vuoti del decreto “Caivano”

Basti pensare che in Italia – per una volta avanti sulla strada della buona regolamentazione – siamo ancora ai nastri di partenza con l’implementazione del Decreto Caivano che, tuttavia, si preoccupa solo di imporre la verifica dell’età ai gestori dei siti pornografici, con un promettente disegno di legge bipartisan che vorrebbe estenderla a tutte le piattaforme online – ma è, appunto, ancora solo una proposta – e, con una manciata di caratteri, buttati la, nel disegno di legge sull’intelligenza artificiale che sembrano suggerire che serviranno quattordici anni per usare servizi basati sull’intelligenza artificiale senza, tuttavia, nulla dire su come questo limite di età debba essere verificato né su quali siano i servizi, in un universo nel quale l’AI è destinata a essere dappertutto, per i quali tale limite debba valere.

Perché, per esempio, c’è da augurarsi che per un servizio, pure basato sull’intelligenza artificiale, che offre escort per prestazioni sessuali online, i quattordici anni, non bastino.

Ma non ci sono solo i bambini a ritrovarsi privi di adeguata protezione davanti alla seduttività crescente degli algoritmi e al rischio di finire prigionieri di una dipendenza preoccupante.

Le lacune della disciplina sulla privacy

Anche la disciplina sulla privacy, in questi contesti, rischia di fare più acqua che altrove.

Perché è un dato di fatto che con un bot nato per creare empatia sin dalle prime battute, per diventare tuo amico, l’amore della tua vita – per quanto l’espressione possa suscitare ilarità – per essere il tuo amante, il tuo confidente, il tuo psicoterapeuta, ci si racconta e ci si apre più che in ogni altro contesto, condividendo dati personali e personalissimi in condizioni almeno di scarsa consapevolezza se non di assoluta inconsapevolezza circa le conseguenze di questa scelta.

In un contesto del genere le informative sulla privacy – peraltro spesso lontane in termini di chiarezza e completezza dagli standard imposti dalla disciplina vigente – servono meno che altrove perché la condizione di fragilità che spinge gli utenti verso certi servizi da una parte e la sensazione di urgenza percepita nell’iniziare a utilizzarli fanno si che nessuno le legga o, comunque, che nessuno, anche laddove le legga, si fermi a riflettere quanto dovrebbe sull’opportunità della scelta.

E, naturalmente, altrettanto può dirsi del consenso, altro perno della disciplina sulla protezione dei dati personali: quanto ci si può attendere che sia per davvero ponderata, riflettuta e libera una scelta assunta mentre si è alla ricerca di conforto in un momento di solitudine o di debolezza, mentre si è convinti di aver trovato la strada che porta all’anima gemella, mentre si sta entrando in una novella casa di appuntamenti digitale o mentre si sta così male da aver solo bisogno di parlare con qualcuno – anche se in realtà si parlerà con qualcosa – che ci si presenta come capace di farci star meglio?

Anche la nostra intimità diventa un business: i rischi

E così frammenti intimi e segreti dell’esistenza umana finiscono nella pancia di società commerciali che li trasformano in asset da capitalizzare sui mercati globali.

E non basta perché il rischio – verrebbe da dire quello vero se non fosse che attorno a questo fenomeno i rischi sembrano tutti egualmente veri e importanti – è che i nostri segreti e le nostre debolezze, caduti nelle mani sbagliate, consentano a chicchessia di impadronirsi di noi, di teleguidarci in ogni genere di scelta, di comprimere fin quasi a eliminarlo il nostro diritto all’autodeterminazione.

Senza dire che, a prescindere dagli scenari più foschi, quei dati e quelle informazioni consentono ai fornitori dei servizi dei quali stiamo parlando di rendere i servizi in questione protagonisti assoluti della nostra esistenza quotidiana, in una parola, di creare condizioni di autentica dipendenza, esattamente come quella creata da certe droghe, dal fumo, dall’alcol o dal gioco d’azzardo, solo per citarne qualcuna.

E questo ci conduce all’ultimo – benché in un elenco inesorabilmente incompleto e soggettivo – degli ambiti nei quali la regolamentazione in materia di AI, forse, non è ancora entrata quanto dovrebbe.

I pericoli di dipendenza da servizi “seduttivi” basati su algoritmi

Non varrebbe la pena di fare qualcosa, pur consapevoli che le regole hanno fallito spesso contro generi diversi di dipendenza, per scongiurare il rischio che centinaia di milioni di persone nel mondo, nei mesi e negli anni che verranno, si ritrovino letteralmente dipendenti da servizi basati su algoritmi progettati e addestrati fuori da qualsivoglia controllo e esclusivamente allo scopo di generare profitti per i padroni delle fabbriche che li hanno prodotti?

Limitare il tempo d’uso di questo genere di servizi, obbligare i fornitori a investire risorse importanti in campagne di comunicazione che ricordino il rischio di dipendenza e gli altri rischi connessi all’utilizzo dei servizi in questione o, forse, persino, in taluni casi, considerare alcuni usi degli algoritmi semplicemente vietati, considerando, per dirla con le parole dell’AI Act, il rischio di dipendenza come insostenibile.

Conclusioni

Ma a prescindere dalle ricette e dalle terapie, probabilmente, la cosa più importante è prendere atto che il fenomeno esiste e che se non governato potremmo presto assistere al suo diffondersi planetario alla velocità dei virus più feroci.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3