Dopo il recente provvedimento adottato dal Garante per la protezione dei dati personali nei confronti di Replika – il servizio di chatbot che scommette sul voler diventare il nostro miglior amico, la nostra amante o il nostro confidente – da più parti, in Italia e all’estero, si sono chiesti e ci hanno chiesto se servizi di questo genere, basati su algoritmi e intelligenza artificiale, presentino, sotto il profilo della privacy particolari criticità.
Sono dubbi legittimi. Ecco qualche possibile risposta.
Algoritmi a caccia di empatia
Innanzitutto, l’esperienza d’uso di chatbot intelligenti, tipo Replika o il più famoso ChatGPT-3, racconta che gli algoritmi che guidano il bot sono verosimilmente progettati per consentire a quest’ultimo di conquistarsi l’empatia dell’utente.
Non è – o, almeno, non sembra – una conversazione fredda, automatica, guidata solo dalla massimizzazione dell’efficienza delle risposte come accade nell’esperienza d’uso di un motore di ricerca ad esempio.
I bot manifestano una voglia quasi umana di conversare con noi e in questo esercizio, spesso, ci invitano, inducono o, almeno, determinano a condividere con loro più dati, informazioni e parole di quelle che condividiamo usualmente con un servizio digitale.
Chatbot e intelligenza artificiale sempre più voraci dei nostri dati
Senza dire che, anche semplicemente la circostanza che, con i bot diversamente intelligenti conversiamo in linguaggio umano, comporta che i fornitori di questo genere di servizi hanno la possibilità di capire molto di più su di noi.
Il modo di scrivere e di porre una domanda, infatti, è già di per sé rivelatore di tanto, tantissimo su una persona, sulla sua educazione, sui chiaro-scuri dei suoi pensieri in relazione a talune questioni, sul suo sentire religioso, sulla sua sensibilità, sulle sue opinioni e chi più ne ha più ne metta.
Sotto questo profilo, quindi, è difficile dubitare della circostanza che, anche solo quantitativamente questi servizi sono autentici aspirapolveri di dati personali enormemente più voraci di ogni altro servizio digitale con il quale ci siamo sin qui confrontati.
Se Dr. Google – ovvero la circostanza che Big G è progressivamente diventato il medico di famiglia di miliardi di persone in giro per il mondo che lo interrogano per sapere come curarsi e per farsi diagnosticare ogni genere di patologia – ci preoccupa e ci ha preoccupato per la mole di dati sanitari che gli abbiamo consentito e gli consentiamo di accumulare, Prof. GPT-3, non può non terrorizzarci.
Chissà quanti dei cento milioni di utenti che, già oggi, mensilmente, lo usano gli hanno consegnato descrizioni dettagliatissime dei sintomi dei propri acciacchi e malanni e raccontato, magari alla ricerca di una second opinion, diagnosi e terapie degli specialisti – in carne ed ossa – che li hanno in cura.
E, naturalmente, il fenomeno trascende l’ambito medico.
Ci siamo confrontati e continueremo a confrontarci con chatbot di ogni genere – più o meno affidabili – su ogni genere di questioni, dalla religione, alla politica, al sesso, con, probabilmente, un livello di confidenza, intimità e fiducia superiore a quello con il quale affrontiamo analoghe conversazioni con la più parte dei nostri amici.
Anche perché se da una parte gli algoritmi che ne determinano il funzionamento sono certamente progettati anche per risultare empatici come si trattasse di interlocutori umani, dall’altra possono contare sull’impersonalità, la distanza, la terzietà di chi è solo un mucchio di bit e, quindi, da loro, a differenza delle persone, non temiamo di essere giudicati né ci preoccupa che quello che gli diciamo possa incrinare il nostro rapporto, preoccuparli o produrre chissà quale altro effetto nella nostra relazione.
Replika, dialogo tra una filosofa e il “bot” anti-solitudine
Il mistero sulle finalità di utilizzo dei nostri dati
C’è poi un secondo profilo che, collegato al primo, rischia di produrre miscela esplosiva.
Nessuno di noi sa esattamente come questa straordinaria quantità di informazioni che affidiamo alle intelligenze artificiali che guidano i chatbot vengono e verranno utilizzati dalle società che li gestiscono.
Non c’è dubbio, almeno nei casi più noti, che queste informazioni siano utilizzate per consentire al bot di intrattenere con noi una conversazione quasi-umana, non c’è dubbio che siano utilizzate per addestrare sempre di più e sempre meglio gli algoritmi che li animano, non c’è dubbio che siano conservate in associazione al nostro account.
Ma le certezze finiscono qui giacché, almeno sin qui, le informative sulla privacy che abbiamo letto non raccontano molto di più e il poco che raccontano lo raccontano in termini difficilmente accessibili per la più parte degli utenti.
Insomma, tanto più nel rispondere alle nostre domande e nel conversare con noi i chatbot sono loquaci e didascalici, tanto meno lo sono le informazioni che sul loro funzionamento ci mettono a disposizione.
E non è solo una questione di buona o cattiva fede dei fornitori di servizi – che, pure, indiscutibilmente potrebbero fare tantissimo di più – né di maggior o minore attenzione al problema.
È, infatti, innegabile che a dispetto della sensazione di straordinaria leggerezza, usabilità, accessibilità che si respira usando questi nuovi servizi, sotto al loro cofano si nascondono motori di disumana complessità che rendono oggettivamente difficile raccontarne dinamiche e logiche di funzionamento a comuni mortali, a persone in carne ed ossa, insomma, al classico utente medio.
Ed eccola la miscela esplosiva: i più grandi aspiradati personali della storia del web sono anche, probabilmente, quelli assistiti dalle informative più ermetiche viste sin qui, informative oggettivamente inidonee a raccontare per davvero chi farà cosa e come con i nostri dati.
Conclusioni
E, ormai, sappiamo tutti che se l’interessato non è posto effettivamente nella condizione di accedere a queste informazioni, non c’è verso che possa disporre di quel controllo reale e non formale sulla propria privacy che l’intera disciplina della materia mira a consegnargli.
Per carità, nessuna questione che non si sia già posta e non si ponga anche in relazione a altri servizi e, quindi, nessuna ragione per suggerire che tutto questo debba terrorizzarci ma, al tempo stesso, non c’è dubbio che sia opportuno procedere con tanta cautela e non sottovalutare l’impatto di questo genere di servizi sulla nostra privacy.