bot interattivi

Google duplex, quali conseguenze etiche e sociologiche se l’intelligenza artificiale si spaccia per umano

Il sistema di intelligenza artificiale Duplex di Google è una tecnologia sofisticata e dalle impressionanti capacità di comprensione del linguaggio, tanto da riuscire a ingannare un interlocutore umano. Ecco perché ha sollevato un vespaio di polemiche e quali sono le principali conseguenze etiche e sociologiche

Pubblicato il 14 Mag 2018

Davide Bennato

professore di Sociologia dei media digitali all’Università di Catania

shutterstock_728204470

Quando qualche giorno fa Sundar Pichai – CEO di Google Inc. – ha mostrato le impressionanti capacità di comprensione del linguaggio di Duplex, era evidente dal suo sguardo che tratteneva a stento la soddisfazione nel presentare una tecnologia così sofisticata, e da bravo ingegnere aveva ben chiaro che il traguardo raggiunto era assolutamente importante. Ma come tutte le persone che si lasciano prendere dall’interesse verso la tecnologia (e meno dalle conseguenze comunicative e sociali) non poteva immaginare il vespaio che avrebbe sollevato.

Cos’è Google Duplex

La situazione è la seguente. Alla recente conferenza per sviluppatori Google I/O, Pichar ha mostrato una nuova tecnologia del sistema Google Assistant, chiamata Google Duplex, che consiste in una intelligenza artificiale in grado di riconoscere il linguaggio naturale e che riesce ad interagire con una persona, senza che quest’ultima si accorga di stare interagendo con un dispositivo artificiale. Il test mostrato per evidenziare le potenzialità di Duplex, sono state due telefonate fatte dall’intelligenza artificiale: in una per fissare un appuntamento da un parrucchiere per un taglio di capelli, in un’altra per prenotare un tavolo ad un ristorante. La cosa che ha impressionato l’uditorio – ed ha fatto sollevare gridolini di ammirazione – è stato che non solo Duplex comprendeva le domande che le venivano rivolte, ma che interagiva con una voce umana in grado di simulare anche i suoni che esprimevano pause e attesa (ovvero i segnali discorsivi di assenso), ingannando la persona dall’altro capo del telefono.

Ed è proprio questo punto che ha fatto sollevare un coro di critiche da parte di diversi studiosi come Zeynep Tufekci (sociologia esperta di tecnologie emergenti dell’Università del Nord Carolina), Thomas King (ricercatore del Digital Ethics Lab dell’Oxford Internet Institute), Erik Brynjolfsson (professore alla MIT Sloan School of Management): l’inganno. (tanto che Google ha poi annunciato che avviserà l’utente se la telefonata è fatta dall’intelligenza artificiale).

Per quale motivo? Perché un’intelligenza artificiale che inganna un interlocutore umano ha due importanti conseguenze: etiche e sociologiche.

Le conseguenze etiche e sociologiche

La prima conseguenza è che siamo sulla strada verso un’intelligenza artificiale in grado di superare il test di Turing. Con questo nome si definisce un test – ideato da Alan Turing (per intenderci il matematico interpretato da Benedict Cumberbatch nel film di Morten Tyldum “The Imitation Game”) secondo cui se da una serie di interazioni non è possibile riconoscere un essere umano da una macchina, vuol dire che la macchina è intelligente.

Questa definizione di intelligenza artificiale – una macchina è intelligente se inganna un essere intelligente – è stata pesantemente criticata da filosofi, sociologi e psicologi, ma ha sempre suscitato un certo fascino per coloro i quali si occupano di tecnologie avanzate. L’idea è talmente forte che il famoso test di Voight-Kampff – il test che serve per decidere se un essere sia un uomo o un replicante – rappresentato nel film “Blade Runner” di Ridley Scott è stato ispirato da Philip Dick proprio dal test di Turing. Una macchina che imita un essere umano è rischiosa dal punto di vista etico perché se una macchina può superare un test di Turing, non è detto che un essere umano lo superi. Detto altrimenti: una macchina intelligente può (quasi) sempre superare il test, mentre una persona è possibile che non ne sia in grado. Prima che sembri uno scenario da film di fantascienza si consideri questi due esempi.

Il paradosso dei Captcha

Un sistema – classico – per verificare se a compilare un modulo su internet sia un uomo o un bot sono i famosi CAPTCHA, ovvero quegli strani test in cui siamo chiamati a riconoscere una parola, a identificare delle immagini o a svolgere altri tipi di micro-task in modo che il sistema sia in grado di distinguere una persona da un bot. Come tutti sanno, i CAPTCHA hanno un pulsante che consente di ricaricare la parola o l’immagine perché esistono delle condizioni fisiche – come il forte astigmatismo o il daltonismo – per cui alcune persone potrebbero non superare il test. In pratica i CAPTCHA potrebbero avere dei falsi positivi: uomini identificati come macchine e viceversa. Questa cosa è ancora più curiosa se si considera il fatto che CAPTCHA è l’acronimo di: Completely Automated Public Turing-test-to-tell Computers and Humans Apart, ovvero Test di Turing pubblico e completamente automatico per distinguere computer e umani.

La telefonata di Goole Duplex al ristorante

C’è un altro esempio da prendere in considerazione: la telefonata fatta da Google Duplex alla al ristorante. Se ascoltate con attenzione la conversazione, noterete che mentre l’intelligenza artificiale si trova perfettamente a proprio agio durante la conversazione, tanto da ripetere più volte le informazioni necessarie e specificarle, la persona dall’altra parte del telefono non comprende alcuni passaggi chiave – il numero delle persone, la data per quando è necessaria la prenotazione.

Detto altrimenti, nella conversazione fra Duplex e la persona del ristorante, è quest’ultima a sembrare un essere artificiale perché non capisce cosa le sta dicendo il software di Google. Forse perché non conosce bene l’inglese (immigrata? Persona di un quartiere povero?) oppure semplicemente perché la linea è disturbata, oppure è distratta da qualcosa: non lo sappiamo. Ma una cosa la capiamo benissimo: la performance telefonica della ragazza del ristorante è peggiore di quella del sistema di intelligenza artificiale.

Gli aspetti sociologici da non sottovalutare

E qui giungiamo alla seconda conseguenza: quella sociologica. Un bot automatico come Duplex, che ricordiamo fa parte della suite di Google Assistant, introduce nella nostra vita sociale un soggetto completamente nuovo, i bot automatici e interattivi. La società del XIX secolo era caratterizzata da quattro tipologie di agenti sociali: persone, coppie, gruppi, collettività. Adesso in questa tassonomia sono entrate a far parte una nuova famiglia di soggetti sociali: i dispositivi artificiali automatici.

Non importa se sono algoritmi che funzionano dentro piattaforme digitali, robot autonomi come quelli della Boston Dynamics o bot disincarnati come Siri o Duplex. L’idea è che in quanto tecnologie in grado di interagire autonomamente con l’ambiente circostante, interferiscono con le persone e con le loro interazioni sociali. Per questo è necessario che una persona capisca che sta interagendo con una intelligenza artificiale, perché in questo modo si innescano delle aspettative di interazione che fanno si che la persona possa riconfigurare il suo comportamento. Se noi siamo al telefono con una persona, ci comportiamo in un certo modo, ma se noi sappiamo che al telefono c’è un sistema artificiale ovviamente il nostro comportamento sarà necessariamente diverso. Nel momento in cui ciò non dovesse più accadere – ovvero trattare al telefono allo stesso modo persone o macchine – non vuol dire che avremo trattato le macchine in maniera umana, ma più probabilmente potrebbe voler dire che avremmo cominciato a trattare le persone come macchine.

Nel famoso film di Spike Jonze “Her”, Joaquin Phoenix decide di innamorarsi di una intelligenza artificiale priva di corpo che ha la voce di Scarlett Johansson perché la sente vicina emotivamente e umanamente. È una scelta, ed è lecito che una persona decida coscientemente di innamorarsi di un software. Il problema potrebbe sorgere se le persone cominciano a innamorarsi di intelligenze artificiali senza rendersi conto che lo siano.

Innamorarsi coscientemente di un sistema artificiale è libertà, innamorarsi di un sistema artificiale senza conoscerne la natura è violenza.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati