Se si prende la tabella pitagorica, quella che tutti abbiamo conosciuto alle elementari, l’impressione è di un dispositivo molto semplice, capace di fornire i prodotti delle moltiplicazioni tra i numeri naturali che stanno da uno a dieci compresi.
La usavamo al tempo senza alcun timore, in quanto non vi scorgevamo nulla di complesso, null’altro che non fosse una semplificazione capace di comunicare un risultato senza costringerci al calcolo manuale.
Se però quel semplice schema lo estendessimo in verticale e orizzontale per miliardi di numeri attraverso uno strumento digitale (quale un foglio elettronico molto ampio), la cosa potrebbe farsi differente: a quel punto, saremmo forse colpiti dal fatto che la soluzione riempie la casella appropriata in un tempo infinitesimale rispetto a quanto ci metteremmo con carta e matita. Sulla scala antropica, il tempo di calcolo dell’elaboratore per risolvere 3×4 è sostanzialmente analogo a quello impiegato per moltiplicare tra loro due numeri composti da centinaia di cifre. Razionalmente, sappiamo che quella operazione non richiede nessuna forma di intelligenza da parte del computer, visto che è programmato per quell’attività, mentre ne richiederebbe se fosse risolta da un essere umano. E non solo intelligenza sarebbe indispensabile ad una persona, ma anche conoscenza della tecnica di risoluzione, tempo, concentrazione, attrezzi quali foglio e penna per registrare man mano le varie fasi e ogni altro apparato fisico o logico previsto dal processo.
In un caso del genere, l’intelligenza umana appare ben diversa dalla capacità dello strumento digitale.
L’illusione dell’intelligenza delle macchine
Le cose cambiano se quelle operazioni diventano milioni e milioni in pochi attimi, risolvendo in tempi ristrettissimi problemi complessi, ben differenti da quelli per cui ci era utile la tabellina delle elementari. A quel punto scatta spesso un errore di prospettiva: l’abilità di venire a capo di quel genere di problemi noi la percepiamo da sempre quale indice di intelligenza e così l’illusione trova facile spazio nella mente, condizionandoci a pensare che una macchina che lo risolve autonomamente abbia un barlume di intelligenza, un qualche simulacro di quella caratteristica che per millenni abbiamo ritenuto prettamente umana e che solo la ricerca degli ultimi decenni ha dimostrato esistere anche negli animali, sia pure in forma diversa.
L’illusione diventa tanto più consistente quando quella presunta quanto inesistente intelligenza degli automi si applica a manifestazioni dell’umanità che percepiamo quali nostro patrimonio esclusivo, per esempio l’uso del linguaggio, la rappresentazione simbolica, le deduzioni sofisticate, la facoltà di inventare strategie per raggiungere una certa conclusione e così via.
Questa percezione di esclusività dell’uomo è assai radicata in noi, rappresentando in qualche modo una sintesi della nostra evoluzione come specie, di quei fattori distinguenti che l’hanno condotta ad avere un dominio assai ampio del Pianeta, sia pure infranto da certi elementi (un virus, un terremoto, una condizione metereologica, ad esempio) che ci fanno intendere una sua parzialità e inducono un profondo timore di caducità.
Le preoccupazioni legate allo sviluppo della intelligenza artificiale
Partendo da questo punto di vista, la cosiddetta intelligenza artificiale[1] genera immediate preoccupazioni: se è capace di parlare con noi, di apprendere, di perseguire autonomamente obiettivi, di tracciare da sé percorsi per giungere alla risoluzione di problemi, di superare la nostra capacità di fare la stessa cosa, allora l’intelligenza sembra non essere più solo umana (e comunque superiore a quella di ogni animale diverso da noi). Se, dunque, esiste un’altra intelligenza in che modo essere certi che non si opporrà alla nostra, che starà al posto in cui noi l’abbiamo messa, che non si darà obiettivi che prevedano l’annientamento di quella umana e quindi dell’umanità stessa?
Una volta che ci si è posti nella prospettiva sbagliata, questa illusione ottica si fa davvero potente. Così potente che ci spinge a pensare che uno strumento di intelligenza artificiale ottenga esiti per vie analoghe a quelle della nostra mente, cosa che non è.
Una confusione amplificata dalla terminologia
La confusione è amplificata dalla terminologia: non avendo lemmi specifici, diciamo che le macchine imparano (si pensi ad una espressione quale “machine learning”), capiscono, decidono eccetera, usando verbi che sono propri della persona e del biologico ma in realtà ben distanti dai processi interni ai computer.
Un sistema di AI non “impara a riconoscere i gatti”: analizza molteplici parametri di immagini digitali in cui sono riprodotte delle forme (in cui noi distinguiamo animali che chiamiamo comunemente “gatti”) e, identificato un insieme di valori di quei parametri spesso presenti (i “pattern”) lo definisce, come da indicazione umana, “gatto”. In pratica, appiccica l’etichetta “gatto” ad una determinata combinazione di valori di differenti parametri variabili.
Appiccica un’etichetta: non impara cos’è un gatto, non sa cosa sia un gatto, non ne conosce nessuna caratteristica, sebbene possa eventualmente descriverla se già precedentemente esplicitata in un testo a cui ha avuto accesso e di cui ha distinto i pattern linguistici, cioè le combinazioni di parole.
Pensate ad una bottiglia di vino. L’etichettatrice vi ha posto sopra un rettangolo di carta in cui è descritto il prodotto, da dove viene, il grado alcolico e altre informazioni: pensereste mai che l’etichettatrice sappia cos’è il vino? Certo che no, ma se si sostituisce a quel semplice apparecchio un potente calcolatore dotato di AI, l’illusione difensiva che fa immaginare che la macchina sappia cos’è l’oggetto della sua attività (il gatto, il vino) scatta in tutta la sua potenza.
Se si supera questa ambiguità, l’intelligenza artificiale non solo non induce più infondati timori, ma il pensiero si fa più chiaro e meglio fa emergere i reali problemi che il suo utilizzo può generare nelle mani sbagliate.
Facciamo un altro passo.
Due esempi per chiarire i malintesi tra linguaggio umano e comportamento digitale
Quando si dice che un sistema di AI è in grado di giocare efficacemente a scacchi dopo pochi istanti dalla sua attivazione, è facile pensare che esso “impari” nel modo in cui farebbe una persona, cioè giocando molte partite, con il vantaggio che la potenza di calcolo dell’elaboratore gli permette di giocarne migliaia o milioni in pochi attimi. Ancora una volta, adottiamo un’ottica che coincide con la nostra esperienza, con quella della nostra mente e del modello cognitivo che essa utilizza, ma l’AI non fa esattamente così.
Vediamo due casi differenti, ben sapendo che altri se ne potrebbero evidenziare.
Primo esempio: si mettono a disposizione dell’AI una serie di trascrizioni di partite già giocate e completate con i vari risultati possibili (patta, vittoria del nero, vittoria del bianco). Il sistema, opportunamente predisposto, trova i soliti pattern e così associa certe etichette a specifiche caratteristiche: ad esempio, la ”torre”, termine che per lo scopo del computer potrebbe essere sostituito da qualsiasi altra parola, è ciò che si distingue in quanto rappresentato con coordinate che hanno determinati rapporti tra loro (in linguaggio corrente, si direbbe semplicemente che si muova orizzontalmente o verticalmente rispetto agli assi della scacchiera, divisa in righe e colonne). Analizzando le partite, lo strumento evidenzia dai pattern alcune regole (le norme del gioco, gli elementi che lo compongono, la sua finalità). A questo punto, esaminando una partita dopo l’altra, trova quali sono le combinazioni che portano ai differenti esiti. Stabilito quale debba essere il risultato ricercato (l’obiettivo), definito il regolamento, determina man mano coordinate dei singoli oggetti (i “pezzi”, li chiameremo noi) che rendono probabilisticamente più alta la possibilità di giungere all’obiettivo prefissato: vincere, perdere, pareggiare per la macchina non sono altro che “prodotti differenti” dell’elaborazione, non qualcosa cui è legata una particolare sensazione.
Sebbene le applicazioni fondate sull’AI battano i giocatori biologici, basterebbe dare ad esse per obiettivo quella che noi chiamiamo “sconfitta” per essere certi che le loro mosse porterebbero anche l’umano più scarso a trionfare in pochi istanti.
In questo caso, il sistema non ha dovuto simulare alcuna partita e nemmeno giocare contro sé stesso o contro degli esseri viventi o contro altri elaboratori: è stato sufficiente far analizzare ad esso la descrizione posizionale di partite già disputate.
Secondo esempio: il gestore del sistema di AI indica ad esso norme e obiettivi del gioco, anche con esempi. La macchina simula lo svolgimento di partite e man mano ricava dal loro andamento i pattern (le combinazioni ricorsive), e discrimina quelli (o meglio la combinazione di essi) che conducono più probabilmente ai diversi tipi di esito (vittoria, sconfitta, patta). Sapendo che l’obiettivo è vincere (ribadiamo che questa parola non possiede nessun significato per il computer, esattamente come il termine “gatto” non rappresenta per esso alcuna entità biologica), riprodurrà quanto più possibile, nel rispetto delle regole e a seguito dell’interazione con la controparte (il “nero” se esso è il “bianco”), le condizioni che conducono a quel risultato.
Sia nel primo che nel secondo caso, l’AI non possiede la benché minima cognizione di cosa sia il gioco degli scacchi, tanto meno per un umano: ne conosce le regole e le applica ma non ne deriva la concezione del fatto che quello sia, diremmo noi, un gioco, né se qualcuno o qualcosa applichi le stesse leggi, se sia utile o inutile al pianeta. Niente di niente. Nessuna coscienza di ciò.
Resta il problema dei “pregiudizi”
Insomma, le applicazioni basate sull’AI non imparano ma distinguono, non conoscono ma descrivono, non danno risposte ma risultati, non vincono a scacchi perché sanno giocare ma perché riproducono “combinazioni di modelli” che portano all’obiettivo atteso.
Chiariti questi malintesi tra linguaggio umano e comportamento digitale, resta una macchina che fa senza capire, non distingue un danno da un vantaggio se non rispetto al raggiungimento di un obiettivo, non applica concetti di bene o male: un automa potente e altrettanto ignaro, dunque irresponsabile.
Il dibattito etico si occupa quindi, tra l’altro e giustamente, di stabilire su quali persone debba pendere il giudizio quando i sistemi di AI siano utilizzati in maniera avventata, sbagliata o persino dolosa.
Sono molti e ben conosciuti i casi in cui applicazioni basate su AI hanno prodotto risultati in contrasto con l’etica antropica. Uno degli esempi più famosi resta la produzione di suggerimenti di condanne attraverso tool di AI usati quale aiuto ai magistrati del tribunale: analizzate le sentenze, l’AI ne riproduceva i pattern (in questo caso, diremmo meglio i pregiudizi), enfatizzando quelle caratteristiche che erano state proprie dei giudicanti passati, così rendendo visibili i preconcetti etnici e di status sociale che essi avevano applicato infliggendo condanne più pesanti ad alcuni e più leggere ad altri, pur di fronte a casi sostanzialmente analoghi.
L’IA ci aiuta a comprendere i nostri limiti
L’assoluta mancanza di coscienza della macchina può però essere anche sfruttata in senso positivo: non avendo remore né predilezioni (a meno che non sia appropriatamente condizionata a ciò), l’AI può essere utilizzata per analizzare i comportamenti delle persone o di altre macchine per evidenziarne le caratteristiche.
Ad esempio, per determinare come le combinazioni di certi fattori influenzino le decisioni, in particolare indicando quelle che non sono derivate da macroscopici pregiudizi (di etnia, di genere, di condizione sociale, di religione, di cultura ecc.) ma dalla presenza simultanea di fattori singolarmente non così incidenti da poter essere considerati direttamente causali, eppure nell’insieme capaci di condizionare l’esito di una scelta.
Si pensi alle attività di selezione del personale per un determinato posto di lavoro o della concessione o meno di un mutuo: può essere benissimo che i responsabili di quelle scelte abbiano badato a non escludere qualcuno per il colore della sua pelle, ma magari sono stati influenzati da altri fattori (quali potrebbero essere un lessico troppo modesto, un atteggiamento del candidato dovuto a motivi personali di quel singolo momento, una difficoltà espressiva legata ad una ridotta conoscenza della lingua, una prevenzione verso un certo capo di abbigliamento, un gusto musicale non condiviso e così via), ognuno dei quali non avrebbe portato ad un giudizio negativo ma la cui combinazione è stata sufficiente per discriminare quella persona al di là della questione di merito fondamentale (se fosse adatto a quel ruolo, se potesse dare adeguate garanzie di rimborso del prestito nel tempo).
Allo stesso modo, gli articoli di stampa adeguatamente analizzati potrebbero far emergere che le conclusioni tratte non sono coerenti con le descrizioni degli eventi riportati, che esistono dati che le confutano in nuce, che sono state scelte determinate fonti a scapito di altre, che la forma di linguaggio usato spingeva il lettore verso certe posizioni, che ci sono mancanze logiche attribuibili all’intento (ingenuo o ben perseguito) di dimostrare una certa ipotesi.
Non si tratterebbe, si badi, di ridurre tutto a una qualche forma di complotto o di predeterminazione inconscia o razionale, ma di rendere visibili le caratteristiche del ragionamento che hanno portato ad una determinata decisione.
Conclusioni
Quando parliamo di “black box” in riferimento a processi interni dell’AI non visibili o intellegibili dall’esterno, dovremo ricordarci che, sebbene ci costi molto ammetterlo, anche l’operare della nostra mente non è trasparente, e se l’AI fosse usata per renderne più chiari i meccanismi e i limiti, forse potremmo migliorare la capacità di scelta umana, le relazioni sociali e, infine, persino l’AI e il suo irrefrenabile sempre maggior utilizzo.
[1] L’intelligenza artificiale di cui si parla in questo articolo, quella che governa tante applicazioni in ogni campo di attività, è quella cosiddetta “debole”, che non ha la pretesa di simulare il funzionamento del nostro cervello (quella si chiama “forte”, e non è l’oggetto di queste riflessioni), ma di risolvere problemi in maniera efficace (giungere a soluzioni corrette) e possibilmente efficiente (consumare la minima energia possibile per condurre il processo di risoluzione).