i timori degli esperti

Perché abbiamo diritto a temere l’intelligenza artificiale

Hinton, uno dei padri del deep learning ha preferito mollare il lavoro in Google per essere più libero di parlare dei pericoli della AI. Un crescente numero di esperti esprime diversi tipi di timori verso l’AI

Pubblicato il 03 Mag 2023

Micael Zeller

recuperohd.it, cultura-digitale.com

IA intelligenza artificiale ai generativa e copyright

Fino al mese scorso Geoffrey Hinton, pioniere a livello mondiale delle reti neurali, insignito del Premio Turing  in compagnia di Yann LeCun e Yoshua Bengio, era rimasto estraneo al coro di critiche che invocavano un altolà allo sviluppo di intelligenza artificiale generativa, paventando imprevisti risultati pericolosi. L’attrattiva delle nuove tecnologie è irresistibile, e d’altronde si sa che “se non lo faccio io, lo farà qualcun altro”.

Ma ora, dopo più di un decennio di vertiginose innovazioni al servizio di Google, Hinton ha preferito mollare il lavoro proprio per essere più libero di parlare dei pericoli della AI. Si noti che Bengio è il più famoso firmatario della nota lettera sulla necessità di rallentare lo sviluppo dell’AI.

Non lasciamo l’AI nelle mani di big tech e tecnocrati

Negli ultimi anni i progressi sono stati tanto imprevedibilmente travolgenti, in una competizione inarrestabile, da fare temere di perderne presto il controllo. Si può scoprire chi sta fabbricando una bomba atomica, ma non si può sapere chi sta sviluppando segretamente una tecnologia di AI, l’unica soluzione sarebbe un accordo globale ai massimi livelli che limitino la concorrenza con regole e controlli.

I rischi dell’AI

Il gesto di Hinton conferma che controlli pervasivi dei cittadini, computer che si scrivono i programmi e li lanciano autonomamente, robot soldati, non fanno parte solo degli incubi di persone sprovvedute e impressionabili.

Ma, anche prima di arrivare a tali eccessi, per esempio un fotografo potrebbe chiedersi se sarà ancora proteggibile il diritto d’autore dei suoi scatti, giacché le AI grafiche potranno fare incetta di particolari di fotografie pubblicate per sfruttarli nella creazione di immagini, magari per diffondere un falso.

E non è difficile immaginare analoghe preoccupazioni insorgenti in campo musicale, cinematografico, giornalistico (vedi a questo proposito la deprecata falsa intervista a Michael Schumacher). Chiunque di noi può chiedersi se potremo proteggerci da videotelefonate artefatte a scopo di truffa e altri falsi malevoli.

Giusto quindi che le autorità si chiedano quali nuove regole inventare, per tentare di tenere sotto controllo i flussi dei dati ceduti e il loro utilizzo da parte di AI. Su questo come su analoghi argomenti l’impostazione della UE si differenzia da quella americana e britannica, orientandosi verso un controllo più o meno stringente secondo i diversi usi della AI. Ovviamente ogni regola imposta rischia di legare le mani al progresso, e magari di svantaggiare gli operatori di un paese rispetto alla concorrenza d’oltremare; dobbiamo abituarci a inventare normative sempre nuove, calibrando vantaggi e rischi, consci che l’operato di una rete neurale – se fuori controllo – può essere tutt’altro che innocuo, per esempio in un’applicazione medica, o alla guida di un’automobile o di una centrale elettrica.

E anche nei confronti di chi riveste in Europa ruoli decisionali , come ha recentemente detto Emilia Garito, membro del Consiglio Europeo per l’Innovazione, al festival carrarese “Con-vivere”,  si deve tenere conto dei tempi di assorbimento, di digestione, delle nuove tecnologie. Anzi, secondo Garito se i tempi di trasformazione tecnologica fossero tali da essere assorbibili dalla competenza e dalla conoscenza di chi poi deve fare le leggi, potremmo vivere una trasformazione tecnologica che si chiama progresso.

In queste settimane la Camera dei Deputati ha iniziato un ciclo di audizioni per raccogliere informazioni per regolamentare gli algoritmi. Il primo contributo

è stato quello di Paolo Benanti, che nella sua approfondita esposizione in chiave etica ha detto fra l’altro: “Oggi noi siamo invasi da sistemi che hanno grandissime capacità, grandissimi parametri, grandissima velocità, ma questa grandissima velocità non è detto che sia in grado di corrispondere a una finezza o a una vera conoscenza.” Osservazione che può richiamare la necessità della diffusione di una autentica Cultura Digitale.

“Cultura digitale”, insegnarla a scuola e formare gli insegnanti: ecco perché è una priorità

Assistenti, e rapporti, non umani

Ma come dobbiamo aspettarci che cambieranno le nostre giornate? Per esempio, con le funzioni di AI che Alphabet sta preparando da mesi, possiamo aspettarci funzioni da “copilota” che velocizzino tutti i lavori con la suite di Google. Se il chatbot GPT collaudato fino a ieri è solo un saggio generico, che cosa potrà fare una AI addestrata da me sulle mie particolari esigenze? Diventerà un assistente ideale, sempre a portata di voce, che  conosce bene i miei dati, i miei fatti e le mie esigenze? Una segretaria ideale, un po’ schiava e un po’ mamma, che conosce bene le mie manìe? E che scrive le email per me?

Ma a chi le scriverà? Ricordiamo il caso della email di risposta automatica “Sono assente. Potrò leggere la vosta email il giorno …” che venne ricevuta da un utente il quale aveva a sua volta inserito un’analoga risposta automatica. Al ritorno dalle vacanze, i due interlocutori scoprirono che i rispettivi server avevano continuato a rimbalzarsi risposte automatiche ringraziandosi e avvertendosi a vicenda.

Qualcosa di analogo potrebbe avvenire con le nuove funzionalità: saremo tentati di delegare sempre più, non controlleremo più le bozze delle nostre email prima di mandarle, e magari il destinatario le farà leggere dal suo assistente.

Per anni numerose aziende si sono illuse di fornire ai clienti un servizio pseudo-umano di risposte robotizzate. Finora il risultato è stato deludente, con chatbot del tipo “Ciao sono Anna, chiedi a me”, con la penosa illusione di lusingare il cliente dando un nome di fantasia a un chatbot inetto, quasi mai migliore di una FAQ. Oramai però non ci chiediamo quasi mai se a scriverci è stato un umano o un bot, sempre pronto ad parteciparci i suoi sentimenti (“sono lieto di comunicarle…”, “ci dispiace, ma…”). Un rischio è quindi che le AI de-umanizzino ulteriormente le nostre relazioni infiltrandosi nelle comunicazioni in qualità di media ormai scontati, accettati, pervasivi, “trasparenti”, ma nell’accezione informatica della parola, cioè non visibili.

E’ un timore certamente preconizzato nel passato, ma a differenza del passato vengono alla luce i considerevoli difetti della AI. Innanzitutto il vizio che ci si illudeva di eliminare con il ricorso ai mezzi informatici: il pregiudizio, con tutti i “bias” discussi in questi anni. Ma, più in generale, il sapere dei chatbot, se sfruttato, per pigrizia, per generare e pubblicare nuovi testi, rischierà di rientrare nel ciclo di produzione dei grandi modelli testuali, diffondendo sempre più opinioni, pregiudizi, atteggiamenti confacenti a un conformismo globale. E il fatto che le grosse risorse dell’AI appartengano al solito oligopolio d’oltreoceano non può che accentuare le preoccupazioni qui “alla periferia dell’impero”.

Big tech troppo potenti con l’AI: ecco i rischi

Tutte le storie dell’AI marcano come pietra miliare la sfida in cui, nell’ottobre 2015, il programma AlphaGo sconfisse il campione mondiale.

Presto le macchine faranno tutto da sole: siamo davvero vicini alla singolarità tecnologica?

del gioco Go.

Ma chi fa il tifo per la nostra specie può segnare il febbraio 2023 come data di una gustosa rivincita: la sconfitta della AI ad opera di un discreto giocatore di go, Kellin Pelrine. La vittoria di Pelrine è in realtà una vittoria di Pirro, peraltro preparata con l’ausilio di risorse informatiche. Ci conferma però che addestramento automatico e risorse anche enormi non sostituiscono la capacità umana di generalizzare e di affrontare i problemi con un pensiero creativo laterale.

E comunque, anche se volessimo rappresentare l’AI come mostro che si ribella al suo creatore, forse non ci verrebbe da evocare Golem o Frankenstein perché non provengono dalla nostra cultura nazionale e popolare. Semmai, nel tentativo di pronunciare “GPT”, ci uscirebbe dalla bocca “Geppetto”, e ci verrebbe in mente la sua creatura ribelle che tutti conosciamo fin da bambini:

Quando Geppetto ebbe finito di fargli i piedi, sentì arrivarsi un calcio sulla punta del naso.

Me lo merito! – disse allora fra sé. – Dovevo pensarci prima! Ormai è tardi!”

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2