intelligenza artificiale

IA, cosa temono i massimi esperti



Indirizzo copiato

Hinton che ha lasciato Google è in buona compagnia sui molti timori nei confronti dell’intelligenza artificiale, per il breve e lungo periodo. Ecco il contesto in cui si esprimono, nella community scientifica di riferimento

Pubblicato il 9 mag 2023

Antonino Mallamaci

avvocato, Co.re.com. Calabria



La consapevolezza di sé stessi: cosa serve raggiungere un’alta autoconsapevolezza

Diremo tra poco chi è e cosa rappresenta Geoffrey Hinton nel campo dell’Intelligenza artificiale, per capire l’importanza delle sue considerazioni e dell’inquietudine che necessariamente esse sollevano.

In una recente intervista, egli ha affermato che quando le persone gli chiedevano come poteva lavorare su una tecnologia potenzialmente pericolosa, ricorreva a quanto dichiarava Robert Oppenheimer, uno dei padri della bomba atomica USA: “Quando vedi qualcosa che è tecnicamente fattibile, vai avanti e fallo”.

'Godfather of AI' warns that AI may figure out how to kill people

Geoffrey Hinton e l’AI

Oggi, quando affronta il tema dell’I.A., non se la sente più di sposare questa posizione. Geoffrey Hinton è stato un pioniere dell’intelligenza artificiale. Poco più di dieci anni fa ha creato, insieme a due suoi studenti laureati all’Università di Toronto, una tecnologia che è diventata la base per i sistemi di intelligenza artificiale. In sostanza, ha cambiato il modo in cui le macchine vedono il mondo, realizzando un sistema in grado di analizzare migliaia di foto e, imparando da solo grazie al machine learning, ad identificare oggetti come fiori e automobili con precisione pressoché assoluta.

Il professore e i due studenti sono stati presto ingaggiati da Google, e il sistema, chiamato rete neurale, si è affermato consentendo, ad esempio, alle auto a guida autonoma di riconoscere segnali stradali e pedoni. Qualche giorno addietro, tuttavia, si è ufficialmente unito ai critici che affermano che le aziende tecnologiche stanno correndo verso il pericolo con la loro campagna aggressiva per creare prodotti basati sull’intelligenza artificiale generativa, la tecnologia che alimenta popolari chatbot come ChatGPT.

Il Dr. Hinton ha lasciato Google, dove ha lavorato per più di un decennio divenendo una delle voci più rispettate nel settore, quindi può parlare liberamente dei rischi dell’IA. Ora si rammarica del lavoro della sua vita.

“Mi consolo con la solita scusa: se non l’avessi fatto io, l’avrebbe fatto qualcun altro”, ha detto.

L’opera del Dr. Hinton segna un momento straordinario per l’industria tecnologica, forse nel suo punto di svolta più importante degli ultimi decenni. I leader del settore ritengono che i nuovi sistemi di intelligenza artificiale potrebbero essere importanti quanto l’introduzione del browser Web all’inizio degli anni ’90, e portare a scoperte in settori che vanno dalla ricerca sui farmaci all’istruzione.

I timori di vari esperti

Ma ad inquietare molti addetti ai lavori è la paura che stiano facendo qualcosa di pericoloso: un potente strumento per la disinformazione; un rischio per i posti di lavoro. Addirittura, per l’intera Umanità se, come ha detto Hinton, non fissi regole che impediscano ai “cattivi” di usarlo per i loro fini. Infatti, prima di Geoffrey Hinton, 1.000 esperti di tutto il mondo (tra i quali il professore Domenico Talia dell’Università della Calabria) hanno firmato una lettera aperta chiedendo una moratoria di sei mesi sullo sviluppo dell’intelligenza artificiale, della quale abbiamo già riferito in tempi recenti. A questo appello ne è seguito un altro, sottoscritto da 19 accademici attuali ed ex componenti della Association for the Advancement of Artificial Intelligence. Del gruppo fa parte Eric Horvitz, direttore scientifico di Microsoft.

La lettera, titolata “Lavorare insieme per il nostro futuro con l’IA”, premettendo che “I recenti progressi nelle tecnologie di intelligenza artificiale hanno generato entusiasmo e preoccupazione” prosegue spiegando che i firmatari scrivono per “fornire una prospettiva equilibrata sulla gestione dei progressi nel campo. Cerchiamo inoltre di ampliare e rafforzare la comunità di ricercatori impegnati, agenzie governative, aziende private e il pubblico in generale, per garantire che la società sia in grado di cogliere la grande promessa dell’IA gestendo i suoi rischi”. La missiva prosegue elencando i lati positivi dell’utilizzo dell’I.A.: alimenta i sistemi di navigazione; viene sfruttata in migliaia di screening quotidiani del cancro; smista miliardi di lettere nel servizio postale. Oltre a tali applicazioni, “il potenziale dell’intelligenza artificiale si estende ben oltre: (…) solo negli ultimi due anni ha rivelato la struttura di centinaia di migliaia di proteine ​​e viene utilizzata per migliorare la qualità dell’assistenza negli ospedali, per eseguire previsioni meteorologiche precise, per guidare lo sviluppo di nuovi materiali e per fornire agli ingegneri idee che stimolano la creatività. (…) l’intelligenza artificiale cambierà sempre più le regole del gioco in sanità, clima, istruzione, ingegneria e in molti altri campi”. A questo punto le dolenti note: “Allo stesso tempo, siamo consapevoli dei limiti e delle preoccupazioni sui progressi dell’IA, incluso il rischio di commettere errori, fornire raccomandazioni distorte, minacciare la nostra privacy, dotare i malintenzionati di nuovi strumenti”.

“I ricercatori nel campo dell’intelligenza artificiale e in più discipline sono al lavoro per identificare e sviluppare modi per affrontare queste carenze e rischi, rafforzando al contempo i vantaggi e identificando applicazioni positive. In alcuni casi, la stessa tecnologia AI può essere applicata per creare una supervisione affidabile e regole per ridurre o eliminare i guasti. Anche altre tecnologie, come la crittografia e la progettazione dell’interazione uomo-macchina, stanno svolgendo un ruolo importante nell’affrontare questi problemi. (…) Garantire che l’IA sia impiegata per il massimo beneficio richiederà un’ampia partecipazione.

Sosteniamo fortemente un approccio costruttivo, collaborativo e scientifico che mira a migliorare la nostra comprensione e a costruire un ricco sistema di collaborazioni tra le parti interessate per lo sviluppo responsabile nella messa in campo delle tecnologie di intelligenza artificiale”. Viene quindi sottolineato il ruolo che Governi e aziende possono e devono recitare: “i governi dovrebbero garantire agli scienziati risorse sufficienti per svolgere ricerche su modelli su larga scala, sostenere la ricerca socio-tecnica interdisciplinare sull’IA e le sue influenze più ampie, incoraggiare le migliori pratiche di valutazione del rischio, regolamentare in modo approfondito le applicazioni e contrastare i suoi possibili usi criminali. Le aziende, invece, dovrebbero impegnarsi nel fornire ai ricercatori di IA universitari l’accesso a modelli, risorse e competenze di IA aziendali. Dovrebbero anche essere trasparenti riguardo alle tecnologie che sviluppano e condividere informazioni sui loro sforzi in materia di sicurezza, affidabilità, correttezza ed equità”.

Il documento si chiude con un auspicio e un invito alla cooperazione: “Speriamo che altri si uniscano a noi nella nostra missione volta a sfruttare l’intelligenza artificiale per il miglioramento di tutta l’umanità”.

Hinton non ha aderito ai due appelli in quanto non ha voluto criticare pubblicamente Google o altre società fino a quando non avesse lasciato il suo lavoro. Ora l’ha fatto e non ha esitato a dire ciò che pensa, che è coerente con le sue scelte passate. Negli anni 80 lasciò la cattedra di informatica della Carnegie Mellon University, per non accettare finanziamenti dal Pentagono, dato che allora la maggior parte della ricerca sull’IA negli Stati Uniti era finanziata dal Dipartimento della Difesa.

Hinton è profondamente contrario all’uso dell’intelligenza artificiale in guerra, a quelli che chiama “soldati robot”. Nel 2018 ha ricevuto il Premio Turing, che prende il nome da uno dei padri dell’informatica e dell’intelligenza artificiale, il crittoanalista artefice della decifrazione dei messaggi dell’esercito tedesco e dei suoi alleati. Quando Google, OpenAI e altre società iniziarono a costruire reti neurali che imparavano da enormi quantità di testo digitale, Hinton pensava che fosse un modo potente per le macchine di comprendere e generare il linguaggio, ma che fosse inferiore al modo in cui lo facevano gli umani. Nel momento in cui Google e OpenAI hanno costruito sistemi utilizzando quantità di dati molto maggiori, la sua visione è cambiata. Credeva ancora che i sistemi fossero in qualche modo inferiori al cervello umano, ma pensava che stessero eclissando l’intelligenza umana in altri. Man mano che le aziende migliorano i loro sistemi di intelligenza artificiale, secondo lui, diventano sempre più pericolosi.

La corsa di Google sulla AI

Fino all’anno scorso, afferma Hinton, Google ha agito responsabilmente, stando attenta a non creare qualcosa che potrebbe causare danni. Ma ora che Microsoft ha potenziato il suo motore di ricerca Bing con una chatbot, sfidando il suo core business, Google sta correndo per implementare lo stesso tipo di tecnologia: una competizione che potrebbe essere impossibile fermare. Nella corsa sull’intelligenza artificiale, Microsoft e Google scelgono la velocità piuttosto che la prudenza.

Le vicende che seguono rafforzano i timori esternati da Hinton e confermano che il profitto è l’unica stella polare delle Big Tech. Un film già visto! Due dipendenti di Google, il cui lavoro consisteva nel rivedere i prodotti di intelligenza artificiale dell’azienda, hanno cercato di impedire di lanciare una chatbot basata sull’intelligenza artificiale perché reputavano potesse generare dichiarazioni inesatte e pericolose.

L’etica ignorata

Tempo prima, preoccupazioni simili erano state sollevate in Microsoft da esperti di etica e altri dipendenti, i quali avevano scritto in diversi documenti che la tecnologia AI alla base di una chatbot pianificata avrebbe potuto inondare i gruppi di Facebook di disinformazione, degradare il pensiero critico ed erodere le fondamenta concrete della società moderna. Google e Microsoft, manco a dirlo, hanno fatto orecchie da mercante, andando avanti come nulla fosse. Microsoft ha lanciato la chatbot integrata nel suo motore di ricerca Bing. Google ha seguito la concorrente dando il via libera a Bard.

Secondo dipendenti ed ex dipendenti dei due colossi, le cui affermazioni sono suffragate da documenti interni in possesso del New York Times, il sorprendente successo di ChatGPT di OpenAI li ha incentivati ad assumersi maggiori rischi, edulcorando o ignorando le loro linee guida etiche stabilite nel corso degli anni per garantire che la loro tecnologia non causasse problemi sociali.

Microsoft

L’urgenza di andare avanti è stata cristallizzata in una mail interna inviata dal dirigente tecnologico di Microsoft, nella quale egli definiva un “errore assolutamente fatale in questo momento preoccuparsi di cose che possono essere risolte in seguito” in quanto quando l’industria tecnologica si sta velocemente spostando verso un nuovo tipo di tecnologia, la prima azienda a introdurre un prodotto “è la vincitrice a lungo termine solo perché ha iniziato per prima” e “a volte la differenza si misura in settimane.” Insomma, i pericoli non sembrano preoccupare più di tanto le Big Tech. Nel contempo, dato che sembra che la tecnologia utilizzata per ingannare le persone stia avanzando molto più velocemente della tecnologia in grado di identificare i trucchi, le aziende tecnologiche, i ricercatori, le agenzie fotografiche e le testate giornalistiche stanno lottando per recuperare il ritardo, cercando di stabilire standard per la provenienza e la proprietà dei contenuti. I progressi stanno già alimentando la disinformazione e vengono utilizzati per alimentare le divisioni politiche.

Timore disinformazione

I governi autoritari hanno creato emittenti di notizie apparentemente realistiche. Nel campo delle immagini, foto e video, ci sono ormai tantissimi esempi di utilizzo dell’I.A. tale da ingannare chiunque. Le immagini di Papa Francesco che indossa una giacca gonfia Balenciaga. Quelle di un terremoto che ha devastato il nord-ovest del Pacifico, evento che non si è verificato. Le immagini sono state create utilizzando Midjourney, un popolare generatore di immagini. Quando Trump si è consegnato all’ufficio del procuratore distrettuale di New York, su Reddit è apparsa la foto dell’attore Bill Murray nelle vesti di presidente USA, seduto nella stanza ovale della Casa Bianca. Tutto ciò porterà ad accelerare un’erosione della fiducia nei media, nel governo e nella società.

Se qualsiasi immagine può essere fabbricata e/o manipolata, come possiamo credere a tutto ciò che vediamo? Wasim Khaled, amministratore delegato di Blackbird.AI, che aiuta i propri clienti a contrastare la disinformazione, prevede che “Gli strumenti miglioreranno, diventeranno più economici. Verrà un giorno in cui non si potrà credere a nulla di ciò che vedi su Internet”. L’intelligenza artificiale consente praticamente a chiunque di creare opere d’arte complesse, come quelle ora esposte in una delle Gallerie d’arte più in vista di New York. Basta inserire una descrizione a parole e puoi produrre un’immagine correlata, senza che siano richieste competenze speciali. I casi sono innumerevoli e i rapidi progressi nella tecnologia stanno eliminando molti difetti.

L’ultima versione di Midjourney è in grado di rappresentare mani realistiche, mentre in precedenza tale dettaglio poneva qualche problema di credibilità. Giorni prima che Trump si costituisse a New York, le immagini del suo “arresto” giravano sui social media. Sono state create da un giornalista britannico fondatore di Bellingcat, un’organizzazione investigativa open source, che ha usato Midjourney per immaginare l’arresto, il processo, la prigionia dell’ex presidente in tuta arancione e la fuga attraverso una fogna. Ha pubblicato le immagini su Twitter, contrassegnandole come creazioni. Lo scopo era di attirare l’attenzione sul potere dello strumento.

Le immagini di Midjourney sono state in grado di superare i programmi di riconoscimento facciale di Bellingcat. Non è difficile immaginare un utilizzo distorto dello strumento da parte di governi autoritari o altri malintenzionati. Midjourney, per tutta risposta, ha sospeso l’account del giornalista, senza fornire spiegazioni, dopo che le immagini sono state diffuse e condivise. Anche per gli audio i problemi non mancano.

I ricercatori di un’azienda canadese, ad esempio, hanno costruito un sistema che ha imparato a imitare la voce di un noto podcaster analizzando l’audio di cuoi vecchi programmi: un’imitazione sorprendentemente accurata. Qualcosa di simile sta accadendo con i testi. OpenAI e l’Allen Institute, insieme a Google, guidano uno sforzo per costruire sistemi in grado di comprendere completamente il modo naturale in cui le persone scrivono e parlano .

Timore AI autonoma che sfugge di mano

Questi sistemi sono molto lontani da questo obiettivo, ma stanno migliorando rapidamente. Un altro fronte aperto è quello del mercato del lavoro, con risvolti preoccupanti per l’occupazione. Oggi, chatbot come ChatGPT tendono a integrare i lavoratori umani, e potrebbero presto sostituire paralegali, assistenti personali, traduttori e altri che gestiscono compiti meccanici.

Le versioni future della tecnologia possono rappresentare una minaccia per l’Umanità perché spesso apprendono comportamenti inaspettati dalle enormi quantità di dati che analizzano. Individui e aziende consentono ai sistemi di intelligenza artificiale non solo di generare il proprio codice informatico, ma di eseguirlo effettivamente da soli: un giorno armi veramente autonome – i robot assassini – potrebbero diventare realtà. Che lo strumento possa sfuggire di mano, e fungere da apprendista stregone, è dimostrato da qualche esempio.

In OpenAI, le macchine stanno insegnando a se stesse a comportarsi come gli umani. Un sistema autonomo ha imparato da solo a giocare a Coast Runners, un videogioco di corse in barca nel quale vince quella con il maggior numero di punti che taglia per prima anche il traguardo. Ma c’è stato un inghippo: la barca era troppo interessata ai piccoli aggeggi verdi che apparivano sullo schermo la cui cattura significava segnare punti. Invece di cercare di finire la regata, la barca è impazzita. Ha guidato in cerchi infiniti, scontrandosi con altre navi, scivolando contro i muri di pietra e prendendo ripetutamente fuoco. Questo dimostra i rischi delle tecniche di intelligenza artificiale. I ricercatori stanno costruendo macchine in grado di apprendere le attività in gran parte da sole. Ma poiché si addestrano attraverso ore di analisi dei dati, possono anche trovare la strada per comportamenti inaspettati, indesiderati e persino dannosi. Ciò è inquietante perché queste tecniche si spostano nei servizi online, nei dispositivi di sicurezza e nella robotica, così una comunità di ricercatori di intelligenza artificiale sta iniziando a esplorare tecniche matematiche che mirano a evitare che accada il peggio. Come? Sviluppando algoritmi che possono sì apprendere compiti attraverso ore di prove ed errori, ma sono anche guidati da insegnanti umani.

Questi algoritmi sono considerati un notevole passo avanti nella ricerca sulla sicurezza dell’IA. In alcuni casi, i ricercatori stanno lavorando per garantire che i sistemi non commettano errori da soli, come la barca nel videogioco Coast Runners. Stanno anche lavorando per garantire che gli hacker e altri malintenzionati non possano sfruttare falle nascoste in questi sistemi.

Alcuni ricercatori di Google, ad esempio, stanno esplorando modi in cui gli hacker potrebbero ingannare i sistemi di intelligenza artificiale facendogli vedere cose che non ci sono. La visione artificiale moderna si basa su quelle che vengono chiamate reti neurali profonde, sistemi di riconoscimento di modelli in grado di apprendere compiti analizzando grandi quantità di dati. Analizzando migliaia di foto di cani, una rete neurale può imparare a riconoscere un cane. Questo è il modo in cui Facebook identifica i volti nelle istantanee ed è così che Google cerca istantaneamente le immagini all’interno della sua app Foto.

Ma i ricercatori hanno dimostrato che gli hacker possono alterare le immagini in modo che una rete neurale creda che includano cose che in realtà non esistono. Semplicemente modificando alcuni pixel nella foto dell’elefante, ad esempio, potrebbero ingannare la rete neurale facendogli credere che rappresenti un’auto. Ciò diventa problematico quando le reti neurali vengono utilizzate nelle telecamere di sicurezza: facendo alcuni segni sul viso, un essere umano potrebbe ingannare una telecamera facendogli credere di essere qualcun altro.

Un’altra grande preoccupazione è che i sistemi di intelligenza artificiale impareranno a impedire agli umani di spegnerli. Se la macchina è progettata per inseguire una ricompensa potrebbe scoprire che può ottenerla solo se rimane accesa. Questa minaccia sembrerebbe molto più lontana, ma i ricercatori ci stanno già lavorando. Per concludere, torniamo a Geoffrey Hinton e alla sua scelta di rompere il silenzio, coraggiosa e certamente costosa non solo dal punto di vista economico. Hinton sostiene che si pensava effettivamente che l’IA potesse diventare più intelligente, o più capace di comprendere, delle persone in carne e ossa, ma che ciò potesse accadere tra 30 o 50 anni. La rapidità del processo, invece, l’ha fatto ricredere. Così come ha acquisito consapevolezza dell’urgenza di agire osservando la concorrenza tra i colossi del settore, che fa presupporre che la corsa non si fermerà se non interverrà una qualche specie di regolamentazione globale. Il che non è per niente facile: “A differenza delle armi nucleari, non c’è modo di sapere se aziende o paesi stanno lavorando in segreto sulla tecnologia.

La speranza è che i principali scienziati del mondo collaborino sui modi per controllare la tecnologia. Non credo che sia prudente proseguire in questo modo fino a quando non avranno capito se possono controllarla”. L’autorevolezza nel campo e la storia personale e professionale dell’ormai ex dipendente di Google fanno di questa sua affermazione, che è anche una speranza neanche velata, un monito da tenere ben presente.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati