l'analisi

Perché l’IA generativa va regolamentata per il bene di tutti

L’appello di esperti e imprenditori per una moratoria di sei mesi all’uso dell’IA generativa e lo stop temporaneo del Garante privacy dimostrano che la vicenda di ChatGPT è tutta in divenire. Il fatto certo è che il suo utilizzo non può rimanere deregolamentato, e che bisogna intervenire subito

Pubblicato il 03 Apr 2023

Antonino Mallamaci

avvocato, Co.re.com. Calabria

chatgpt

Nel giro di qualche giorno, l’IA generativa è stata colpita da un uno-due degno del Muhammad Ali dei tempi migliori. Ad un angolo del ring, ovviamente digitale, imprenditori – e tra essi il boss di Twitter e di tante altre aziende hi-tech Elon Musk – accademici, esperti di tutto il mondo, ai quali si è affiancato il Garante per la Privacy italiano.

ChatGPT, perché il Garante lo ha bloccato e che succede ora

Nell’altro, soprattutto OpenAI di Microsoft e il modello GPT-4 (e 5, in arrivo) e, in generale, l’Intelligenza artificiale e i suoi utilizzi. Con la prima iniziativa, sotto forma di lettera – appello indirizzata ai soggetti regolatori, quali ad esempio i Governi, si chiede una moratoria di sei mesi allo sviluppo di Intelligenze artificiali generative come ChatGPT. In essa, evocando “grandi rischi per l’umanità”, si chiede di utilizzare questo tempo per sviluppare sistemi di IA più accurati, sicuri e affidabili, interrompendo l’addestramento di sistemi di intelligenza artificiale più potenti per valutare i rischi che comportano.

La lettera del Future of Life Institute

I firmatari, tra i quali il professore Domenico Talia dell’Università della Calabria, al quale abbiamo rivolto alcune domande che presenteremo più avanti, si chiedono: “dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superare le nostre in astuzia e renderle obsolete, e alla fine sostituirle?”, per poi proseguire:: “I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili”.

La lettera è stata sponsorizzata dal Future of Life Institute, un’organizzazione no profit che fa parte del movimento del longtermismo, una scuola di filosofia che si concentra sui rischi a lungo termine per l’umanità.

Gli esperti si sono preoccupati per anni dei rischi legati alla realizzazione di IA super intelligenti, ma negli ultimi sei mesi il dibattito si è acceso quando sono stati messi a disposizione degli utenti nuovi generatori di immagini e chatbot che possono avere conversazioni stranamente simili a quelle umane. L’interazione con chatbot come GPT4 di OpenAI ha spinto molti a dichiarare che un’intelligenza artificiale a livello umano è proprio dietro l’angolo. Altri esperti sottolineano che i chatbot semplicemente indovinano le parole giuste da dire grazie all’apprendimento automatico, che include la lettura di quantità indeterminate di parole online. Spesso, le conversazioni scadono nel ridicolo, e vengono anche fuori informazioni inventate ma spacciate per reali.

Il provvedimento del Garante Privacy

L’altra iniziativa nasce in Italia, precisamente dal Garante per la Protezione dei Dati Personali (più semplicemente Garante della privacy), Autorità amministrativa indipendente istituita per assicurare la tutela dei diritti e delle libertà fondamentali e il rispetto della dignità nel trattamento dei dati personali, oggi presieduta da Pasquale Stanzione.

Le basi normative del provvedimento n. 112 del 30 marzo u.s. del Garante sono il Regolamento generale sulla protezione dei dati europeo (GDPR, Regolamento n. 2016/679) e il Codice italiano in materia di protezione dei dati personali (d.lgs. n. 196/2003, in seguito solo “Codice”). L’Autorità rileva:

  • l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT;
  • che il trattamento di dati personali degli interessati risulta inesatto in quanto le informazioni fornite non sempre corrispondono al dato reale;
  • l’assenza di verifica dell’età degli utenti che, secondo i termini pubblicati da OpenAI, dovrebbero aver compiuto 13 anni;
  • che l’assenza di filtri per i minori di 13 anni espone gli stessi a risposte assolutamente inidonee rispetto al grado di sviluppo e autoconsapevolezza degli stessi.

Poste queste premesse, il Garante accerta la violazione degli artt. 5, 6, 8, 13 e 25 del GDPR e dispone a carico della OpenAI, in via cautelare, con effetto immediato e in attesa che sia completata la necessaria istruttoria, la limitazione provvisoria del trattamento per tutti i dati personali degli interessati stabiliti nel territorio italiano. In caso di inosservanza della misura disposta, saranno applicate le sanzioni previste dall’art. 170 del Codice e dall’art. 83, par. 5, lett. e), del GDPR.

Cosa prevede l’art. 170 del Codice in materia di protezione dei dati personali

Cosa prevede l’art. 170 del Codice? Che chi non osserva il provvedimento, e arreca un concreto nocumento a uno o più soggetti interessati al trattamento, è punito, a querela della persona offesa, con la reclusione da tre mesi a due anni: una significativa sanzione di natura penale, dunque.

L’art. 83, par. 5, lett. e), del GDPR

L’art. 83, par. 5, lett. e), del GDPR prevede invece una sanzione amministrativa pecuniaria fino a venti milioni di euro; per le imprese, essa può arrivare al 4% del fatturato mondiale totale annuo dell’esercizio precedente, se superiore (ai venti milioni di euro).

La necessità di regolamentare l’AI

Insomma, il Garante per la privacy italiano arriva prima di tutti gli altri ad affrontare il problema, e ciò può essere considerato un fatto assolutamente meritorio. Ma l’esigenza di giungere ad una regolamentazione dell’utilizzo, in generale, dell’intelligenza artificiale è avvertita oramai dappertutto.

Alcuni legislatori statunitensi hanno chiesto nuove normative sull’intelligenza artificiale e sul suo sviluppo, ma nessuna proposta sostanziale è stata avanzata.

L’Unione Europea ha invece pubblicato una proposta di Regolamento che dovrebbe essere cosa fatta entro il 2023. In questo specifico settore, andrebbe evitata l’assoluta deregulation che ha consentito alle piattaforme digitali di condivisione di contenuti di testi e immagini, e ai social media in particolare, di prosperare guadagnando cifre esorbitanti sfruttando i dati degli utenti, mettendone a grave rischio la salute fisica e psichica, diffondendo a piene mani misinformazione e disinformazione.

L’IA generativa è pericolosa?

Ma torniamo all’intelligenza artificiale, innanzitutto a quella a ragione considerata più pericolosa: quella generativa. Quando se ne parla si fa essenzialmente riferimento agli algoritmi di IA che generano o creano un output (testo, foto, video, codici, rendering 3D) dai dati su cui vengono addestrati. Essa crea contenuti, a differenza di altre forme di intelligenza artificiale utilizzate per altri scopi, come l’analisi dei dati o il controllo di un’auto a guida autonoma.

Negli ultimi tempi c’è stata una crescente popolarità dei programmi di IA generativa, come ChatGPT e DALL-E di OpenAI. Il chatbot conversazionale e il generatore di immagini la utilizzano entrambi per produrre nuovi contenuti, tra cui codici per computer, saggi, e-mail, didascalie dei social media, immagini, poesie, rap e altro in pochi secondi, attirando l’attenzione delle persone.  Come è successo, giusto qualche giorno fa, con l’immagine di Papa Francesco avvolto in un vistoso giaccone bianco. Immagine assolutamente verosimile, il che dà la misura del grado di perfezione raggiungibile. ChatGPT è appena diventata la “app” in più rapida crescita di tutti i tempi, accumulando più di un milione di utenti a settimana dopo il lancio. Grazie all’apprendimento automatico, sottosezione dell’intelligenza artificiale, si insegna a un sistema a fare una previsione basata sui dati su cui è stato addestrato. Un esempio è quando DALL-E è in grado di creare un’immagine basata sul prompt inserito discernendo cosa significa effettivamente il prompt. L’IA generativa è, quindi, un framework di apprendimento automatico capace di generare nuovi contenuti.

Un altro esempio è  MusicLM, il generatore di testo in musica AI inedito di Google. Un ulteriore progetto in fase di sviluppo è Bard di Google. Nell’arte i risultati sono strabilianti. Si creano nuove immagini che hanno elementi del lavoro originale di un artista, che però non gli viene attribuito. Il suo stile unico può quindi essere replicato dall’intelligenza artificiale e utilizzato per una nuova immagine, senza che l’artista originale lo sappia o approvi. Ma anche questo tipo di IA ha i suoi limiti.

I modelli di intelligenza artificiale generativa prendono una grande quantità di contenuti da Internet e quindi utilizzano le informazioni su cui sono addestrati per fare previsioni e creare un output per il prompt che l’utilizzatore inserisce. Queste previsioni si basano sui dati, ma non ci sono garanzie che la previsione sia corretta. Le risposte potrebbero anche incorporare pregiudizi inerenti al contenuto che il modello ha ingerito da Internet, ma spesso non c’è modo di saperlo. Questi modelli non sanno necessariamente se le cose che producono sono accurate e abbiamo poco modo di sapere da dove provengono le informazioni e come sono state elaborate dagli algoritmi per generare contenuti. Ci sono molti esempi di chatbot che forniscono informazioni errate o semplicemente inventano cose per colmare le lacune. La ChatGPT, ad esempio, può perdersi completamente e produrre spazzatura assolutamente inutilizzabile. Nel contempo, è uno strumento di elaborazione del linguaggio naturale – guidato dalla tecnologie di IA – che consente di avere conversazioni simili a quelle umane e molto altro con il chatbot. Il modello linguistico può rispondere a domande e assisterti con attività come la composizione di e-mail, saggi e codici.

Come si è arrivati all’appello per una moratoria di sei mesi

Sull’argomento generale, sulla lettera – appello e sul provvedimento del Garante italiano della privacy abbiamo l’opportunità di rivolgere qualche domanda a un sottoscrittore italiano del documento, il calabrese Domenico Talia, professore ordinario di sistemi di elaborazione delle informazioni presso l’Università della Calabria, autore di diverse pubblicazioni sul tema dei Big Data.

“L’iniziativa è partita dai responsabili del “Future of Life Institute” che hanno contattato un numero ristretto di esperti del settore chiedendo loro se fossero disponibili a firmare l’appello e pregandoli di mantenere la notizia confidenziale fino al 29 marzo, quando è stata resa pubblica e annunciata alla stampa, permettendo da quel giorno a chiunque fosse interessato di poterlo firmare. In passato sono avvenute iniziative simili come quella che qualche anno fa ha portato alla firma dell’appello con le armi letali autonome, i cosiddetti soldati robot discussa dall’ONU e condivisa da molti stati nel mondo.

L’adesione di Elon Musk

Quanto all’adesione di Musk, “non mi ha sorpreso, sia perché Musk è un sostenitore di quella organizzazione, sia perché come le dicevo, anche nel caso di altri appelli precedenti relativi all’impatto sociale dell’intelligenza artificiale Musk è stato tra i firmatari. In questo caso la presenza della sua firma ha generato polemiche e sospetti perché Musk era stato tra i primi finanziatori di OpenAI dalla quale si era poi ritirato e con la quale ha polemizzato perché l’obiettivo originale di realizzare sistemi open source non è stato mantenuto, anzi sono stati resi proprietari i codici realizzati da OpenAI, compreso quello di ChatGPT”.

Cosa si dovrebbe e potrebbe fare in sei mesi se la moratoria venisse accolta

I sei mesi di moratoria richiesti nella lettera “credo vadano considerati come un periodo simbolico per poter permettere ai diversi attori in gioco di avviare le iniziative necessarie per verificare i limiti e i problemi di questi tipi di sistemi di IA e avviare iniziative tecnologiche, regolative, governative e per ottenere maggiori conoscenze che permettano di migliorare l’accuratezza dei sistemi, minimizzare il loro tasso di errore e limitarne l’impatto negativo sulla vita e sui diritti dei cittadini. Per mettere in campo queste iniziative non bastano sei mesi ma potrebbero essere il periodo sufficiente per il loro avvio”.

Pericoli e opportunità dell’IA generativa

Ma quali pericoli sono i pericoli intravisti nell’utilizzo delle Chatbot?”. I pericoli provengono dal loro codice complesso e chiuso che non può essere conosciuto perché reso proprietario, dai tantissimi dati che usano e che spesso contengono informazioni false, inesatte e incomplete, dall’uso che fanno dei dati che forniamo loro e dall’essere sistemi basati su algoritmi di deep learning che usano diversi miliardi di parametri impossibili da controllare e da comprendere anche per chi li ha realizzati. Sono sistemi “black box” che non mostrano le logiche di funzionamento sia quando si comportano bene, sia soprattutto quando sbagliano creando problemi per gli utenti, generando disinformazione e fake news”.

Quanto agli sviluppi “devono prevedere soluzioni software aperte sulle quali tutti gli esperti possano lavorare e confrontarsi, tecniche di AI intellegibili, uso di dati di apprendimento affidabili e sicuri, rispetto di principi etici e maggiore correttezza nelle risposte che forniscono. I campi applicativi di questi sistemi sono tantissimi: l’assistenza alle persone, la medicina, la gestione aziendale, l’educazione e la formazione, i tantissimi lavori intellettuali che usano contenuti testuali, documenti e materiale in diverse forme, la ricerca scientifica, la comunicazione pubblica e i motori di ricerca”.

L’utilità alla causa dell’intervento del Garante italiano della Privacy

A parere di Talia, “certamente il garante in questo caso ha fatto il suo dovere, anche se lo ha fatto in ritardo e lo dovrebbe fare anche nei confronti di altre piattaforme e di altre applicazioni digitali che stanno invadendo il mondo e violando la riservatezza delle persone. Credo anche che i cittadini e i legislatori farebbero bene ad occuparsi di queste materie e, alla fine, siano loro (cioè i cittadini e i politici) a decidere il destino e l’uso di queste potentissime tecnologie che sono molto utili se usate correttamente, ma molto pericolose se lasciate in mano di pochi che non hanno come ragione sociale primaria quella di fare del bene alle comunità. Credo che, almeno in democrazia, i governi nazionali e sovranazionali dovrebbero decidere su queste materie e tutelare i diritti dei cittadini. Anche le iniziative messe in campo dall’Unione Europea (come il GDPR e l’AI Act) sono utili ma al momento sono insufficienti anche perché le tecnologie corrono più veloci dei legislatori e inventano nuove soluzioni sempre più sofisticare. Dobbiamo sperare comunque che si proceda su questa strada e altri stati nel mondo seguano l’esempio europeo, come alcuni hanno fatto negli ultimi anni. Relativamente al comma citato, è certamente un’utile prescrizione per tutelare i cittadini dalla produzione di contenuti falsi che è ormai molto difficile distinguere da quelli reali.

Il parere del neuroscienziato Pascal Kaufmann

Un altro illustre esperto è stato intervistato dalla rivista specializzata ZD NET. Pascal Kaufmann è un neuroscienziato e imprenditore che ha   una visione più scettica sullo stato attuale dell’intelligenza artificiale, in particolare sull’analogia tra cervello umano e computer.  Qualche anno addietro ha creato la fondazione Mindfire dedicata al progresso dell’IA in modo aperto, responsabile ed etico.

Secondo Kaufmann, l’intelligenza è definita come la capacità di risolvere problemi completamente nuovi. I modelli di linguaggio di grandi dimensioni come GPT-4, quindi, si limitano a imitare l’intelligenza senza possederla veramente. In particolare, non hanno la capacità di affrontare sfide nuove. Ad esempio, possono generare poesie e scrivere codici perché sono stati addestrati su contenuti esistenti. Ma non possono svolgere compiti astratti, come comprendere l’umorismo o provare empatia. “Ci sono alcune persone che trattano il termine ‘IA’ come se significasse semplicemente ‘straordinaria innovazione’. Ma quando guardi alla prospettiva scientifica, puoi effettivamente misurare e definire l’intelligenza. Essa verrebbe misurata come la tua capacità di affrontare problemi inesplorati, risolvere qualcosa che è completamente nuovo. I grandi modelli linguistici come ChatGPT non sono in grado di affrontare nulla che non abbiano mai incontrato prima: la loro intelligenza è zero!” Nonostante questo giudizio tranchant, Kaufmann vede i nuovi modelli generativi come un progresso significativo nelle capacità dell’IA, tanto da poter rivoluzionare una serie di settori. Possono produrre lavori creativi e visivi in ​​modo efficiente, riducendo significativamente i costi e i tempi di consegna, e generare soluzioni più creative a problemi unici rispetto agli umani, grazie al loro accesso a un vasto serbatoio di informazioni. L’IA generativa offre grosse opportunità nell’illustrazione e nel cinema, dove gli esseri umani virtuali possono essere generati e controllati in modo più conveniente rispetto agli uomini nella vita reale. Inoltre, analizzando la misurazione dell’intelligenza, lo studioso di origine svizzera ha notato che Mindfire ha stabilito un nuovo record risolvendo oltre il 30% dei puzzle in un test del Quoziente d’intelligenza dell’IA, un 10 % in più rispetto a prima. Kaufmann definisce i modelli di intelligenza artificiale GPT-3 e GPT-4 come una “rivoluzione dell’utilità” che accelererà gli sviluppi tecnologici, ma non un percorso diretto per raggiungere l‘intelligenza generale artificiale (AGI), l’IA con intelligenza a livello umano.

Conclusioni

Insomma, è tutta una vicenda in divenire, e forse non è davvero possibile prevedere fino a dove potrà spingersi l’IA senza fare correre i gravi rischi per l’Umanità paventati dai sottoscrittori della lettera – appello con il quale abbiamo aperto questo articolo. Il fatto certo è che il suo utilizzo non può rimanere deregolamentato, e che bisogna intervenire subito, come dimostrano sia – per aspetti più particolari e circostanziati – il provvedimento del Garante italiano della Privacy, che la lettera-appello.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2