chatgpt e privacy

L’intelligenza artificiale scende in politica, ma ora serve uno scatto di maturità

Il provvedimento del Garante Privacy su ChatGpt accende l’opinione pubblica e la politica italiana. Ma ora serve un dibattito politico più maturo ed europeo. La domanda a cui rispondere e reagire: fino a che punto le nostre vite dovranno essere guidate da sistemi digitali, e a quali condizioni?

Pubblicato il 04 Apr 2023

Marco Bani

Coordinatore contenuti e progetti Fondazione Italia Digitale

chatgpt privacy

“Abbiamo decisamente bisogno di più regolamentazione nell’intelligenza artificiale”: così twittava meno di un mese fa Sam Altman, CEO di OpenAI, società ormai famosa per aver creato ChatGPT.

Chissà se lo riscriverebbe adesso lo stesso tweet, dopo che in meno di una settimana si è visto recapitare una lettera firmata da eminenti personalità del mondo accademico, politico e dell’industria tecnologica che promuove una sospensione di 6 mesi agli sviluppi dell’Intelligenza artificiale e il provvedimento del Garante della privacy italiano che accusa ChatGPT di raccogliere illecitamente i dati degli utenti.

Pizzetti, ChatGpt: senza diritti siamo nudi davanti all’intelligenza artificiale

L’intelligenza artificiale diventa politica

Non c’è da stupirsi: gli avanzamenti così stupefacenti dei nuovi strumenti AI hanno alzato il dibattito dell’opinione pubblica non solo sugli sviluppi tecnologici, destinati spesso a una comunità ristretta di nerd, ma sulle conseguenze economiche, sociali e culturali che questi strumenti hanno nella vita pubblica.

Ma sul tema è intervenuto con forza anche il leader della Lega Salvini, accusando di oscurantismo il Garante. A memoria forse il suo primo intervento a tema intelligenza artificiale.

Critica si è detta anche Forza Italia.

Il futuro dell’intelligenza artificiale diventa quindi “politico”, con posizioni e opinioni molto differenti fra loro che cercano di imporsi con argomenti, dati, atti istituzionali, campagne di comunicazione e tutto quello che può influenzare la sfera pubblica.

Sbaglia chi pensa che ci sia davvero la paura dell’intelligenza artificiale generale, ovvero la possibilità dell’avvento di una divinità onnisciente guidata da algoritmi, dietro la già citata lettera di stop all’IA. Dietro i presunti allarmismi ci sono spesso interessi economici, mancanza di realismo e ipocrisia. Il Future of Life Institute, promotore della lettera, è un’organizzazione che vive di fondi privati, lavora “per ridurre i rischi catastrofici ed esistenziali globali che l’umanità deve affrontare”.

Non avrebbe quindi tutto l’interesse a esaltare toni apocalittici e fantascientifici? Inoltre, non è forse ipocrita la firma di Elon Musk che chiede più etica, quando solamente pochi mesi fa ha licenziato brutalmente, attraverso una email asettica, più della metà dei dipendenti di Twitter? Non è forse da ingenui pensare che in soli 6 mesi i governi possano in qualche modo sviluppare un contesto normativo e regolatorio capace di limitare i rischi e sviluppare le potenzialità delle nuove tecnologie?

Evidentemente anche i più grandi scienziati firmatari della lettera non conoscono minimamente i tempi della politica. Chi crede che Stati Uniti, Cina e Unione Europea possano concordare le regole per la governance dell’IA in un breve lasso di tempo, vive fuori dal mondo. Pensare che qualsiasi Stato possa bloccare una tecnologia emergente è una cattiva e dannosa politica dell’innovazione. Il problema della regolamentazione dell’IA è una sfida generazionale. Le soluzioni politiche non nascono nei garage come le startup, ma dopo estenuanti e faticosi confronti pubblici.

Allo stesso modo, le dichiarazioni di Sam Altman, che si finge impaurito dalle potenzialità del suo ChatGPT di arrivare presto all’intelligenza artificiale generale, sembrano un’astuta campagna di marketing ottima per vendere il suo prodotto e alzare la discussione sul tema.

L’arrivo di un’intelligenza artificiale generale, ovvero una macchina dotata di capacità umane di comprensione, di riflessione, di pensiero autonomo è una visione piuttosto di nicchia anche tra gli scienziati dell’IA. Una questione più filosofica che tecnica: cos’è l’intelligenza? Quali sono i suoi confini? Possiamo confrontare le abilità umane con una macchina? Domandarsi se un sistema di apprendimento automatico può “pensare” come un essere umano è come misurare la velocità di un’auto con quella di un corridore: l’auto è sicuramente più veloce, ma non per questo è un miglior corridore. Abbiamo sicuramente bisogno di più teologi, filosofi e linguisti alle conferenze sull’IA.

Quindi va tutto bene? E’ solamente un grande teatrino digitale? Assolutamente no.

I problemi

I rischi e i danni non hanno mai riguardato un’intelligenza artificiale troppo potente, ma riguardano:

  • la concentrazione del potere nelle mani di poche persone,
  • la riproduzione di sistemi di oppressione e pieni di pregiudizi,
  • l’uso di armi autonome come i droni, il cambiamento del mondo del lavoro,
  • il danno all’ecosistema dell’informazione e
  • lo sfruttamento dell’ecosistema naturale (attraverso l’uso intensivo delle risorse energetiche).

Dovremmo riconoscere che le sfide lanciate dall’IA sono di natura politica. Gli algoritmi che determinano l’accesso alle case popolari, al credito, alle assicurazioni o al lavoro avranno implicazioni reali per la giustizia sociale.

E le regole codificate nei servizi di intelligenza artificiale allargheranno o ridurranno la nostra libertà. Il fatto che sistemi di IA non umani, magari con volti e voci, saranno presto in grado di partecipare al dibattito politico in modo sofisticato è probabilmente più importante per il futuro della democrazia rispetto al fatto che non “pensare” come gli umani. Entreremo in una “realtà artificiale” dove il dubbio prevale sulla certezza?

Democrazia, giustizia, libertà: quando si parla di nuove tecnologie, si parla quindi di politica, che ce ne rendiamo conto o meno. In realtà lo stiamo già facendo, ma in ritardo, quando, attraverso dibattiti ancora irrisolti, cerchiamo di capire gli effetti dei social media sulla psiche umana, sulla polarizzazione della società, sulla manipolazione della sfera pubblica.

Fare politica significa agire in anticipo, prevedere i problemi e lavorare per risolverli prima che si presentino.

Il provvedimento del Garante non è oscurantismo

Quindi il provvedimento del Garante della Privacy, che ha portato al blocco di ChatGPT in Italia, è forse la vittoria della regolamentazione sulla tecnologia?

Lo ammetto, il mio primo pensiero è stato quello di “incolpare” l’autorità italiana di fermare l’innovazione. Ma se avesse ragione? Se ci fosse un illecito? In realtà il Garante non ha bloccato direttamente ChatGPT, è stata la società stessa a farlo per gli utenti italiani a seguito della comunicazione del provvedimento, che in sostanza fa partire un’istruttoria per valutare se il trattamento dei dati personali sia corretto o no. Perché OpenAI ha bloccato immediatamente ChatGPT? Preferisce chiudere in Italia e rimborsare gli utenti piuttosto che collaborare all’istruttoria e affrontare il confronto con l’Autorità?

Oppure, più banalmente, è un approccio cautelare suggerito dai legali americani? Non lo so, ma gli effetti politici di questo provvedimento superano le reali intenzioni di protezione della privacy. Il primo è sicuramente quello di avere un danno all’immagine del Paese: chi vorrà fare innovazione da noi se poi c’è un eccesso di regolamentazione? Come attrarre i talenti dall’estero se le uniche notizie che vengono dall’Italia sono non solo legate all’oscuramento di ChatGPT come avviene in Cina e Russia, ma anche al bando del Governo sulla carne sintetica?

Quest’ultima settimana restituisce un’Italia nostalgica, che guarda a un passato che non tornerà più. Forse potremo diventare i migliori arbitri nelle politiche tecnologiche, ma gli arbitri non vincono le partite dell’innovazione.

Che fine ha fatto la nostra strategia nazionale sull’intelligenza artificiale, promossa dal Governo Draghi dopo il coinvolgimento di diversi ministeri e del mondo accademico, che cercava di coordinare le diverse risorse a disposizione per costruire un ecosistema attrattivo per chiunque volesse sviluppare intelligenza artificiale? Anche il “non fare” è una scelta politica, per lo più dannosa.

Bisogna alimentare un confronto politico europeo

L’altro effetto politico della decisione del Garante è la testimonianza di un approccio frammentato e poco coordinato tra i paesi Europei. Che senso ha agire da soli quando in Europa stiamo modificando l’AI Act, il documento che regolamenta gli usi dell’intelligenza artificiale, proprio per dare una prima risposta politica a come gestire i nuovi strumenti che usano grandi modelli linguistici come ChatGPT e simili?

Adesso il Garante tedesco dice di stare valutando una decisione simile; e quelli di Francia e Irlanda hanno chiesto informazioni all’Italia per studiare il dossier. Insomma, la situazione è in evoluzione.

Certo non è utile discutere di regolamentazione solamente in base agli umori sulla tecnologia o sul servizio del momento: un solido sistema di regole sarà costruito su presupposti e principi di portata sufficientemente generale da non essere immediatamente sostituiti dalla prossima grande novità. Usando le parole della vicepresidente Ue Margrethe Vestager: “non importa che tecnologia usiamo, continueremo a far avanzare libertà e diritti: per questo non regoliamo l’Intelligenza Artificiale, regoliamo i suoi usi”.

Nell’AI Act in discussione, secondo Euractive, c’è un passaggio che definisce come bisogna comportarci: “i dataset che alimentano modelli di linguaggio di grandi dimensioni dovranno seguire adeguate misure di governance dei dati come la valutazione della loro pertinenza, idoneità e potenziali distorsioni, identificando possibili carenze e relative misure di mitigazione”.

Diciamo che il Garante della Privacy Italiano si è mosso prima di tutti, bruciando sul tempo tutte le Istituzioni europee. Ma qui non c’è una corsa per dominare il mercato, bisogna alimentare e sostenere un confronto pubblico aperto che non rinchiuda il nostro Paese in un angolo.

Servirà un nuovo approccio politico: nuovi tempi di discussione, nuove modalità di confronto, nuove alleanze, nuovi enti e istituzioni pubbliche, nuovi diritti e doveri, nuovi codici di condotta per l’industria tecnologica. Se il dibattito politico del secolo scorso è stato focalizzato da quanto Stato deve entrare nella nostra vita e quanto invece debba essere lasciato alle forze del mercato e alla società civile, in questo secolo bisogna farci una nuova domanda: fino a che punto le nostre vite dovranno essere guidate da sistemi digitali, e a quali condizioni? Siamo abbastanza maturi da affrontare un dibattito politico su questi temi?

Gli ottimisti pensano che i nuovi strumenti di intelligenza artificiale si riveleranno uno strumento potente per molti lavoratori, migliorando le loro capacità e competenze, fornendo una spinta all’economia in generale. I pessimisti, invece, credono che le aziende useranno questi strumenti semplicemente per distruggere quelli che una volta sembravano lavori ben pagati a prova di automazione che richiedono capacità creative e ragionamento logico; inoltre alcune società tecnologiche diventeranno ancora più ricche, generando poco valore per la crescita economica complessiva.

Chi ha ragione? E’ qui che entra in gioco la politica. Come Fondazione Italia Digitale proviamo a dare un contributo, con il Festival Digitale popolare, che si svolgerà a Torino, che cercherà di spiegare cosa significa mettere l’uomo al centro del progresso tecnologico. Non siamo in una macchina a guida autonoma. Abbiamo il potere e il dovere di guidare le politiche tecnologiche, coinvolgendo partiti, istituzioni, società civile, mondo accademico e economico in un grande dibattito che plasmerà il nostro futuro.

Come dice lo storico Yuval Noah Harari, il pericolo è che se investiamo troppo nello sviluppo dell’intelligenza artificiale e troppo poco nello sviluppo del pensiero umano, l’intelligenza artificiale molto avanzata dei computer potrebbe servire solo a potenziare la naturale stupidità degli umani.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3