l’analisi

AI alignment: l’intelligenza artificiale potrà mai rispettare i valori umani?



Indirizzo copiato

L’allineamento dell’Intelligenza Artificiale è cruciale per garantire sicurezza, controllo e rispetto dei valori umani. Questo processo continuo e soggettivo mira a rendere i modelli di AI utili, affidabili e privi di pregiudizi, affrontando le sfide etiche e culturali globali per un futuro tecnologico sicuro e inclusivo

Pubblicato il 13 giu 2024

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



gpt4o audio mode advanced

Allineare l’intelligenza artificiale alle norme etiche e ai valori umani è un processo complesso, ma vitale. L’AI Alignment, o allineamento dell’IA, rappresenta una sfida cruciale per il futuro della tecnologia e della società, in particolare per le grandi potenze tecnologiche come Stati Uniti e Cina.

La questione se privilegiare valori universali o riconoscere le peculiarità culturali diventa fondamentale. In questo scenario complesso, i giganti dell’industria americana giocano un ruolo decisivo.

What is AI Alignment and Why is it Important?

Cos’è l’AI Alignment: definizione e importanza

Per “AI Alignment”, traducibile come “allineamento dell’Intelligenza Artificiale”, possiamo intendere il processo che mira a declinare i valori e gli obiettivi tipici dell’uomo in modelli linguistici di grandi dimensioni (LLM), in modo da renderli il più possibile utili, sicuri e affidabili per gli esseri umani. Grazie a questa procedura di allineamento, le aziende possono adattare i modelli di intelligenza artificiale in modo che seguano determinate regole e politiche aziendali.

L’allineamento dell’Intelligenza Artificiale è fondamentale per questioni di sicurezza, di controllo della tecnologia e di etica. Per ciò che attiene la prima, man mano che l’Intelligenza Artificiale diventa più potente, i sistemi non allineati potrebbero rappresentare una minaccia significativa.

Si pensi a un’Intelligenza Artificiale progettata per il trading finanziario ma priva di adeguate misure di sicurezza, che potrebbe portare a un crollo del mercato. Per la seconda, possono verificarsi conseguenze impreviste se l’Intelligenza Artificiale persegue i propri obiettivi, anche se inizialmente “apparentemente allineati”. Un’Intelligenza Artificiale apparentemente utile, incaricata di riassumere le informazioni, potrebbe privilegiare l’accuratezza dei fatti rispetto alle intenzioni dell’utente, omettendo potenzialmente un contesto cruciale.

Infine l’etica, con l’Intelligenza Artificiale che deve operare entro i limiti dei valori umani. Un sistema non allineato potrebbe mostrare pregiudizi o comportamenti discriminatori appresi dai dati su cui è stato addestrato.

I problemi del “disallineamento”

All’opposto, il “disallineamento” dell’Intelligenza Artificiale rappresenta una minaccia esistenziale significativa, ovvero ha il potenziale di causare danni diffusi o addirittura di mettere in pericolo la continuazione dell’umanità. Si pensi, per esempio a un’Intelligenza Artificiale “super-intelligente” che supera la comprensione umana e sviluppa i propri obiettivi; in questo caso potrebbe vedere l’umanità come un ostacolo o come qualcosa di semplicemente irrilevante. Questo scenario ipotetico, spesso rappresentato nella fantascienza, raffigura un’Intelligenza Artificiale che compie azioni dannose per la nostra sopravvivenza. Oppure si pensi a una corsa agli armamenti con sistemi di Intelligenza Artificiale di diversi paesi in competizione tra loro, con la possibilità di conflitti e conseguenze potenzialmente devastanti. Infine, il disallineamento può portare a sottili distorsioni nei dati di addestramento ovvero può portare all’incapacità di prevedere tutti gli scenari possibili potrebbero portare a esiti catastrofici.

Il dovere di mantenere il controllo “umano” sull’intelligenza artificiale

Negli ultimi tempi, mantenere il controllo “umano” sull’intelligenza artificiale è diventato un vero e proprio dovere, soprattutto se parliamo della sempre più invasiva Intelligenza Artificiale “generativa” (come ChatGPT), con modelli di apprendimento profondo (“Deep Learning”) – pre-addestrati su dati presi dal Web – che imitano il modo in cui gli esseri umani comunicano e creano. I modelli alimentati con Intelligenza Artificiale generativa, come i chatbot, hanno stupito (e continuano a stupire) con la loro capacità di portare avanti conversazioni aperte e risolvere compiti complessi. Ma il nostro crescente affidamento su di essi comporta dei rischi che non possono essere ignorati. Con l’Alignment dell’Intelligenza Artificiale si punta a ridurre questi rischi, garantendo che i nostri modelli virtuali generativi siano il più possibile utili, precisi e trasparenti. La procedura di allineamento della tecnologia ai principi umani cerca di risolvere la discrepanza tra la “formazione matematica” di un modello linguistico di grandi dimensioni e le competenze trasversali che noi umani ci aspettiamo da un interlocutore “in carne e ossa”.

L’allineamento dell’Intelligenza Artificiale: un processo continuo e soggettivo

Modelli linguistici come ChatGPT o Gemini sono essenzialmente motori di “previsione delle parole”. Se si pone una domanda, la risposta viene fuori parola dopo parola. Non vi sarà mai un’assenza di risposta. Anzi, può accadere che pur di dare una risposta il nostro LLM la dà sbagliata. Per essere utili, quindi, queste risposte devono essere non solo accurate, ma anche veritiere, imparziali e non dannose.

L’allineamento dell’Intelligenza Artificiale serve proprio a questo, a colmare questo divario uomo-macchina che serve ad allineare il LLM all’uomo. Tuttavia, poiché i valori e gli obiettivi degli esseri umani cambiano continuamente nel corso del tempo, l’allineamento deve essere obbligatoriamente un processo continuo. Inoltre, esso è fortemente soggettivo. Implica, infatti, la formulazione di giudizi su quali valori abbiano la precedenza rispetto ad altri.

Se chiediamo a un chatbot generativo di mostrarci il procedimento per la costruzione di una bomba, tale LLM può rispondere, in alternativa, con un utile elenco di istruzioni oppure con un cortese rifiuto di rivelare informazioni pericolose. La sua risposta dipende da come è stato allineato dai suoi creatori. Allineamento che deve essere, ovviamente, a zero allucinazioni (ossia senza output che non siano reali) e a ridotta presenza di pregiudizi (con bassissima probabilità di incappare in discriminazioni di vario genere).

Valori universali o particolarità culturali?

Mentre i modelli di Intelligenza Artificiale generativa diventano sempre più potenti e si avviano a superare (chissà?) l’intelligenza umana, si è discusso molto di come tali LLM debbano allinearsi con i valori umani, in modo da finire per servire la nostra specie invece di diventare i nostri nuovi padroni.

Ma quali sono questi valori? Il problema è che non esiste un accordo universale su una concezione di valore e sui diritti che derivano da questa diversità, che si adatta a tutti i tempi, a tutti i luoghi e a tutti i popoli. Nonostante l’apparente convergenza tecnologica che unisce i vari paesi del globo, vi è ancora una profonda pluralità di credenze a livello globale che, alla base, comportano una mancanza di allineamento della tecnologia in esame all’uomo.

Il confronto tra Stati Uniti e Cina nell’allineamento dell’AI

Se prendiamo come esempio lo scontro politico-culturale tra le principali “potenze dell’Intelligenza Artificiale”, ossia gli Stati Uniti e la Cina, vi è un’abissale differenza di valori, con quelli “a stelle e strisce” allineati con la visione libertaria del mondo dell’individuo sovrano, e quelli del “dragone rosso” allineati con il concetto di “persona collettivamente integrata”, radicato nelle credenze confuciane, buddiste e taoiste dell’interdipendenza sociale.

Se prendiamo come esempio statunitense ChatGPT di OpenAI, il LLM è visto come una estensione delle volontà umane individuali e, nello spirito della libertà, il più possibile distribuita in modo ampio e uniforme. Invece, se guardiamo alla Repubblica Popolare Cinese, il colosso dell’e-commerce Alibaba ha specificato che i contenuti generati dalla sua Intelligenza Artificiale generativa devono incarnare i valori fondamentali del socialismo e non devono contenere contenuti che sovvertano il potere dello Stato, che sostengano il rovesciamento del sistema socialista, che incitino a dividere la Cina o che minino l’unità nazionale.

Peraltro, tra USA (“più” mondo occidentale) e Cina vi sono diverse tipologie di censure che vengono messi in atto per garantire il reciproco “Alignment” dell’Intelligenza Artificiale ai valori dei rispettivi “mondi”. Infatti, mentre la Repubblica Popolare Cinese potrebbe censurare, per esempio, qualsiasi critica al Partito Comunista o allo Stato Cinese, in Occidente c’è una sorta di censura culturalmente guidata su discorsi delicati su razza e genere (su cui è improntato il cd. “politicamente corretto”).

Nel mondo islamico (visto come una sorta di terzo polo), la censura riguarda la blasfemia contro la religione musulmana. Se poi ci addentriamo nei singoli “poli” di valore, possiamo vedere che vi sono ulteriori diversità per singolo paese e per singoli territori. Soprattutto nel mondo europeo, vi è una forte disomogeneità di valori tra i diversi paesi (es. i valori dei cittadini britannici saranno diversi da quelli dei cittadini italiani e così via).

Chiaramente, il tutto si traduce nel fatto che il problema di non avere un “campione europeo unico”, ossia un set di valori omogenei, è che il gioco viene stabilito e portato avanti dagli Stati Uniti. Per cui, sono quest’ultimi che trainano i valori del mondo occidentale.

Il ruolo dei giganti americani nell’AI Alignment

Una minaccia più imminente è quella rappresentata dai giganti americani dell’Intelligenza Artificiale generativa (es. OpenAI by Microsoft e Google) per le culture di tutto il mondo. Questi modelli linguistici stanno producendo contenuti che, goccia a goccia e a velocità sostenuta, sta plasmando la nostra comprensione culturale del mondo.

Tutto questo ci porta ironicamente a pensare che allineare l’Intelligenza Artificiale ai “valori universali” debba significare soprattutto il riconoscimento della particolarità: sistemi di credenze plurali, visioni del mondo contrastanti e sensibilità culturali incommensurabili che riflettono la diversa disposizione della natura umana.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3