Intelligenza artificiale

AI “responsabile”: le quattro aree chiave per un futuro sicuro



Indirizzo copiato

L’AI Index Report 2024 della Stanford University identifica quattro aree chiave per un’AI responsabile: privacy e governance dei dati, trasparenza e spiegabilità, sicurezza e protezione. Mancano però standard uniformi per valutare la responsabilità dei modelli di linguaggio, complicando la comparazione dei rischi

Pubblicato il 18 giu 2024

Carmelina Maurizio

Università degli Studi di Torino



gpt4o audio mode advanced

Sono quattro le aree chiave dell’AI responsabile, secondo l’Artificial Intelligence Index Report 2024 dell’Human Centered Artifical Intelligence della Stanford University: privacy e governance dei dati, trasparenza e spiegabilità, sicurezza e protezione.

Introduction to Responsible AI

Esaminiamo di seguito alcune strategie di valutazione della responsabilità, rispetto ad alcune di queste aree.

La responsabilità del Large Language Model

Mancano valutazioni solide e standardizzate per la responsabilità del Large Language Model – LLM, infatti i principali sviluppatori, tra cui OpenAI, Google e Anthropic, testano i loro modelli principalmente rispetto a diversi benchmark di AI responsabile e questo complica gli sforzi per confrontare sistematicamente i rischi e i limiti dei migliori modelli di AI. Diversi ricercatori hanno dimostrato che i risultati generativi dei LLM più diffusi possono contenere materiale protetto da copyright.

Altro aspetto è quello che riguarda i deepfake politici che sono facili da generare e difficili da individuare. Recenti ricerche suggeriscono che gli attuali metodi di rilevamento dei deepfake dell’intelligenza artificiale hanno un livello di accuratezza variabile. Inoltre, nuovi progetti come CounterCloud dimostrano quanto sia facile per l’AI creare e diffondere contenuti falsi. Il sito web ospita un video YouTube non quotato che inizia con il narratore, che si fa chiamare Nea Paw, che esprime il suo interesse per le campagne di disinformazione e influenza online.

I risultati dell’indice di trasparenza dei foundation models

L’October 2023 Foundation Model Transparency Index ha valutato la trasparenza di 10 grandi sviluppatori di foundation models come Google e OpenAI su 100 indicatori di trasparenza. L’indice ha mostrato che gli sviluppatori sono generalmente piuttosto opachi: il punteggio medio nel 2023 è stato di 37 e il punteggio massimo è stato di 54/100. Per capire come è cambiato il panorama, è stato condotto un follow-up 6 mesi dopo, assegnando un punteggio agli sviluppatori sugli stessi 100 indicatori il punteggio medio è risultato di 58 e quello massimo di 85/100. Nell’indagine sullo stato globale dell’AI responsabile, il 44% di tutte le organizzazioni intervistate ha indicato che trasparenza e spiegabilità sono preoccupazioni per le strategie di adozione dell’AI.

Secondo l’AI Incident Database, che tiene traccia degli incidenti legati all’uso improprio dell’IA, nel 2023 sono stati segnalati 123 incidenti, con un aumento del 32,3% rispetto al 2022.

L’affidabilità dei modelli: il caso di Claude Anthropic 2.0

Per facilitare la valutazione della “responsabilità” o dell’affidabilità dei modelli, un gruppo di ricercatori ha introdotto DecodingTrust un nuovo benchmark che valuta i LLM su un ampio spettro di metriche di AI responsabile come gli stereotipi e i pregiudizi, la robustezza della privacy e l’etica delle macchine. I modelli ricevono un punteggio di affidabilità, e un punteggio più alto indica un modello più affidabile.

Lo studio mette in evidenza nuove vulnerabilità dei modelli di tipo GPT, in particolare per la loro propensione a produrre risultati distorti e di far trapelare informazioni private da dati di addestramento e le cronologie delle conversazioni. Nonostante GPT-4 sia migliorato rispetto al GPT-3.5 su benchmark standard, GPT-4 rimane più suscettibile a richieste fuorvianti provenienti da tattiche di jailbreak[1]. Questa maggiore vulnerabilità è in parte dovuta alla migliore capacità di GPT-4 nel seguire le istruzioni.

All’inizio del 2024, Claude Anthropic 2.0 è stato classificato come il modello più sicuro, abbastanza avanzato da competere con GPT-4 di OpenAI e PaLM 2 di Google. Secondo i suoi sviluppatori, promette una maggiore capacità di input/output e prestazioni migliori rispetto al suo predecessore, generando al contempo una produzione più sicura. Si tratta di un modello linguistico che è stato perfezionato utilizzando l’apprendimento per rinforzo e il feedback umano.

Analisi comparativa dell’AI responsabile: i benchmark

L’AI Index Report 2024 fa il monitoraggio dei principali benchmark dell’AI responsabile, che svolgono un ruolo importante nel monitoraggio delle capacità dei modelli di AI all’avanguardia.

Introdotto nel 2021, TruthfulQA valuta la veridicità delle risposte dei LLM, RealToxicityPrompts e ToxiGen tengono traccia dell’entità dei risultati tossici prodotti dai modelli linguistici.

L’efficacia dei benchmark dipende in gran parte dalla loro applicazione standardizzata, tuttavia, testare i modelli su diversi benchmark complica i confronti, poiché i benchmark hanno caratteristiche uniche e idiosincratiche.

La standardizzazione dei benchmark per migliorare la trasparenza

Pertanto, la standardizzazione dei test sui benchmark svolge un ruolo importante nel migliorare la trasparenza sulle capacità di IA.

L’Index AIha esaminato una selezione dei principali sviluppatori di modelli di IA, in particolare OpenAI, Meta, Anthropic, Google e Mistral AI. L’Indice ha identificato un modello di punta di ogni sviluppatore (GPT-4, Llama 2, Claude 2, Gemini, e Mistral 7B) e ha valutato i parametri di riferimento su cui lo hanno valutato. Alcuni parametri standard per la valutazione delle capacità generali sono stati comunemente utilizzati da questi sviluppatori, come MMLU, HellaSwag, ARC Challenge, Codex HumanEval, e GSM8K.

TruthfulQA è utilizzato da tre dei cinque sviluppatori selezionati, altri benchmark di AI responsabile, come RealToxicityPrompts, ToxiGen, BOLD e BBQ sono utilizzati da due sviluppatori su cinque.

Privacy e governance dei dati

La privacy può essere definita come il diritto di un individuo alla riservatezza, all’anonimato e alla protezione dei propri dati personali, insieme a quello di dare il proprio consenso e di essere informato sull’utilizzo dei propri dati e sulle modalità di utilizzo. Nell’AI ciò comporta la garanzia che i dati personali siano gestiti in modo da rispettare i diritti individuali alla privacy, ad esempio implementando misure per proteggere le informazioni sensibili dall’esposizione e assicurando che la raccolta e l’elaborazione dei dati siano trasparenti e conformi alla privacy.

Determinare se un modello è rispettoso della privacy, cioè se salvaguarda le informazioni e i dati personali delle persone dalla divulgazione o dall’accesso non autorizzato, è una sfida.

Per fare degli esempi, si può pensare al settore educativo accademico: nel 2023 sono state presentate 213 domande sulla privacy alle conferenze analizzate dall’AI Index, quasi il doppio rispetto al 2022 e più di cinque volte il numero presentati nel 2019 (39).

La governance dei dati, invece, comprende politiche, procedure e standard stabiliti per garantire la qualità, la sicurezza e l’uso etico dei dati all’interno di un’organizzazione. Nel contesto dell’AI, la governance dei dati è fondamentale per garantire che quelli utilizzati per l’addestramento e il funzionamento dei sistemi di AI siano accurati e corretti. In campo industriale il 51% di tutte le organizzazioni ha dichiarato che i rischi legati alla privacy e alla governance dei dati sono rilevanti per la loro strategia di adozione dell’AI. Dal punto di vista geografico, le organizzazioni in Europa (56%) e in Asia (55%) hanno segnalato più frequentemente come rischi quelli legati alla privacy e alla governance dei dati, mentre in Nord America solo il 42%.

Note

[1] Il jailbreak è una procedura di “sblocco” che permette di installare software non ufficiali su iPhone, iPad e iPod Touch. Eseguendola diventa possibile scaricare applicazioni da fonti alternative rispetto all’App Store di Apple e, inoltre, si acquisisce l’opportunità di modificare le funzioni e l’aspetto del sistema operativo tramite alcune personalizzazioni denominate “tweak”.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2