segreti

Cosa sappiamo davvero dell’AI? Perché le Big Tech temono la trasparenza



Indirizzo copiato

Nonostante la sua pervasività, molte dinamiche dell’intelligenza artificiale rimangono avvolte nel mistero. Un elemento di particolare interesse è il grado di trasparenza, o piuttosto la mancanza di essa, che caratterizza l’industria dell’IA. La Stanford University ha provato a far luce

Pubblicato il 5 dic 2023

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



Digital,Contents,Concept.,Social,Networking,Service.,Streaming,Video.,Nft.,Non-fungible

L’intelligenza artificiale è diventata un argomento centrale nei dibattiti tecnologici, ma la comprensione di ciò che realmente rappresenta rimane ancora un enigma per molti.

Ancora più sfuggente è il modo in cui le Big Tech sfruttano l’IA per sviluppare prodotti e servizi sempre più innovativi. La Stanford University ha cercato di far luce su queste questioni con un sistema di punteggio per la trasparenza dell’IA, ma la risposta delle aziende è stata tutt’altro che chiara.

La segretezza che avvolge l’uso dell’Intelligenza Artificiale nelle aziende si scontra dunque con crescenti preoccupazioni sulla sicurezza e l’esigenza di una maggiore trasparenza. Questa tensione tra innovazione e riservatezza pone domande fondamentali sul futuro dell’IA e sul suo impatto sulla società.

Cosa sappiamo davvero dell’IA?

Sia quando si tratta di modelli linguistici di grandi dimensioni, come ChatGPT di OpenAI o Bard di Google, sia quanto si tratta di “dar vita” a robot, dell’Intelligenza Artificiale conosciamo – davvero – ben poco.

In genere, le grandi aziende di Intelligenza Artificiale non rilasciano informazioni sui dati utilizzati per addestrare i loro modelli o sull’hardware utilizzato per farli funzionare. Non esistono “manuali d’uso” per i sistemi di Intelligenza Artificiale, né elenchi di tutto ciò che questi sistemi sono in grado di fare o di quali tipi di test di sicurezza sono stati effettuati. E, sebbene alcuni modelli di Intelligenza Artificiale siano stati resi open-source dai propri produttori, con il loro codice che viene distribuito gratuitamente agli utenti – il grande pubblico non conosce molto del processo di creazione o di ciò che accade dopo il rilascio delle tecnologie alimentate dall’Intelligenza Artificiale.

La Stanford University e il sistema di punteggio per la trasparenza dell’IA

Alcune settimane fa alcuni ricercatori esperti di Intelligenza Artificiale della Stanford University hanno presentato un sistema di “punteggio” che potrebbe cambiare tutto questo, portando a una reale comprensibilità della tecnologia in esame[1].

Il sistema, denominato “Foundation Model Transparency Index”, valuta dieci grandi modelli linguistici di Intelligenza Artificiale in base alla loro trasparenza. L’Index comprende modelli popolari come GPT-4 di OpenAI (che alimenta la versione a pagamento di ChatGPT), PaLM 2 di Google (che alimenta Bard) e LLaMA 2 di Meta; vi sono, tuttavia, anche modelli meno noti al grande pubblico come Titan Text di Amazon e Inflection AI Inflection-1, il modello che alimenta il chatbot Pi.

Per stilare la loro “personale” classifica, i ricercatori della Stanford University hanno valutato ogni modello in base a ben cento criteri, tra cui la divulgazione delle fonti dei dati di formazione (cd. “training data”), le informazioni sull’hardware utilizzato, le risorse umane impiegate per la formazione e altri dettagli. La classifica include anche informazioni sulle risorse umane e sui dati utilizzati per produrre il modello stesso, oltre a quelli che i ricercatori chiamano indicatori a valle, che hanno a che fare con il modo in cui un modello viene utilizzato dopo il suo rilascio.

LLaMA 2 di Meta il modello più trasparente

Secondo i ricercatori dell’ateneo californiano, il modello più trasparente dei dieci analizzati è stato LLaMA 2 di Meta, con un punteggio maggiore del cinquanta percento. GPT-4 ha ricevuto il terzo punteggio più alto, pari al quaranta percento, lo stesso di PaLM 2. Secondo i ricercatori, quella di Stanford è un’attività è molto importante in quanto le Big Tech lottano tra loro per il dominio investendo grandi quantità di denaro “avvolgendosi”, al contempo, nella segretezza più assoluta. Siamo di fronte a un’impennata di riservatezza senza precedenti, il tutto per dominare sempre più sul competitor di turno.

I motivi di tanta segretezza nell’intelligenza artificiale

La trasparenza è particolarmente importante al giorno d’oggi, poiché i modelli di Intelligenza Artificiale diventano sempre più potenti, con milioni di persone che utilizzano sempre più l’Intelligenza Artificiale nella loro vita quotidiana. Conoscere meglio il funzionamento di questi sistemi permetterebbe a governi, ricercatori e utenti di capire meglio con cosa hanno a che fare e di porre domande migliori alle aziende che stanno dietro a tali modelli. Per le Big Tech ci sono dei motivi alla base di tanta segretezza industriale.

Le cause legali

Il primo è quello delle cause legali. Diverse aziende di Intelligenza Artificiale sono già state citate in giudizio da autori, artisti e società del mondo dei media che le accusano di aver utilizzato illegalmente opere protette da copyright per addestrare i loro modelli di Intelligenza Artificiale. Finora, la maggior parte delle cause ha preso di mira progetti di Intelligenza Artificiale open-source, nonché progetti che hanno divulgato informazioni dettagliate sui loro modelli. I legali delle aziende di Intelligenza Artificiale temono che, quanto più sono trasparenti su come sono costruiti i loro modelli, tanto più si esporranno a costose e fastidiose cause legali. E non hanno tutti i torti.

L’ascesa della concorrenza

Il secondo motivo è (l’accesa) concorrenza. La maggior parte delle aziende di Intelligenza Artificiale ritiene che i propri modelli funzionino perché possiedono una sorta di segreto alla base: un dataset di alta qualità che le altre aziende non hanno, una tecnica di messa a punto che produce risultati migliori… insomma, un’ottimizzazione che dà loro un vantaggio sui competitor. Ove si obbligasse le aziende di Intelligenza Artificiale a divulgare queste “ricette segrete” potrebbe essere molto facile per altri interessati copiarle e manipolarle a piacimento. Con buona pace della tutela della proprietà industriale.

La sicurezza

Il terzo motivo è la sicurezza. Alcuni esperti di Intelligenza Artificiale hanno sostenuto che più informazioni vengono divulgate dalle aziende sui loro modelli, più il progresso dell’Intelligenza Artificiale accelera, perché ogni azienda vede cosa stanno facendo i suoi rivali e cerca immediatamente di superarli costruendo un modello migliore, più grande e più veloce. In tal caso la società avrà meno tempo per regolare e rallentare l’Intelligenza Artificiale; e un’Intelligenza Artificiale “troppo veloce e capace” potrebbe metterci tutti in pericolo.

La necessità di una maggiore trasparenza nell’intelligenza artificiale

Per i ricercatori della Stanford University, tuttavia, le spiegazioni alla base della segretezza sono ben altre. Essi ritengono, infatti, che le aziende di Intelligenza Artificiale dovrebbero essere spinte a rilasciare il maggior numero possibile di informazioni sui modelli più potenti, perché gli utenti, i ricercatori e le autorità di regolamentazione devono essere consapevoli di come funzionano questi modelli, quali sono i loro limiti e quanto potrebbero essere pericolosi. Infatti, mentre l’impatto di questa tecnologia aumenta, la trasparenza diminuisce. In un certo senso, tali modelli sono troppo potenti per rimanere così “opachi” e più sappiamo di questi sistemi, più possiamo capire le minacce che possono rappresentare, i benefici che possono attenderci e come essi possono essere regolamentati.

Conclusioni

Per i ricercatori dell’ateneo californiano, se le Big Tech sono preoccupate per le cause legali, dovrebbero lottare per un’esenzione dal fair-use[2] che protegga la loro capacità di usare informazioni protette da copyright per addestrare i loro modelli, invece di nascondere le informazioni. Se temono di cedere segreti commerciali ai rivali, possono divulgare altri tipi di informazioni o proteggere le loro idee attraverso i brevetti. Insomma, per Stanford tutto è superabile. Basta volerlo. Ma sarà davvero così?[3]

Note


[1] The Foundation Model Transparency Index. Stanford University. https://crfm.stanford.edu/fmti/

[2] Che cos’è il fair use? Google. https://support.google.com/legal/answer/4558992?hl=it

[3] Maybe We Will Finally Learn More About How A.I. Works. The New York Times. https://www.nytimes.com/2023/10/18/technology/how-ai-works-stanford.html

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3