L’intelligenza artificiale generativa, intesa come “intelligenza artificiale in grado di generare nuovi contenuti” in risposta a un input, rappresenta una delle innovazioni tecnologiche più promettenti e, al contempo, controverse del nostro tempo. Con applicazioni che spaziano dalla scienza alla economia, dall’istruzione all’ambiente, l’impatto di questa tecnologia è destinato ad essere profondo e diffuso.
L’apertura dei modelli Gen AI, ovvero la disponibilità pubblica dei pesi[1], dei dati di addestramento e del codice sorgente, solleva però un dibattito acceso tra sostenitori e detrattori, ciascuno con argomenti validi e preoccupazioni legittime, molti dei quali hanno a che fare con tematiche legate alla sicurezza e all’etica della condivisione tecnologica.
IA, la svolta dei modelli open source
Di fatto l’adozione di modelli di intelligenza artificiale open-source continua a rappresentare una svolta significativa nel panorama tecnologico contemporaneo. Non è casuale che negli ultimi anni, l’intelligenza artificiale abbia vissuto un boom senza precedenti, con l’innovazione aperta che gioca un ruolo cruciale in questo sviluppo. D’altra parte una parte consistente dell’economia digitale moderna poggia già in larga misura sul software open source, una realtà evidenziata dal fatto che oltre il 60% dei siti web globali utilizza server open source come Apache e Nginx.
Sebbene i modelli di IA chiusi siano ritenuti maggiormente consoni per applicazioni “sensibili”, quelli open-source si fanno apprezzare per una maggiore concorrenza e un accesso equo alla tecnologia. Non solo, poiché la disponibilità di modelli di IA open source permette a sviluppatori, ricercatori e organizzazioni di sfruttare le tecnologie all’avanguardia senza affrontare costi di licenze proibitivi o politiche commerciali restrittive.
In ambiti che richiedono stretta aderenza alle normative, rigorosa protezione dei dati e supporto tecnico specializzato, i modelli proprietari tendono a offrire risultati migliori, garantendo strutture legali solide, supporto clienti dedicato e ottimizzazioni su misura per i requisiti specifici del settore. Al contrario, i modelli aperti, come quelli di Eleuther AI e AI2, pur offrendo un alto livello di personalizzazione, consentono percorsi di innovazione guidati dalla comunità. Questo facilita l’adattamento a esigenze peculiari e promuove miglioramenti continui. Il modello T5 di Google, con la sua architettura flessibile e accessibile, ha dimostrato grande efficacia in vari compiti di elaborazione del linguaggio naturale. Allo stesso modo, modelli come Pythia di Eleuther AI e OLMo di AI2 hanno ottenuto riconoscimenti per la loro conformità agli standard dell’Open Source Initiative (OSI), elemento questo che approfondiremo nel corso della presente analisi.
In particolare, la trasparenza del codice e dei dati di addestramento è considerata fondamentale per un controllo approfondito e una maggiore fiducia nelle applicazioni sviluppate.
Tuttavia, nell’ultimo anno, l’industria dell’intelligenza artificiale ha visto una crescente tendenza verso lo sviluppo di modelli chiusi. OpenAI, un tempo pioniera della trasparenza e dell’apertura, ha ora adottato un approccio più restrittivo, seguito da altre grandi aziende man mano che gli investimenti nell’IA diventano più ingenti.
Sebbene non esistano ancora parametri di riferimento chiari per determinare i modelli più potenti tra quelli aperti o chiusi, l’industria sta però assistendo anche a un significativo livellamento delle prestazioni. Questo è particolarmente significativo specie considerando i riflessi che tanto comporta per le aziende in termini di compromessi tra capacità e costi di sviluppo, oltre alle strategie di commercializzazione e concorrenza.
Nulladimeno, i modelli aperti offrono il vantaggio di eseguire trattamenti di inferenza a livello locale, senza la necessità di inviare dati a terze parti dislocate altrove. Questo è particolarmente rilevante in settori come la medicina e la finanza, dove la conformità alle normative di protezione dei dati personali e la sicurezza dei trattamenti dei dati sono fondamentali.
Il discorso sull’apertura dei modelli Gen AI è dunque complesso e presenta sfide uniche dovute alle caratteristiche distintive di questa tecnologia, tra cui il potenziale doppio uso e il rischio di avanzamento tecnologico incontrollato.
Il dibattito che ne deriva è ulteriormente accentuato dai recenti sviluppi normativi a livello globale, che cercano di governare l’utilizzo e la distribuzione di questi modelli.
Approcci normativi Ue, Usa e Cina nella gestione dei modelli di fondazione
La regolamentazione gioca un ruolo di primissimo piano nel bilanciare i rischi e nel promuovere l’innovazione aperta. In tal senso UE e Stati Uniti stanno evidenziando approcci piuttosto complessi ed ancora in evoluzione, sebbene promettenti.
Sia l’AI Act dell’Unione Europea[2], che adotta un approccio favorevole all’innovazione riconoscendo i benefici dell’apertura ed esentando i modelli aperti da molti obblighi, a meno che non pongano rischi sistemici significativi, sia negli Stati Uniti, l‘Ordine Esecutivo[3] della Casa Bianca che ha incaricato la National Telecommunications and Information Administration (NTIA) di esaminare la questione dell’open source e di raccomandare azioni appropriate, evidenziano la necessità di approfondire il ruolo dell’intelligenza artificiale aperta. Entrambi gli approcci evitano di prendere posizioni predefinite, preferendo monitorare i rischi senza imporre restrizioni aprioristiche ed eccessive.
Anche in Cina[4], dove la regolamentazione dell’intelligenza artificiale è fortemente influenzata dall’intervento statale, come evidenziato dalle recenti direttive della Cyberspace Administration of China e dalle leggi introdotte nel 2023, il governo cinese sceglie di adottare un approccio centralizzato e diretto, imponendo specifici controlli sullo sviluppo e l’implementazione dei modelli IA. Le normative cinesi sono proprio progettate per garantire che l’IA sia utilizzata in modo conforme agli obiettivi di politica nazionale, con un’attenzione particolare alla sicurezza e alla stabilità sociale senza però comprometterne lo sviluppo. Non è un caso che l’ecosistema LLM open source della Cina stia avanzando rapidamente, con modelli come Qwen 1.5 di Alibaba e ChatGLM3 di Zhipu AI in procinto di superare alcune controparti statunitensi e ottenuto riconoscimenti per le loro impressionanti capacità.
La necessità di aumentare la trasparenza e ridurre le asimmetrie informative
Ad ogni modo tutti questi orientamenti regolamentari, pur con le dovute differenze, riflettono la comune necessità di aumentare la trasparenza e ridurre le asimmetrie informative nel settore dell’AI. Allo stesso modo sottolineano l’esigenza di controllare la catena del valore dell’IA in rapida evoluzione. Man mano che l’ecosistema dell’IA diventa più complesso, con un crescente numero di attori e ruoli mutevoli, diventa infatti fondamentale comprendere l’intricata rete dei potenziali rischi associati alla modifica e all’uso di modelli di IA da parte di attori lungo la catena del valore.
La responsabilità dei fornitori di modelli
Senza dimenticare gli interrogativi ancora irrisolti sulle responsabilità dei fornitori di modelli oltre la fase di sviluppo iniziale. Mentre i fornitori di modelli sono in genere al centro dell’attenzione, altri attori importanti come adattatori di modelli, servizi di hosting e sviluppatori di applicazioni vengono spesso trascurati, nonostante svolgano un ruolo chiave nel facilitare la scoperta dei modelli, consentendone un uso diffuso o prevenendo o riducendo i potenziali danni derivanti da modelli di fondazione aperti e chiusi.
Tali interrogativi risultano particolarmente complessi proprio per i modelli di fondazione aperti, che possono essere liberamente consultati e modificati da altri. Non sono però immuni da usi impropri neppure i modelli più chiusi dove si accede tramite API, consentendo ai provider di modelli di controllare e monitorare il loro utilizzo. Anche questi modelli sono suscettibili di uso nefasto, poiché gli sviluppatori a valle potrebbero comunque influenzare le applicazioni e, in alcuni casi, perfezionarli, aggirando le misure di sicurezza.
La differenza fondamentale risiede piuttosto nel fatto che i modelli più chiusi offrono ai provider strumenti più agevoli e diretti per monitorare e moderare l’utilizzo delle applicazioni tecnologiche, consentendo potenzialmente risposte più rapide e oneri probatori più immediati. Non si può dire altrettanto per le soluzioni open source.
Di certo, in un caso come nell’altro, la catena del valore dell’IA è complessa, con vari attori che hanno diversi incentivi, diversi livelli di consapevolezza e controllo quando si tratta di sviluppo e applicazione responsabile dell’IA.
Benefici e rischi dell’IA open source
Per i sostenitori dell’open source i benefici di una maggiore condivisione sono significativi. La libera circolazione del software ha storicamente supportato l’intero settore tecnologico, facilitando l’innovazione e l’adozione su larga scala. Esempi emblematici includono il web, la cui base software è stata resa pubblica dal CERN (era il 12 marzo del 1989 quando Tim Berners-Lee mandava il suo progetto di ipertesto ai suoi superiori del CERN di Ginevra), e l’algoritmo di compressione Ogg Vorbis, che permette a milioni di utenti di ascoltare musica su Spotify.
Tre i vantaggi più evidenti dei modelli di IA open source:
- Accelerazione dell’innovazione: la collaborazione aperta tra ricercatori e sviluppatori favorisce un’evoluzione più rapida e dinamica delle tecnologie AI, sfociando in soluzioni più sofisticate ed efficaci.
- Democratizzazione dell’accesso: l’open-source rende l’IA accessibile a un pubblico più ampio, consentendo a realtà di dimensioni minori di partecipare attivamente allo sviluppo e all’applicazione di queste tecnologie, superando le barriere di ingresso tipiche degli ambienti proprietari.
- Rafforzamento della robustezza: la verifica e la modifica collettiva del codice sorgente contribuiscono a identificare e mitigare vulnerabilità, migliorando la sicurezza e l’affidabilità dei modelli.
Rischi e sfide dei modelli aperti
Ma i modelli aperti, nonostante i vantaggi immediatamente percepibili, presentano anche notevoli rischi e limitazioni, oltre che sfide tecniche ed etiche. Tra questi:
- Utilizzi impropri: la diffusione incontrollata di modelli potenti può facilitare attività illecite, come la diffusione di disinformazione o la creazione di contenuti deepfake.
- La recente notizia secondo cui i ricercatori cinesi avrebbero adattato Llama 2 di Meta a determinati scopi militari evidenzia proprio la debolezza dei modelli open source in contesti geopolitici roventi.
- Disparità nell’accesso ai dati: sebbene l’open-source promuova la condivisione, la disponibilità di dati di alta qualità rimane un fattore discriminante, concentrando il potere nelle mani di coloro che dispongono di grandi quantità di dati proprietari.
- Mancanza di standardizzazione: la proliferazione di modelli e framework diversi può ostacolare l’interoperabilità e la comparabilità delle soluzioni AI.
Il dilemma più pressante dell’IA Open-Source, nonché la fonte delle maggiori preoccupazioni è senza dubbio legato al potenziale uso nefasto e su larga scala delle applicazioni tecnologiche.
IA open-source e rischi di disinformazione: lo studio dell’Institute for Human-Centered AI (HAI)
Le analisi contenute in un recente articolo dei ricercatori dell‘Institute for Human-Centered AI (HAI) di Stanford, sostengono che i modelli aperti comportano tutta una serie di rischi, tra i quali si citano gli abusi derivanti dalla creazione di immagini intime non consensuali (NCII ) e l’interferenza nelle elezioni.
Rishi Bommasani, uno dei coautori dell’articolo e responsabile del Center for Research on Foundation Models di Stanford, sottolinea come sebbene l’accesso aperto alla tecnologia possa favorire la collaborazione, da un diverso punto di vista aumenta anche il potenziale di utilizzi malevoli. La possibilità di generare contenuti dannosi, come le immagini di abuso sessuale su minori (CSAM), è un esempio lampante. Secondo i dati dell’Internet Watch Foundation, negli ultimi anni, il volume di CSAM online è aumentato drasticamente, con una crescita di circa dieci volte.
Questo non solo solleva preoccupazioni morali, ma rappresenta anche una sfida per le forze dell’ordine, che si trovano in difficoltà nell’individuare e fermare la circolazione di contenuti reali rispetto a quelli generati artificialmente. La diffusione di immagini create tramite modelli aperti come Stable Diffusion rende ancora più complesso il contrasto a tale fenomeno, alimentando il rischio che i sistemi di sicurezza non riescano a distinguere tra materiale autentico e materiale sintetico. Se infatti da un lato gli sviluppatori di IA hanno la responsabilità di ridurre al minimo i danni potenziali, è evidente quanto la tecnologia stessa non possa essere vista solo come un semplice strumento. Le sue applicazioni e potenzialità vanno monitorate con attenzione, soprattutto in ambiti sensibili come quello della biologia e delle tecnologie legate alla clonazione vocale, temi che hanno suscitato pesanti perplessità circa la sicurezza e l’integrità delle informazioni.
La natura imprevedibile degli attori malevoli
Nonostante alcuni studi recenti non abbiano riscontrato rischi sistemici immediati in questi settori, la ricerca su come i modelli di IA possono essere utilizzati per scopi malevoli è in continua evoluzione. L’aspetto che rende estremamente difficile valutare con certezza i rischi dei modelli aperti riguarda in modo allarmante la natura imprevedibile degli attori malevoli. Come osserva Bommasani, l’incapacità di prevedere come i malintenzionati potrebbero sfruttare l’IA rende difficile costruire modelli di difesa efficaci. A differenza di altri ambiti come la sicurezza informatica, dove decenni di esperienza hanno fornito una base solida per la protezione, la comunità della IA è ancora in fase esplorativa. Inoltre, il divario tra attori con poche risorse e stati-nazione dotati di ampie risorse rendono il rischio difficile da quantificare.
La disinformazione
La disinformazione è un altro campo problematico dove l’attribuzione dei danni è complessa. Le interferenze elettorali, ad esempio, sono difficili da tracciare con certezza, soprattutto se si considerano che modelli linguistici avanzati potrebbero essere utilizzati per generare contenuti manipolativi senza lasciare tracce evidenti. La difficoltà di associare le azioni a specifici attori malevoli amplifica le preoccupazioni su come l’IA possa essere impiegata per scopi nefasti senza che vi siano prove concrete o attribuibili.
Fino a che punto i modelli di IA dovrebbero essere disponibili per il pubblico?
L’accesso illimitato alla tecnologia AI pone, quindi, una sfida fondamentale e le prossime mosse in questa direzione saranno decisive. La velocità con cui evolvono i modelli di IA richiede una riflessione profonda e una costante azione tempestiva per evitare che la crescente potenza di queste tecnologie venga abusata in modi che possano danneggiare la sicurezza e l’integrità della nostra società.
Tutto ciò non può che contribuire ad alimentare gli interrogativi su quanto sia prudente rendere accessibili strumenti così potenti senza restrizioni rigorose. La possibilità che terroristi o criminali possano sfruttare modelli open-source per attività illecite, bypassando le salvaguardie incorporate, è un timore reale. Anthropic, un’azienda leader nel settore, ha espresso preoccupazioni urgenti sulla regolamentazione necessaria per evitare tali rischi.
E mentre l’IA continua a evolversi, il dibattito sull’open-source rimane centrale.
Le implicazioni future che tanto comporterà sia dal punto di vista definitorio che regolatorio avranno, come detto, vasta portata. I governi dovranno rivelarsi in grado di bilanciare la necessità di promuovere l’innovazione con la protezione contro i rischi di sicurezza. Altrettanto sarà cruciale che le politiche incoraggino la trasparenza e la collaborazione senza compromettere la sicurezza pubblica.
Sul fronte delle organizzazioni e dei ricercatori l’evoluzione dell’IA open-source è già influenzata da diverse tendenze: se da una parte i Large Language Models (LLM) stanno definendo nuovi standard, fungendo da base per lo sviluppo di applicazioni più specializzate, dall’altra la creazione di partnership tra istituzioni pubbliche e aziende private si sta mostrando particolarmente interessante per stabilire linee guida e regolamenti che facilitino la governance dello sviluppo responsabile dell’IA.
Anche le comunità open-source si mostrano in espansione: piattaforme come Hugging Face stanno facilitando la condivisione di modelli e la creazione di comunità di sviluppatori.
La definizione dell’Open Source Initiative
L’Open Source Initiative (OSI), l’organizzazione no-profit che promuove e difende il concetto di “software open source” e la cui missione principale è garantire che il software open source venga sviluppato e utilizzato in modo che possa essere liberamente accessibile, modificabile e distribuito, ha recentemente presentato, nel corso della conferenza All Things Open 2024 , tenutasi a Raleigh, nella Carolina del Nord, la sua Open Source AI Definition v1.0
La definizione, che pare abbia richiesto anni di lavoro e che deriva originariamente dalle Linee guida Debian per il software libero (DFSG), ha avuto come intento quello di stabilire uno standard chiaro per determinare se un sistema di intelligenza artificiale (IA) possa essere considerato realmente “open source”.
Un intendimento dunque ambizioso in un terreno sempre più controverso, che infatti non ha mancato di suscitare reazioni critiche da parte di alcune delle maggiori aziende nel campo dell’IA.
La definizione di cosa possa essere considerato “open source” nell’ambito dell’IA non è affatto banale.
Come noto, il termine “open source” ha un significato ben preciso nel mondo del software: codice sorgente accessibile e modificabile, con licenze che consentono la distribuzione libera e la possibilità di migliorie da parte della comunità. Tuttavia, i modelli di IA, specialmente quelli complessi, come i modelli di linguaggio di grandi dimensioni (LLM), presentano caratteristiche che non sono coperte dalle licenze tradizionali. Tra queste, la questione dei dati di addestramento è centrale: per l’IA, i dati sono essenziali tanto quanto il codice stesso. Per questo motivo, l’OSI ha ritenuto imprescindibile cercare di definire un concetto di open source specifico per l’intelligenza artificiale, coinvolgendo organizzazioni diverse: dal mondo accademico alla comunità open source. L’obiettivo è stato quello di stabilire una definizione che vada oltre le caratteristiche tipiche del software tradizionale, in modo da includere anche gli elementi distintivi dell’IA, come l’accesso ai dati di addestramento e ai pesi utilizzati per la generazione dei risultati.
I requisiti per l’Open Source AI
Secondo la nuova Open Source AI Definition v1.0 , per essere considerato open source, un sistema di IA deve soddisfare i seguenti criteri specifici:
- Distribuzione gratuita: il primo criterio fondamentale è che la distribuzione del software deve essere gratuita , senza alcuna restrizione che impedisca a chiunque di vendere o regalare il software come parte di un pacchetto che include anche altri programmi. La licenza non può imporre royalty o altri costi aggiuntivi sulla vendita. Questo principio è cruciale per garantire che il software possa essere utilizzato liberamente, anche in contesti commerciali, senza l’aggravio di costi nascosti.
- Codice sorgente: il software deve includere il codice sorgente e consentirne la distribuzione sia in forma sorgente che compilata. Se il programma non viene distribuito con il codice sorgente, la licenza deve fornire un modo chiaro e facilmente accessibile per ottenerlo, preferibilmente tramite un download gratuito. È essenziale che il codice sorgente sia la forma principale con cui i programmatori interagiscono con il software, senza l’uso di formati offuscati che rendono difficile l’accesso al codice. Inoltre, non sono consentite forme intermedie come il risultato di un preprocessore.
- Opere derivate: un altro principio cruciale dell’open source è che le licenze devono consentire modifiche e lavori derivati . Le modifiche possono riguardare il codice sorgente, e questi lavori derivati devono poter essere distribuiti secondo le stesse condizioni della licenza del software originale. Ciò permette una continua innovazione e l’adattamento del software alle necessità di chi lo usa.
- Integrità del codice sorgente dell’autore: anche se le modifiche sono ammesse, la licenza può stabilire delle limitazioni sulla distribuzione del codice sorgente modificato. Ad esempio, si può richiedere che le modifiche siano distribuite sotto forma di file patch, per permettere la compilazione del software modificato. Inoltre, la licenza può chiedere che i lavori derivati abbiano un nome o una versione diversa dal software originale, per evitare confusione tra la versione originale e quella modificata.
- Nessuna discriminazione contro persone o gruppi: una delle caratteristiche che distingue l’open source è la non discriminazione. Le licenze open source non devono fare discriminazioni nei confronti di nessun individuo o gruppo di persone. Chiunque deve essere libero di utilizzare, modificare e distribuire il software senza restrizioni basate su razza, genere, etnia, religione o altre categorie.
- Nessuna discriminazione nei campi di attività: le licenze open source non devono limitare l’uso del software a specifici campi di attività. Ad esempio, non devono escludere l’utilizzo commerciale o scientifico del software. Un programma open source può essere utilizzato liberamente per attività di ricerca, sviluppo tecnologico, o anche in applicazioni commerciali, senza imposizioni aggiuntive da parte del licenziante.
- Distribuzione della licenza: un’altra regola fondamentale è che i diritti concessi dalla licenza devono essere applicabili a chiunque riceva il software, senza che sia necessario sottoscrivere una licenza aggiuntiva. Questo principio assicura che i benefici derivanti dall’open source si estendono a tutta la comunità che interagisce con il programma.
- La Licenza non deve essere specifica per un prodotto: le licenze open source non devono dipendere da un prodotto software specifico . Se un programma viene estratto da una distribuzione software e utilizzato separatamente, i diritti concessi devono essere gli stessi come se il software fosse stato venduto originariamente. La licenza deve essere indipendente dal contesto in cui il software viene distribuito.
- La licenza non deve limitare altri software: le licenze open source non devono imporre restrizioni su altri software distribuiti insieme al software concesso in licenza. Ad esempio, una licenza open source non può obbligare che tutti gli altri programmi distribuiti sullo stesso supporto siano anch’essi open source. Ciò garantisce che i programmatori possano combinare software open source con altri software proprietari senza restrizioni legali.
- La licenza deve essere neutrale dal punto di vista tecnologico: infine, le licenze open source devono essere neutrali dal punto di vista tecnologico . Questo significa che la licenza non può favorire un particolare tipo di tecnologia, piattaforma o stile di interfaccia. Deve essere applicabile a una vasta gamma di tecnologie, consentendo al software di evolversi nel tempo e di essere adattato a nuove esigenze senza essere vincolato da tecnologie obsolete.
Il concetto di open source formulato dall’OSI per l’IA va quindi ben oltre il semplice accesso al codice sorgente. E le licenze open source per essere definite tali dovranno rispettare una serie di criteri che garantiscano libertà, trasparenza e accessibilità per gli utenti.
L’open source dell’IA sotto esame: Meta, Stability AI e Mistral di fronte ai nuovi standard OSI
Subito dopo la presentazione della definizione, la reazione delle principali aziende del settore AI è stata immediata[5].
Meta, pur essendo una delle prime aziende a rilasciare un modello di linguaggio di grandi dimensioni, Llama, definito open-source, non soddisfa i criteri dell’OSI a causa delle restrizioni sull’uso commerciale e della mancanza di trasparenza riguardo ai dati di addestramento. Analogamente, Stability AI, conosciuta per il modello di generazione di immagini Stable Diffusion, e Mistral, che sviluppa modelli di IA come Ministral 3B e 8B, presentano limitazioni simili, rendendo difficile classificare i loro modelli come completamente open source secondo gli standard stabilità dall’ OSI.
Le aziende coinvolte giustificano le loro posizioni con diverse motivazioni. Meta, ad esempio, ha spiegato che le preoccupazioni legate alla sicurezza impediscono di rendere pubblici i dati di addestramento di Llama, al fine di proteggere gli utenti e prevenire abusi del modello. Questo solleva una delle questioni più delicate: la sicurezza nell’ambito dell’open source dell’IA. Se da un lato la trasparenza è fondamentale per promuovere l’innovazione, dall’altro le preoccupazioni riguardanti l’uso improprio dei dati ei rischi di malintenzionati potrebbero giustificare alcune restrizioni.
I nodi del copyright
Un’altra questione rilevante riguarda il materiale protetto da copyright. Nel 2023 il New York Times ha reso abbondantemente noto come “OpenAI, Google e Meta abbiano ignorato le politiche aziendali, modificato le proprie regole e discusso di come aggirare le leggi sul copyright mentre cercavano informazioni online per addestrare i loro più recenti sistemi di intelligenza artificiale”. Ed è proprio quest’ultimo un altro degli aspetti cardine che inasprisce ulteriormente la rigida applicazione della definizione di “open source”.
Modelli compatibili, potenzialmente conformi e non conformi
Nel contesto del processo di convalida OSAID, OSI ha esaminato i seguenti modelli classificandoli come compatibili, potenzialmente conformi e non conformi:
- Modelli compatibili: Pythia (Eleuther AI), OLMo (AI2), Amber e CrystalCoder (LLM360) e T5 (Google).
- Modelli potenzialmente conformi: Bloom (BigScience), Starcoder2 (BigCode) e Falcon (TII) potrebbero soddisfare gli standard OSAID con piccole modifiche ai termini di licenza o miglioramenti nella trasparenza.
- Modelli non conformi: LLaMA (Meta), Grok (X/Twitter), Phi (Microsoft) e Mixtral (Mistral) non soddisfano i requisiti necessari di trasparenza o impongono termini di licenza restrittivi.
È chiaro che raggiungere un consenso globale sarà una sfida ardua: l’Open Source Definition’s (un’organizzazione alternativa all’OSI), la comunità degli sviluppatori e utenti esperti di piattaforme come LinkedIn hanno già espresso forti dissensi.
Le implicazioni di questa definizione vanno invero ben oltre il mondo accademico e industriale, influenzando il modo in cui l’IA verrà sviluppata, utilizzata e regolamentata in futuro. Il dibattito su cosa e quanto debba essere realmente considerato open source nell’era dell’IA è complesso e mutevole. La tensione tra trasparenza e sicurezza, accessibilità e controllo, definirà inevitabilmente il futuro dell’innovazione tecnologica.
Gli impatti delle delle scelte attuali sul futuro dell’IA
I modelli open source renderanno la società più sicura o aumenteranno i rischi globali? Le decisioni prese in questo ambito definiranno il futuro dell’AI e la sua regolamentazione per i decenni a venire.
La struttura proprietaria dell’intelligenza artificiale e le normative sulla proprietà intellettuale saranno destinate a plasmare l’evoluzione dell’AI.
Le scelte governative nel promuovere o limitare i modelli open source determineranno il percorso dell’innovazione tecnologica e della sicurezza informatica.
E la questione è quanto mai cruciale poiché coinvolge equilibri delicati tra sicurezza, innovazione e accessibilità.
L’apertura dei modelli Gen AI può portare numerosi vantaggi. Promuovere la collaborazione e l’innovazione, permettendo a ricercatori e sviluppatori di tutto il mondo di contribuire al miglioramento dei modelli esistenti. Questo può accelerare i progressi tecnologici e democratizzare l’accesso alle risorse di intelligenza artificiale, riducendo il divario tra le grandi aziende tecnologiche e i piccoli innovatori. Inoltre, la trasparenza associata ai modelli aperti può migliorare la sicurezza, poiché una comunità più ampia può identificare e correggere la debolezza e i pregiudizi nei modelli.
Tuttavia, i rischi associati all’apertura dei modelli Gen AI non sono trascurabili. Il potenziale doppio uso di questa tecnologia significa che modelli aperti potrebbero essere sfruttati per scopi malevoli, come la creazione di deepfake, la diffusione di disinformazione o il miglioramento delle capacità di attacco informatico. Inoltre, l’accesso illimitato ai modelli può portare un avanzamento tecnologico incontrollato, rendendo difficile per le normative tenere il passo con i rapidi sviluppi e garantire che l’uso dell’IA sia sicuro ed etico.
In modo particolare la complessità della catena del valore dell’IVA richiede un approccio collaborativo e multifasico in grado di coinvolgere tutti gli attori rilevanti, dai fornitori di modelli agli adattatori, ai servizi di hosting, agli sviluppatori di applicazioni e altro ancora.
Gli aspetti da non trascurare per uno sviluppo dell’IA protetto, responsabile e vantaggioso
Solo attraverso una comprensione profonda e una gestione diligente di questa rete intricata possiamo “realisticamente ambire” ad uno sviluppo dell’IA quanto più possibile protetto, responsabile e vantaggioso per la società nel suo insieme.
La necessità di un’attenta valutazione di tutti questi aspetti è inoltre resa ancora più pressante dai recenti sviluppi regolatori in tutto il mondo. Una tra le principali sfide per le aziende internazionali rimane infatti quella legata alla conformità alle normative in un contesto giuridico che varia notevolmente da un paese all’altro.
La deinizione di IA
Si pensi solo alla definizione[6] di “AI”, che cambia da una giurisdizione all’altra e alla conseguente difficoltà di applicare normative coerenti su scala globale: uno scenario che impone alle aziende di navigare tra definizioni ambigue, approcci regolatori eterogenei[7] e incertezze normative che potrebbero influenzare le loro strategie di sviluppo e investimento.
La flessibilità, lama a doppio taglio
La stessa flessibilità che caratterizza molte normative si presta a divenire una lama a doppio taglio. Sebbene consenta alle normative di restare rilevanti nel tempo, crea anche incertezze su come i regolamenti saranno applicati in futuro. Le aziende si trovano così a dover affrontare il rischio di non sapere se le loro implementazioni di AI saranno conformi a lungo termine. Questo potrebbe influenzare non solo le decisioni di investimento, ma anche l’attrattività di determinate giurisdizioni per lo sviluppo dell’AI.
La sovrapposizione delle normative sull’AI con altre leggi già esistenti
Un’altra complicazione riguarda la sovrapposizione delle normative sull’AI con altre leggi già esistenti. Sebbene molti paesi non abbiano ancora leggi specifiche sull’AI, altre normative, come quelle sulla protezione dei dati, la proprietà intellettuale, l’antitrust e la regolamentazione finanziaria, si applicano in modo indiretto all’AI. Le questioni di copyright sui dati di addestramento, le normative sui dati personali trattati da sistemi automatizzati, o le implicazioni della concorrenza sono solo alcuni dei temi legali che possono sorgere quando si sviluppano soluzioni aperte o chiuse basate su AI. Le aziende devono quindi monitorare non solo le normative specifiche sull’AI, ma anche tutte le leggi che influenzano l’uso dell’AI nei rispettivi settori. Rimanere aggiornati sugli sviluppi normativi, mentre le giurisdizioni di tutto il mondo cercano di trovare il giusto equilibrio tra promozione dell’innovazione e protezione contro i rischi, è essenziale per le aziende che desiderano non solo navigare le normative, ma anche contribuire alla costruzione di una ecosistema globale di intelligenza artificiale più sicuro e più trasparente.
Note
Le normative emergenti sull’AI non sono solo eterogenee nelle loro definizioni, ma anche nella loro forma giuridica. L’EU AI Act, ad esempio, è un “Regolamento”, il che significa che si applica direttamente in tutti gli Stati membri senza bisogno di attuazione nazionale, un aspetto che facilita l’uniformità all’interno dell’Unione. In contrasto, il Regno Unito ha scelto di non legiferare in maniera rigida, preferendo un quadro normativo basato su principi generali senza nuovi obblighi legali espliciti. Questo approccio offre flessibilità, ma potrebbe causare discrepanze interpretative tra le varie autorità di regolamentazione del paese. Negli Stati Uniti, invece, la situazione è ancora più frammentata: ordini esecutivi della Casa Bianca, iniziative federali e statali, e azioni di agenzie come la Federal Trade Commission e l’Equal Employment Opportunity Commission delineano un panorama regolatorio complesso e in continua evoluzione. Mancano approcci concettuali coerenti. Alcuni regolamenti sono giuridicamente vincolanti, altri sono raccomandazioni o linee guida, mentre altri ancora si applicano solo a settori specifici. Inoltre, organismi internazionali come l’OCSE e le Nazioni Unite hanno emanato principi di AI che, pur incoraggiando la coerenza tra i membri, non impongono obblighi legali e non sono riusciti a garantire una vera uniformità normativa. ↑
I pesi, noti anche come parametri, sono valori associati alle connessioni tra i neuroni o le unità in una rete neurale. Le reti neurali sono un modello di apprendimento automatico ispirato alla struttura e alla funzione del cervello umano. Ogni connessione tra i neuroni ha un peso associato, che determina la forza e l’importanza di quella connessione. In una rete neurale, i pesi rappresentano la forza delle relazioni tra le funzionalità di input e le previsioni di output. Unitamente ai bias sono concetti fondamentali nel campo dell’intelligenza artificiale, in particolare nel campo dell’apprendimento automatico. Svolgono un ruolo importante nella formazione e nel funzionamento dei modelli di machine learning. ↑
L’Artificial Intelligence (AI) Act dell’Unione Europea, introdotto dal Parlamento europeo nel 2021, rappresenta il primo quadro normativo completo e applicabile sulla governance dell’IA. Questo atto legislativo è destinato a introdurre obblighi specifici per i fornitori di modelli di IA open source per uso generale e per i sistemi che si basano su questi modelli. L’AI Act classifica i sistemi di IA in base ai rischi che presentano e valutazione requisiti proporzionati per garantire la trasparenza, la sicurezza e l’affidabilità. In particolare, pone un’attenzione significativa sui modelli di IA generici che possono presentare rischi sistemici, sottolineando l’importanza di una vigilanza continua e di un aggiornamento delle normative in linea con i progressi tecnologici. Per approfondimenti: https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-european-union ↑
Negli Stati Uniti, l’Ordine esecutivo (EO) del presidente Joe Biden sull’IA, emesso nel 2023, avrà un impatto considerevole sugli sviluppatori open source. Questo ordine esecutivo enfatizza la necessità di controlli rigorosi sui modelli di fondazione a duplice uso, che possono essere utilizzati sia per scopi benefici che per scopi malevoli. L’EO prevede misure per garantire che lo sviluppo dell’IA avvenga in modo responsabile, promuovendo la trasparenza e la responsabilità tra gli sviluppatori e gli utenti di IA. Inoltre, incoraggia la collaborazione tra enti governativi, industria e comunità accademica per affrontare le sfide etiche e tecniche poste dall’IA generativa. Per approfondimenti: https://www.whitecase.com/insight-our-thinking/biden-executive-order-seeks-govern-promise-and-peril-ai ↑
Per approfondimenti: https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-china ↑
Per ulteriori approfondimenti si veda anche https://www.zdnet.com/article/the-best-open-source-ai-models-all-your-free-to-use-options-explained/ ↑
Ad esempio, l’AI Act dell’Unione Europea adotta una definizione basata su quella dell’OCSE, ma con alcune modifiche che lasciano ampi margini di incertezza, soprattutto in termini di applicazione pratica. In Canada è stata proposta una definizione simile ma più concisa, mentre negli Stati Uniti vari stati e agenzie hanno fornito le proprie interpretazioni, che talvolta divergono notevolmente tra loro. Al contrario, giurisdizioni come il Regno Unito, Israele, Cina e Giappone non offrono definizioni complete di AI, complicando ulteriormente il quadro normativo. La mancanza di una definizione uniforme e la possibilità che più normative possano applicarsi simultaneamente in diverse giurisdizioni potrebbero obbligare le aziende ad adottare un approccio di “massimo comune denominatore”, basato sugli standard più rigorosi applicabili, per evitare il rischio di non conformità. ↑