Adesso che il cosiddetto “AI Act”, testo normativo fulcro del dibattito politico europeo sull’intelligenza artificiale (IA), ha quasi ultimato anche i passaggi formali finali per la sua approvazione da parte delle istituzioni UE, appare lecito chiedersi quanto questo testo possa concretamente bastare, non solo per cogliere le immense opportunità economiche legate all’IA, ma anche per affrontare adeguatamente i significativi rischi geopolitici, democratici e di sicurezza che stanno già per emergere.
L’importanza della concorrenza nel settore dell’IA
Qualsiasi pura regolamentazione rappresenta pur sempre una forma di rimedio a un problema e al di là della necessità, ora, di una sua rapida ed efficace attuazione avrebbe bisogno anche di un contesto adeguato sul quale operare. Una maggiore concorrenza e responsabilità più chiare sono quelle più in grado di ottimizzare il compromesso tra la limitazione dei rischi e lo sfruttamento delle opportunità, in linea con determinati obiettivi.
In un recente contributo di analisi e proposta (cepInput) il Centres for European Policy Network (CEP) si pone proprio questo quesito, su quanto le caratteristiche proprie e l’attuale struttura competitiva intorno all’IA siano in grado di rispondere al dualismo rischi-opportunità, che l’IA inevitabilmente pone all’economia e alla società nel suo complesso.
L’attuale struttura del mercato dell’intelligenza artificiale (IA)
Attualmente il settore dell’IA tende alla concentrazione e ai mercati “winner-takes-all“, in grado di distorcere anche le priorità imprenditoriali in termini di preferenze sul lato della domanda e favorire quindi pure comportamenti controproducenti o inutili con potenziali riflessi importanti anche sulla sicurezza.
Il mercato dell’intelligenza artificiale (IA) è infatti nelle mani di pochi fornitori. In un oligopolio, la velocità ha spesso la precedenza sull’accuratezza Questa struttura competitiva piramidale deve essere presa in maggiore considerazione nel dibattito sui modelli di IA aperti rispetto a quelli chiusi, nonché nella valutazione dei rischi di livello “esistenziale” posti dall’IA.
La corsa globale per la leadership nell’IA
L’osservazione di partenza del contributo CEP è che ci troviamo nel mezzo di una vera e propria corsa globale per la leadership nell’IA, l’aspetto dei potenziali vantaggi economici, simboleggiato già solo dal fatto che nel 2023 nell’IA siano stati investiti più di 100 miliardi di dollari, non basta da sola per spiegare tali sforzi e mostra che la rilevanza geopolitica e democratica della tecnologia è altrettanto cruciale per la questione del verso e per quale scopo essa venga sviluppata, in quanto tecnologia in grado di cambiare fondamentalmente la creazione e la distribuzione delle informazioni.
IA, la necessità di una regolamentazione flessibile e aperta al futuro
L’analisi del CEP sottolinea poi che la natura stessa dell’IA, caratterizzata da crescita esponenziale, capacità di autoapprendimento e alta variabilità, richiede una forma di regolamentazione flessibile ed aperta al futuro. In questo quadro appare, ad esempio, cruciale la scelta tra approcci normativi ex-ante ed ex-post ed i rispettivi vantaggi e svantaggi connessi a tali scelte.
Tra l’approccio ex-ante, la concessione di licenze rappresenta una opzione per la limitazione dei rischi, ma d’altra parte inibirebbe la concorrenza e l’innovazione. Il CEP propende quindi per la promozione di approcci open source, che potrebbero minimizzare i rischi e promuovere l’innovazione allo stesso tempo, però, in particolare, in un mercato orientato pienamente alla competizione. Esistono quindi evidenti interazioni e interdipendenze tra questi tre elementi – la natura dell’IA, i principi normativi e le strutture di mercato – che devono essere presi in considerazione per minimizzare efficacemente i rischi dell’IA.
In tale quadro generale, il livello vigente di concorrenza rappresenta quindi un importante fattore complementare alla regolamentazione, non solo per ragioni di efficienza allocativa e per evitare elevati profitti monopolistici, ma anche per proteggere i diritti fondamentali dei consumatori/utenti.
I limiti degli attuali approcci di teoria economica applicati all’IA
Malgrado i diversi approcci esistenti in teoria economica, ad esempio sul ruolo dei monopoli temporanei, nei riguardi della struttura di mercato si potrebbe affermare che né un monopolio puro né una concorrenza completa offrano le condizioni ideali per l’innovazione, ma appare necessario valutare quanto tali tradizionali considerazioni teoriche valgano nel contesto dell’attuale mercato dei modelli di IA generativa. In questo mercato esistono indubbiamente elevati costi fissi per l’addestramento dei modelli di base e bassi costi marginali di implementazione che portano a significative economie di scala, come anche economie di scopo e vantaggi da“first mover”, insieme a barriere come la scarsità di talenti, dati, potenza di calcolo e proprietà intellettuale, che aumentano ulteriormente i vantaggi della concentrazione. Questo ha recentemente portato a diverse partnership strategiche tra startup promettenti e big tech (Microsoft/OpenAI; Hugging Face/Amazon; Cohere/Google e Nvidia; Stability AI/Amazon; e Inflection AI/Microsoft e Nvidia) che stanno gradualmente minando la concorrenza.
L’impatto dell’oligopolio nel settore dell’IA
Il testo del CEP sottolinea che ci si trova quindi oggi di fronte ad una situazione di oligopolio dove l’azione imprenditoriale si concentra quindi meno sulle applicazioni e sui consumatori e più sulla conquista e sulla difesa di un mercato in cui si “vince tutto”.
Questo può facilmente portare a una cosiddetta corsa al ribasso (race to the bottom), ossia una competizione in cui si utilizzano più risorse di quelle che si possono probabilmente raccogliere e si verificano effetti esterni negativi, ad esempio per quanto riguarda la protezione della società civile o dell’ambiente. Spirale negativa che rischia poi di essere ulteriormente alimentata dalla pressione dei mercati azionari moderni, come già successo in diversi casi citati dallo studio.
L’importanza di favorire modelli di base aperti
In un contesto di mercato così oligopolistico, ben analizzabile anche da modelli di “teoria dei giochi”, è opportuno che i responsabili politici dell’UE attuino al più presto la legge sull’IA, ma favoriscano anche i modelli di base aperti, ossia quelli con caratteristiche più ampiamente fruibili e dati di addestramento noti rispetto ai modelli chiusi e proprietari nel quadro dei dibattiti normativi internazionali, in quanto essi contrastano la concentrazione di mercato prevalente, promuovono l’innovazione e migliorano la trasparenza. Una struttura di mercato più contendibile e con standard internazionali open source, consentirebbe all’Europa di rimanere economicamente competitiva e geopoliticamente sovrana in un mondo iper-fragile.
La competizione tra diversi Paesi per l’IA più avanzata possibile
Dal punto di vista della teoria dei giochi, tuttavia, la situazione descritta è complicata da un secondo “gioco”: oltre alla corsa alle innovazioni dell’IA, che dovrebbe mirare a ridurre al minimo i rischi per la sicurezza, nell’attuale clima geopolitico teso c’è anche una competizione tra diversi Paesi per l’IA più avanzata possibile (frontier models), che si manifesta anche in un finanziamento ed una difesa delle rispettive start up nazionali. In un simile contesto, risulta improbabile che molte nazioni vogliano limitare con delle regolamentazioni i propri giganti tecnologici per ragioni di politica della concorrenza, tendenza emersa chiaramente persino internamente alla stessa UE, specie nelle ultime fasi del Trilogo sullo “European AI Act”.
In questo caso, appare però fondamentale distinguere tra le aree geografiche che posseggono dei veri “campioni globali” (ad esempio USA e Cina) e coloro che invece si trovano in situazioni diverse. Per gli attori che, come l’UE, non dispongono di sviluppatori/fornitori di tale livello, invece, vale la pena regolamentare in modo rigoroso i fornitori esterni, investire in centri dati ad alte prestazioni, spingere per standard open source e relativi accordi internazionali, utilizzando sapientemente il cosiddetto “effetto Bruxelles” e quindi confidando nel fatto che esso finisca per influenzare anche indirettamente i mercati globali attraverso la regolamentazione degli standard qualitativi di prodotto nel grande e prospero mercato unico.
Struttura di mercato più contendibile e standard internazionali open source: la ricetta per un’IA forte e sicura
Le conclusioni dell’analisi CEP evidenziano che un’IA forte e allo stesso tempo sicura, può quindi essere promossa meglio da una struttura di mercato più contendibile e dotata di standard internazionali open source. Tale scelta consentirebbe, inoltre, all’Europa di rimanere economicamente competitiva e geopoliticamente sovrana.
La sfida dell’era dell’IA per la politica e la società risulta però molto più grande della sola determinazione di una regolamentazione adeguata, come la legge europea sull’IA. Si tratta di un nuovo illuminismo prima dell’era dell’IA, proprio come l’illuminismo europeo ha preceduto l’era industriale. Anche in questo caso, proprio l’Europa possiede tutte le basi ideologiche per creare le condizioni di libertà, pace e prosperità per l’era dell’IA, motivo per cui è necessario un progetto europeo sull’IA che segua la tradizione del grande Illuminismo europeo di Kant, Hume e Rousseau e che tenga conto delle competenze digitali della popolazione in qualsiasi risposta politica alle opportunità ed ai rischi emergenti dell’IA.