L’AI Act – la proposta di regolamentazione dell’intelligenza artificiale elaborata dalla Commissione Europea – sta entrando nella fase finale del processo di approvazione.
L’11 maggio scorso, i comitati del mercato interno e protezione dei consumatori e delle libertà civili, giustizia e affari interni del Parlamento Europeo hanno trovato un accordo sul testo che dovrà poi essere approvato dal Parlamento stesso (probabilmente entro giugno) e quindi recepito dalla Commissione e approvato dal Consiglio Europeo. L’intero percorso potrebbe concludersi prima delle elezioni europee del 2024.
Tra i molti argomenti discussi, il problema di come trattare i Large Language Models (LLMs) o Modelli Generativi sembra particolarmente complicato. La nuova proposta di regolamentazione distingue tra i “foundation models” e i “general purpose AI systems”.
I foundation models
I “foundation models” sono definiti come sistemi di intelligenza artificiale che utilizzano una enorme quantità di dati e sono progettati per fornire risultati di tipo generale che possono essere poi adattati per eseguire specifiche attività. In questa categoria ripentirebbero modelli come GPT-4, ChatGPT, LaMDA, DALL-E, Stable Diffusion, definiti come Modelli Generativi e considerati come un sottoinsieme dei foundation models.
L’esempio più noto è ChatGPT che può essere utilizzato, per esempio, per scrivere un piano marketing, analizzare le interazioni con i clienti, sintetizzare documenti legali, produrre in modo automatico codice per lo sviluppo di applicazioni software, generare dati sintetici per il miglioramento della qualità degli algoritmi di intelligenza artificiale. Ognuna di queste applicazioni abilitate da un foundation model diventa o un sistema di IA con uno scopo specifico come, per esempio, sintetizzare una certa tipologia di documenti legali oppure un general purpose AI system quale, per esempio, un chatbot che può essere utilizzato in una pluralità di contesti, dal customer service all’internet banking.
I general purpose AI systems
I “general purpose AI systems”, invece, sono definiti come sistemi che possono essere utilizzati o adattati a un ampio numero di contesti applicativi per i quali non sono stati specificatamente progettati. È il caso di sistemi di IA che sono stati progettati per fare una solo attività di tipo generale, ad esempio il riconoscimento di testo e immagini, che può però essere applicata in diversi ambiti. Una soluzione per il riconoscimento del linguaggio che non si basa su foundation models (e quindi può eseguire solo questa attività) e che può essere utilizzata in vari contesti differenti cade in questa categoria.
Il testo approvato l’11 maggio introduce una serie di obblighi per i fornitori di foundation models, tra i quali i più controversi riguardano l’obbligo di dimostrare che appropriate attività di analisi, progettazione e testing sono state utilizzate per l’identificazione e la conseguente mitigazione di rischi relativi alla salute, sicurezza, diritti fondamentali, impatto ambientale e sistema democratico anche tramite il coinvolgimento di esperti esterni. Dovranno, inoltre, dimostrare di applicare misure appropriate di data governance al fine di evitare discriminazioni e di progettare e sviluppare i modelli con l’obiettivo di raggiungere, durante l’intero ciclo di sviluppo, adeguati livelli di prestazioni, prevedibilità, interpretabilità, correggibilità, sicurezza e cybersecurity. Tali requisiti sono controversi perché non è ancora chiaro in che modo possano essere concretamente soddisfatti. L’indicazione del testo proposto è che le European Authorities on Benchmarking e il futuro AI Office dovranno definire tecniche e standard (comunque non vincolanti) che tutti gli operatori del settore potranno seguire.
Regolamentazione vs innovazione
La questione dei foundation models riguarda, però, anche il bilanciamento tra regolamentazione e innovazione. O, in altri termini, ha a che fare con il governo dell’innovazione tecnologica.
Il problema può essere posto nei seguenti termini. È indubbio che i foundation models permetteranno (lo stanno già facendo) la nascita di un ecosistema di innovazione per lo sviluppo di una grande varietà di applicazioni che vanno dalla creazione di contenuti personalizzati per una migliore user experience alla generazione automatica di codice, dalla creazione di nuovi media digitali all’ottimizzazione della progettazione di nuovi materiali e farmaci, dalla creazione di nuove forme di entertainment all’arricchimento dell’esperienza nel metaverso. Tutto questo produrrà significativi benefici economici e sociali.
È altrettanto vero, però, che i foundation models rappresentano un tipo di innovazione tecnologica che ha il potenziale di cambiare profondamente il modo in cui viviamo.
Uno studio pubblicato a marzo 2023 da Microsoft Research permette di capire perché ci stiamo confrontando con una tecnologia completamente diversa dalle altre. Il report si domanda se ci troviamo di fronte a “barlumi di Artificial General Intelligence”, ovvero se ciò che abbiamo creato è un primo livello di intelligenza comparabile a quella umana. Le prestazioni di GPT-4 – il modello preso in esame dallo studio – sono infatti strabilianti, spesso migliori delle performance di esseri umani, nella comprensione di idee complesse, nella capacità di ragionamento e pensiero astratto, nell’abilità di risoluzioni di problemi apprendendo da esperienze e nella capacità di comprensione delle espressioni di “common sense” (un problema ben noto – e irrisolto – negli studi di intelligenza artificiale).
Gli effetti imprevedibili
Il motivo per cui i foundation models sono, probabilmente, una tecnologia contemporaneamente molto più promettente e molto più potenzialmente rischiosa di tutte quelle che l’hanno preceduta è che approssima, e in futuro probabilmente supererà, la versatilità del tipo di intelligenza che consideriamo umana. È, quindi, una tecnologia potenzialmente più rischiosa perché, somigliando all’intelligenza umana, non è deterministica e produce effetti – chiamati “proprietà emergenti” – non prevedibili in fase di progettazione.
Il punto, qui, è empirico e non filosofico: indipendentemente da come l’intelligenza viene, per così dire, prodotta – per esempio da qualcosa che “funziona” come la mente umana oppure in un modo completamente diverso – ciò che conta è il risultato. Senza aver bisogno di chiedersi se le macchine sono coscienti (quindi veramente simili o uguali agli esseri umani) l’aspetto che importa è che le loro prestazioni sono o saranno uguali o superiori alle prestazioni di esseri umani in contesti comparabili e che producono proprietà emergenti. In questo senso vanno lette anche la lettera del Future for Life Institute sulla moratoria dello sviluppo dell’intelligenza artificiale e le interviste rilasciate da Geoffrey Hinton in occasione delle sue dimissioni da Google.
I possibili rischi
Se questo è vero, è necessario tenere in considerazione anche cosa potrebbe succedere, ovvero i possibili rischi. Da qui la tensione tra innovazione, regolamentazione e governance. Rischi, innanzitutto, economici. Gli attori del nascente mercato dei foundation models sono pochi (principalmente OpenAI e Microsoft, DeepMind e Google, Amazon, Meta, NVIDIA) e le barriere all’ingresso sono considerevoli (il costo stimato per il training di ChatGPT è di12 milioni di dollari con investimento iniziale in hardware di 800 milioni di dollari e un costo giornaliero di elettricità di 50 mila dollari). Un oligopolio de facto avrà certamente un impatto sull’ecosistema dell’innovazione dell’intelligenza artificiale. In questo senso, interessanti prospettive possono venire da soluzioni open source come Stable Diffusion e su metodologie di addestramento molto meno dispendiose.
Tutti gli operatori sono poi americani, inglesi o canadesi (la Cina ha annunciato una piattaforma con prestazioni comparabili ai competitor ma, al momento, non si hanno informazioni). Questo comporta un rischio geopolitico difficilmente sottovalutabile. L’adozione pervasiva dei foundation models avrà, inoltre, un impatto sull’occupazione costringendo gli Stati membri dell’Unione Europea a riprogettare i propri sistemi di welfare. Esistono, inoltre, rischi di disinformazione e alterazione del processo democratico, di tutela della privacy, di cybersecurity, di protezione dei diritti di proprietà intellettuale, di utilizzo non regolamentato in ambito militare e, in generale, di allineamento tra gli obiettivi dei foundation models e gli obiettivi e i valori delle società umane.
Conclusioni
La regolamentazione prevista dall’AI Act potrà mitigare – ma non eliminare – alcuni di questi rischi. Il percorso, però, sarà complicato, a causa della complessità dei foundation models e, in ogni caso, parziale.
Solo un sistema di governance globale sul modello della Internet Governance – dove i foundation models sono considerati un bene comune (common good) e le regole di accesso e utilizzo sono decise da un modello di governance multi-stakeholder – riuscirà, probabilmente, a indirizzare i rischi – e di conseguenza a sfruttare compiutamente le opportunità – questi modelli. Per il momento, ben venga una regolamentazione che garantisca maggiore trasparenza, accountability e protezione dei diritti fondamentali.