Dopo che il Parlamento europeo ha adottato a metà giugno la sua posizione sulla normativa europea per l’intelligenza artificiale (IA), i negoziati a tre con il Consiglio e la Commissione sono ora in pieno svolgimento.
Per evitare di bloccare sul nascere l’ecosistema europeo dell’IA, la “legge” UE sull’IA deve essere urgentemente corretta nel trilogo istituzionale. Ma come potrebbe essere strutturata una regolamentazione praticabile dell’IA in Europa che prenda sul serio il potenziale pericolo di rischio, ma che allo stesso tempo lasci spazio allo sviluppo, all’innovazione e alla competitività? Per rispondere concettualmente a questa domanda è necessario conoscere le caratteristiche fondamentali della nuova tecnologia, perché da esse dipende la scelta di un approccio normativo adeguato.
IA, il confronto globale sulle regole
In sostanza, il dibattito sulla regolamentazione dell’IA nell’UE riguarda lo sfruttamento delle opportunità della tecnologia e la limitazione dei suoi rischi, bilanciando con sensibilità l’innovazione e la prevenzione dei rischi.
Il modo in cui sarà portato a compimento tale sforzo rappresenterà, comunque, un compromesso tra raccomandazioni d’azione contrastanti. I più critici verso tale tecnologia chiedono, infatti, regole più severe per i sistemi ad alto rischio e regole di trasparenza, mentre le aziende europee temono, in particolare, gravi svantaggi competitivi a livello globale.
Un confronto globale mostra che gli attuali piani normativi dell’Unione Europea (UE) privilegiano decisamente il punto di vista dei più critici. A parte gli Stati Uniti, che sono leader nel campo dell’IA e quindi tendono ad adottare ancora un atteggiamento di laissez-faire, sia per motivi di sicurezza che di interessi di politica industriale, il Regno Unito si è pure recentemente posizionato come un’alternativa più favorevole all’innovazione rispetto all’UE – attirando così la prima sede europea di Open AI, lo sviluppatore del bot vocale ChatGPT. Anche il Giappone, tradizionalmente avverso al rischio, prevede regole sull’IA che appaiono meno rigide e più flessibili rispetto all’attuale proposta europea.
Il timore della perdita del controllo
Rispetto ad altre tecnologie, l’IA ha due caratteristiche specifiche. Si sviluppa in modo esponenziale, come dimostrano gli immensi incrementi di prestazioni di modelli linguistici sempre più numerosi. Inoltre, essa si sviluppa in modo parzialmente autonomo grazie all’apprendimento di ordine superiore, cioè l’IA sviluppa una propria forma di intelligenza che le consente di evolversi da sola. L’accelerazione e l’autonomia dello sviluppo tecnologico causano il timore della perdita di controllo. La paura dell’IA deriva dal timore che, a un certo punto del suo sviluppo, l’IA si disaccoppi irreversibilmente e sfugga per sempre al controllo umano.
Da questo punto di vista, il compito della regolamentazione sarebbe quello di prevenire questo punto di svolta verso la singolarità già oggi attraverso la massima avversione al rischio. Ma a differenza delle distopie che convergono all’infinito verso un’inevitabile scomparsa dell’umanità, in futuro non ci sarà un modello di IA onnipresente i cui errori possano spazzare via bruscamente un’intera società.
Sulla base di queste premesse, l’UE, nel suo posizionamento eccessivamente critico, è caduta in un’analogia ovvia ma poco mirata. Facendo eco alle narrazioni distopiche di alcune élite californiane dell’IA, la potenza dell’IA in Europa viene prontamente paragonata alla minaccia di un incidente nucleare, di una pandemia o addirittura di armi chimiche. Ciò suggerisce che il pericolo esistenziale dell’IA deve essere affrontato fin dall’inizio attraverso numerose misure preventive. Ma anche se l’IA si sta sviluppando in modo esponenziale e in parte autonomo, questa analogia è ingannevole. Comprenderemo i rischi dell’IA solo con il suo sviluppo e solo nella sua applicazione potremo imparare a gestirli. Lo sviluppo e l’applicazione dell’IA non possono quindi essere separati. Ma questo è esattamente ciò che la Commissione sta propagandando, in quanto la regolamentazione dell’applicazione dovrebbe predeterminare il percorso di sviluppo.
I rischi dell’allarmismo tecnologico
L’allarmismo tecnologico, tuttavia, non fa altro che alimentare la paura dell’IA e distoglie l’attenzione dal modo in cui può essere sviluppata in modo solido e vantaggioso per il benessere generale. Al contrario, anche le Big Tech di oggi sospettano che, nonostante una base tecnologica comune, emergerà gradualmente un ecosistema decentralizzato, spesso open-source, di modelli che potranno a loro volta essere perfezionati e persino personalizzati per diversi ambiti applicativi.
Figura: Un approccio normativo all’IA basato sul rischio e orientato anche allo sfruttamento del suo potenziale
Perché l’automobile rappresenta un’analogia per l’IA migliore dell’energia nucleare
Come l’IA, l’automobile è uno strumento così potente perché permette all’uomo di fare di più con meno: meno tempo per raggiungere una destinazione lontana, meno costi e meno sforzi per scoprire qualcosa di nuovo. Ma proprio queste capacità rendono entrambe le tecnologie un’arma pericolosa nelle mani sbagliate. In particolare, il pericolo non deriva dalla tecnologia in sé – che è piuttosto neutra dal punto di vista applicativo – ma dalla sua gestione da parte dell’utente. L’auto può essere guidata per andare al supermercato o in mezzo a una folla di persone. Non è realistico credere che tutti i problemi dell’IA possano essere risolti in un colpo solo, così come il problema della sicurezza delle automobili non è stato risolto da un giorno all’altro. Come ha recentemente sottolineato Yann LeCun, esperto di IA di Meta, lo sviluppo di un’IA solida è sempre un processo di miglioramento continuo ed iterativo.
Se si guarda al recente trionfo dell’IA dal punto di vista della storia dell’automobile, piuttosto che attraverso la lente di una minaccia nucleare esistenziale, le priorità normative divengono diverse.
A differenza dell’energia nucleare, l’automobile è più semplice e accessibile, comporta relativamente meno rischi e offre maggiori opportunità di interazione e controllo. Così come le automobili sono utilizzate nella nostra vita quotidiana, l’IA è sempre più integrata nella nostra vita quotidiana. Ma a differenza degli incidenti potenzialmente catastrofici delle centrali nucleari, i rischi associati all’IA, come alle automobili, sono generalmente minori e possono essere evitati più facilmente e rapidamente grazie alla ricerca e alla fissazione di standard. Proprio come gli utenti delle automobili possono accelerare, frenare e cambiare direzione, noi possiamo progettare, addestrare e regolare i sistemi di IA per soddisfare esigenze specifiche. Questo lascia spazio alla sperimentazione competitiva e al miglioramento incrementale all’interno di alcune condizioni quadro. La condizione fondamentale è che le persone abbiano la possibilità di scegliere, perché questo include la decisione illuminata di un’IA sicura e umana. Capacità di giudizio e la concorrenza sono quindi condizioni essenziali perché la regolamentazione abbia effetto.
L’analogia con l’automobile suggerisce che una buona regolamentazione dell’IA richiede soprattutto tre cose:
- standard di sicurezza di base prima dell’introduzione di un modello,
- regole di circolazione uniformi
- conducenti addestrati in grado di utilizzare la nuova tecnologia per le attività quotidiane o per esplorare anche contesti completamente nuovi, senza mettere eccessivamente in pericolo gli altri conducenti.
Proprio come le norme sul traffico stradale potrebbero controllare un sistema dinamico e in evoluzione per un lungo periodo di tempo senza limitarlo troppo, una simile regolamentazione dell’IA potrebbe rimanere guidata dall’innovazione e in qualche misura aperta alla tecnologia. Questa regolamentazione sequenziale tiene meglio conto del percorso evolutivo del ciclo di vita dell’IA rispetto ad un modello statico.
Quali dovrebbero essere le regole specifiche per la “circolazione”?
Per poter partecipare alla circolazione stradale, l’auto deve prima essere immatricolata e soddisfare determinati requisiti di sicurezza. Anche a fronte delle spesso descritte lacune di sicurezza della moderna IA – che vanno dalle possibili distorsioni nei dati sulla base dei quali avviene l’addestramento alla mancanza di trasparenza sul suo funzionamento – ha quindi senso prescrivere una certa protezione di base. Molti degli obblighi stabiliti nella legge europea sull’IA sono un passo nella giusta direzione, ma un’adeguata condivisione degli oneri dovrà essere considerata fondamentale. I requisiti rigorosi stabiliti per i sistemi ad alto rischio non dovrebbero così avere un ruolo per la ricerca né per le PMI, i cui modelli difficilmente entreranno nel mercato di massa. Anche la valutazione d’impatto sui diritti fondamentali, prevista dal Parlamento europeo, dovrebbe essere applicata solo nei confronti degli sviluppatori.
La sicurezza dell’IA
La sicurezza dell’auto è garantita dal produttore, non dal conducente. Di conseguenza, i negoziatori del trilogo dovrebbero assegnare la maggior parte della responsabilità agli sviluppatori di sistemi di intelligenza artificiale di tipo più generico, in quanto dispongono delle risorse e delle conoscenze necessarie per rispettare i regolamenti. Gli aspetti che non sono direttamente rilevanti per la sicurezza di base, come gli aspetti ambientali dei nei contesti più sperimentali dell’IA, invece, dovrebbero essere lasciati fuori da tale quadro.
Una volta approvati sul mercato europeo, i modelli dovrebbero – seguendo l’analogia – essere in grado di circolare facilmente e senza restrizioni. È necessario evitare a tutti i costi un’attuazione divergente a livello nazionale della legge sull’IA, perché sono necessarie regole di circolazione uniformi, ossia definizioni e standard generalmente comprensibili e chiaramente operativi.
A tal fine, devono essere coinvolti esperti del settore, come nel caso delle automobili e dei collegati standard UNI. Mentre alcune autorità di protezione dei dati dell’UE hanno già assunto poteri di monitoraggio degli algoritmi, l’analogia con le automobili suggerisce che è necessario un Ufficio europeo per l’IA per far rispettare le norme sull’IA, evitare la frammentazione e coordinare i collegamenti con il regolamento generale sulla protezione dei dati, la legge sui dati e la legge sui mercati digitali.
Infine, sono necessari i conducenti stessi, un aspetto che finora è stato piuttosto trascurato nel dibattito. Così come è necessario superare un corso per la patente di guida per poter guidare un’auto, nell’era dell’IA è necessaria una maturità digitale e un'”alfabetizzazione all’IA” di tutta la società per gestire adeguatamente le potenzialità e i rischi della nuova tecnologia. In questo modo si riduce il rischio che le Deep Fakes si diffondano più facilmente o che l’IA venga utilizzata in contesti sbagliati che richiedono una maggiore interazione umana o che sono particolarmente sensibili agli errori. In Finlandia, un esempio di successo di tale strategia educativa è rappresentato ad esempio dal corso online gratuito “The Elements of AI”, che è già stato completato da oltre 140.000 persone. Come primo passo, si dovrebbe poi rendere obbligatoria, senza indugio, anche una patente di guida in particolare per l’uso da parte delle amministrazioni dell’IA, poiché le decisioni dei funzionari che se ne serviranno sono di particolare portata e rilevanza sociale.
La strada da percorrere
C’è ancora molta strada da fare prima che l’IA venga introdotta su larga scala nel contesto economico e sociale europeo: per far sì che ciò accada, abbiamo bisogno non solo di una regolamentazione dinamica della “circolazione”, ma soprattutto di utenti della strada con una maturità digitale ed un interesse ad esplorare nuovi percorsi.
Le proprietà tecnologiche dell’IA predeterminano l’approccio normativo, non il contrario. Chi non sviluppa l’IA non ne capirà l’applicazione. Dobbiamo quindi imparare da essa ed insieme ad essa. Adattare in sequenza lo spazio di sviluppo in avanti, proteggendo al contempo i valori fondamentali alla fine del percorso, questa è la grande sfida. Data l’alta velocità evolutiva e l’enorme potenziale dell’IA, non c’è alternativa allo sviluppo della tecnologia in una modalità di “sicurezza frammentata”. L’Europa sostiene giustamente di aver lanciato il primo approccio olistico alla regolamentazione dell’IA. Sarebbe quindi amaramente ironico se l’Europa rinunciasse ad un’influenza di primo piano sullo sviluppo e sull’applicazione dell’IA stessa. Se si vogliono difendere i propri valori nell’era dell’IA, bisogna rivendicare il ruolo di leader nel loro sviluppo. L’Europa sta però anche mettendo a rischio questa pretesa proprio ora.
(La versione originale in lingua tedesca dell’articolo è pubblicata su www,commongroundeurope.eu )