Nelle scorse settimane, si è molto parlato delle critiche mosse alla regolamentazione dell’Unione europea che, a detta di alcune Società tecnologiche, rallenterebbe l’innovazione limitando così la competitività del mercato dell’Unione Europea. A queste affermazioni, contenute in una lettera aperta[1] firmata da diverse Società (tra cui Meta e Spotify), si sono aggiunte le dichiarazioni di Mario Draghi nell’ambito della presentazione del Rapporto sul futuro della competitività europea[2].
Il difficile equilibrio tra tutela dei diritti fondamentali e progresso tecnologico
Questi due eventi hanno contribuito a portare l’attenzione su un tema tanto interessante quanto delicato che da sempre contraddistingue l’incontro tra tecnologia e diritto, soprattutto entro i confini dell’Unione europea; infatti, non sempre è facile trovare un equilibrio tra tutela dei diritti fondamentali e progresso tecnologico ed economico.
Un panorama così delineato, sempre più complesso, richiede di svolgere alcune riflessioni che tengano in considerazione da una parte la necessità di tutelare i diritti delle persone e, dall’altra, di creare un “ambiente normativo” che permetta alle Società tecnologiche di poter innovare e investire all’interno dell’Unione europea.
Di seguito analizzeremo le principali critiche mosse all’approccio regolamentare europeo ed esamineremo alcune possibili azioni per raggiungere un bilanciamento tra innovazione e protezione dei diritti.
Le critiche alla regolamentazione europea
Un gruppo di società, ricercatori e istituzioni ha scritto e firmato una lettera in cui sono presenti delle critiche alla legislazione europea; in particolare, è affermato che “l’Europa è diventata meno competitiva e meno innovativa rispetto ad altre regioni e ora rischia di rimanere ulteriormente indietro nell’era dell’AI a causa di decisioni regolatorie incoerenti”.
I firmatari, infatti, lamentano l’assenza di regole coerenti che può portare l’Unione europea a perdere un ruolo centrale nello sviluppo di modelli “open source” e di modelli “multimodali” (ossia modelli che utilizzano immagini, testi, video, audio), privando il mercato europeo della possibilità di avere al suo interno un progresso tecnologico al pari di altri Paesi tra cui, ad esempio, Stati Uniti, in Cina e in India. Un elemento critico individuato nella lettera riguarda poi gli interventi delle Autorità europee per la protezione dei dati che, a detta dei firmatari, hanno creato incertezza su quali tipi di dati possano essere utilizzati per addestrare i modelli di IA.
La sferzata di Mario Draghi alle normative Ue
Tuttavia, non sono solo gli attori interessati direttamente nello sviluppo tecnologico a muovere delle critiche normativa europea; infatti, nell’ambiente istituzionale è stato presentato da Mario Draghi il Rapporto sulla competitività dell’Unione europea che ha evidenziato che le barriere normative alla crescita sono particolarmente onerose nel settore tecnologico e limitano la crescita.
In particolare, è stata messa in risalto la tendenza dell’Unione europea a scrivere leggi che adottano un approccio precauzionale, imponendo pratiche commerciali specifiche ex ante per evitare potenziali rischi ex post (tra queste norme viene citato ad esempio proprio l’AI Act). Anche nel Rapporto è messa in risalto la conseguenza cui può portare una regolamentazione così intesa, ossia una posizione di svantaggio rispetto agli Stati Uniti e alla Cina.
I documenti citati mettono in risalto un punto di vista diffuso tra soggetti che hanno una forte spinta all’innovazione tecnologica e alla crescita economica ed evidenziano che la regolamentazione europea, pur partendo da presupposti condivisibili, possa risultare eccessivamente complessa e restrittiva. Ciò, in particolare secondo i firmatari della lettera sopra citata, non solo frena l’innovazione ma crea anche un ambiente di incertezza giuridica che può dissuadere gli investimenti nel settore dell’IA.
Le azioni che possono favorire l’innovazione in un contesto regolamentato
Si è avuto modo di osservare che molti protagonisti del settore tecnologico percepiscono la normativa non come uno strumento per promuovere uno sviluppo rispettoso dei diritti delle persone, ma piuttosto come un freno all’innovazione.
L’Unione europea negli ultimi anni ha puntato molto sulla creazione di regole per favorire uno sviluppo dell’IA sicuro, realizzato in un contesto che tenga conto dell’importanza dei dati e della necessità della circolazione degli stessi; pertanto, occorre capire come si possa conciliare l’esigenza espressa dai firmatari della lettera con la tutela dei diritti delle persone. Rispetto a questa esigenza, avranno un ruolo fondamentale gli interventi sia delle Autorità individuate dall’AI Act, sia delle Autorità di protezione dei dati personali, che peraltro stanno già fornendo dei chiarimenti sull’utilizzo di dati personali nell’ambito dei sistemi e modelli di IA.
Inoltre, l’AI Act, seppur sia una norma che pone diverse limitazioni e richiede numerosi adempimenti (in particolar modo per i sistemi che rientrano tra quelli ad “alto rischio”), prevede degli specifici spazi volti a favorire l’innovazione consentendo delle sperimentazioni in uno spazio sicuro. Nel considerando 139 dell’AI Act viene individuato lo scopo della partecipazione a questi spazi che “[…] dovrebbe concentrarsi su questioni che creano incertezza giuridica rendendo difficoltoso per i fornitori e i potenziali fornitori innovare, sperimentare l’IA nell’Unione e contribuire all’apprendimento normativo basato su dati concreti”. E proprio la spinta ad innovare nel rispetto della normativa ha portato diverse imprese a firmare l’AI Pact, ossia un impegno volontario delle imprese firmatarie ad applicare i principi e le norme dell’AI Act ancor prima della sua applicabilità[3]. Sempre in ottica di innovazione “sicura” si pone l’iniziativa di settembre 2024 “AI factories”[4] che mira a fornire alle start-up e all’industria uno sportello unico per innovare e sviluppare l’IA.
Pertanto, risulta evidente che, se da una parte si tende a vedere la regolamentazione come un limite all’innovazione, dall’altra si nota uno sforzo delle istituzioni europee volto a favorire la stessa innovazione in contesti che consentano allo stesso tempo di rispettare i diritti delle persone.
La cooperazione tra istituzioni e società chiave per un equilibrio tra diritti e innovazione
Ancora una volta ci si trova di fronte alla contrapposizione fra crescita economica e tutela dei diritti delle persone. Non bisogna dimenticare che non esistono solo posizioni, come quelle che sono emerse dall’analisi della lettera aperta delle società tecnologiche e dal Rapporto sulla competitività, che evidenziano una spinta a prediligere lo sviluppo economico anche a costo di “limitare” la tutela dei diritti delle persone; infatti, seppur non siano state menzionate prima in questo articolo, esistono anche delle posizioni all’estremo opposto che vorrebbero una tutela assoluta dei diritti anche laddove la stessa possa portare ad un blocco della crescita economica.
In conclusione, non esiste una risposta che metta d’accordo tutti; è importante trovare delle soluzioni pratiche che favoriscano un equilibrio tra la spinta innovativa ed economica e la tutela dei diritti. È essenziale che le autorità, che hanno un ruolo centrale nell’applicazione in concreto delle norme, collaborino con le società e gli altri stakeholder per sviluppare un quadro normativo che promuova l’innovazione senza compromettere la protezione delle persone. Solo attraverso un dialogo costruttivo e una cooperazione stretta sarà possibile creare un ambiente normativo che favorisca la crescita del settore dell’IA in Europa, garantendo al contempo la fiducia e la sicurezza.
Note
[1] Open letter “Europe needs regulatory certainty on AI” (https://euneedsai.com/)
[2] “The future of European competitiveness”, September 2024
[3] Come riportato sul sito della Commissione europea, “Gli impegni volontari del patto dell’UE per l’IA invitano le imprese partecipanti a impegnarsi per almeno tre azioni fondamentali:
- Strategia di governance dell’IA per promuovere l’adozione dell’IA nell’organizzazione e adoperarsi per la futura conformità alla legge sull’IA.
- Mappatura dei sistemi di IA ad alto rischio: Individuare i sistemi di IA che potrebbero essere classificati come ad alto rischio ai sensi della legge sull’IA
- Promuovere l’alfabetizzazione e la consapevolezza in materia di IA tra il personale, garantendo uno sviluppo etico e responsabile dell’IA.”
[4] https://ec.europa.eu/commission/presscorner/detail/en/ip_24_4621