L’AI Act (artificial intelligence act) si avvicina a dettare legge in Europa.
La crescita esponenziale del numero di interazioni con tecnologie facenti uso di intelligenza artificiale (IA) che in modo sempre più pervasivo influenzano, su diversi livelli e fronti, la vita quotidiana ha acceso un campanello d’allarme per i legislatori di tutto il mondo per far sì che le prismatiche applicazioni di questa tecnologia avanguardista non mettano a repentaglio i diritti fondamentali.
L’IA non è un’entità monolitica. L’approccio algoritmico di base è il machine learning, una tecnica che utilizza (grandi masse di) dati e software per emulare i modi di apprendimento umano. Il sistema “impara” a compiere una certa operazione, o un certo insieme di operazioni, mediante regole inferite su migliaia – se non milioni o addirittura miliardi – di esempi. L’estrazione di dati (o più solitamente di Big Data) permette agli algoritmi di autoapprendimento di svolgere molteplici funzioni, dalla diagnostica della salute alla mitigazione del cambiamento climatico, passando per l’efficientamento dei sistemi di produzione tramite manutenzioni predittive, alla produzione di nuovi lavori tipicamente riservati all’intelletto umano, come gli scritti (v. da ultimo ChatGPT), le composizioni musicali, i dipinti e altre forme d’arte.
È facilmente intuibile la preoccupazione che alcune attività svolte dall’IA possano produrre effetti collaterali in termini di danni ai consumatori e alla collettività in generale. Di qui l’urgenza per i policymakers di non restare inerti.
L’AI Act europeo
Dopo svariate comunicazioni a partire dal 2018 e il Libro bianco del 2020 tesi a ritagliare un ruolo pro-attivo per l’Europa, basato sul binomio regole-investimenti, nell’aprile del 2021 è arrivata all’interno del c.d. AI package la proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (AI Act, d’ora in poi “AIA”), accompagnata dalla Comunicazione “Promuovere un approccio europeo all’intelligenza artificiale” nonché da una revisione del “Piano coordinato sull’intelligenza artificiale”.
L’AIA è di fatto la prima legge al mondo che tenta di regolamentare l’IA in maniera strutturale e completa. Essa ambisce a confermare la leadership europea – perlomeno – a livello normativo (posto che sul fronte tecnologico l’UE sconta un ritardo grave nei confronti di USA e Cina) predisponendo un sistema di pesi e contrappesi che stimoli l’innovazione senza al contempo mettere a rischio i diritti fondamentali.
Dopo che il Consiglio UE, nel quale sono rappresentati i governi degli Stati membri, ha raggiunto una posizione comune già alla fine del 2022, il Parlamento europeo ha fatto altrettanto con il voto in plenaria del 14 giugno ad amplissima maggioranza (499 voti a favore, 28 contrari e 93 astensioni). Ha così inizio la fase negoziali con i triloghi tra le tre principali istituzioni comunitarie che dovranno conciliare i rispettivi testi che dovranno poi essere ratificati perché la proposta diventi legge. Con la speranza di chiudere questo complesso processo entro la fine dell’anno, sotto la presidenza spagnola (e prima che si entri all’inizio del 2024 nel semestre che porterà al rinnovo del Parlamento europeo e a cascata dei vertici della Commissione e del Consiglio, con tutte le incertezze del caso).
Nel frattempo, anche in base al lungo e vivace dibattito parlamentare, si può supporre (in prospettiva dei triloghi), che la discussione riguarderà soprattutto quattro temi: la definizione di AI, che fornirà il perimetro giuridico delle attività che saranno soggette a regolamentazione, l’elenco delle attività vietate e di quelle ad alto rischio, con gli obblighi che la tassonomia comporta, la regolamentazione della c.d. “IA generativa”, quella alla base di ChatGPT per intenderci, e le eventuali flessibilità previste (v. le c.d. “regulatory sandbox”).
AI ACT: le definizioni chiave e alcune ambiguità da sciogliere
Il primo aspetto rilevante è senza dubbio quello definitorio. L’art. 3 della proposta di AIA formulata dalla Commissione contiene 44 definizioni al fine di prevenire diverse interpretazioni tra gli Stati membri, foriere di possibile frammentazione del mercato interno, quantomeno in fase di enforcement. La prima è dedicata giustappunto ai sistemi di intelligenza artificiale, definendoli come “software sviluppat[o]i con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”. Questa nozione, presa in prestito da quella che fornisce il National Institute of Standards and Technology, l’agenzia governativa USA preposta alla gestione tecnica delle tecnologie, sembra molto più persuasiva rispetto alle alternative in quanto pone l’enfasi sia sui risultati prodotti dall’IA che sull’origine umana degli obiettivi che influenzano quei risultati, elementi essenziali ai fini dell’allocazione delle responsabilità.
Tuttavia, alcune altre nozioni sembrano meno chiare. Ad esempio, l’art. 3, n. 2), qualifica come fornitore “una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che sviluppa un sistema di IA o che fa sviluppare un sistema di IA al fine di immetterlo sul mercato o metterlo in servizio con il proprio nome o marchio, a titolo oneroso o gratuito”. Non è sempre agevole essere a conoscenza di quando vi sia un’effettiva intenzione di immettere sul mercato un sistema di IA. Peraltro, far derivare conseguenze legali da mere intenzioni, che potrebbero arrestarsi a desideri mai realizzati, rischia di produrre effetti arbitrari, al netto di un onere probatorio sostanzialmente diabolico. Si aggiunga altresì che i ricercatori non sono spesso in grado di prevedere quali saranno i potenziali applicativi dei loro risultati e, conseguentemente, quali servizi verranno poi offerti al mercato. Sarebbe quindi preferibile adottare un approccio pragmatico che qualifichi come fornitori soltanto quei soggetti che effettivamente immettono sul mercato un servizio di IA.
Inoltre, l’art. 5, nel delineare le attività vietate, proibisce al par. 1, lett. a), “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico”. Tuttavia, nel mercato si registrano molteplici condotte che, in modo più o meno subdolo, influenzano il comportamento del consumatore, dai dark pattern per l’accettazione di condizioni privacy meno favorevoli al semplice product placement nei film o in altre opere audiovisive. In proposito, il Considerando n. 16 della proposta prevede che “È opportuno vietare l’immissione sul mercato, la messa in servizio o l’uso di determinati sistemi di IA intesi a distorcere il comportamento umano e che possono provocare danni fisici o psicologici. Tali sistemi di IA impiegano componenti subliminali che i singoli individui non sono in grado di percepire, oppure sfruttano le vulnerabilità di bambini e persone, dovute all’età o a incapacità fisiche o mentali. Si tratta di azioni compiute con l’intento di distorcere materialmente il comportamento di una persona, in un modo che provoca o può provocare un danno a tale persona o a un’altra”. Sarebbero opportuni ulteriori chiarimenti per distinguere le attività illecite da quelle consentite tenuto conto che la linea tra semplice persuasione o dolus bonus (legale) e aggressiva intrusione (illegale) può agevolmente risultare sfumata.
L’elenco (variabile) delle applicazioni vietate e ad alto rischio e il ruolo delle sandbox
L’AIA si caratterizza per una suddivisione delle applicazioni algoritmiche facenti uso dell’IA basata sul loro livello di rischio rispetto ai diritti fondamentali. Nella tassonomia figurano tre cluster: (i) le attività vietate, (ii) le attività ad alto rischio e (iii) le attività a basso rischio. Ad ogni categoria corrispondono delle specifiche regole.
Le attività proibite dall’AI Act
In primo luogo, l’art. 5 contempla le attività proibite (come il social scoring), individuate nelle pratiche che determinano:
- “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico;
- l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutta le vulnerabilità di uno specifico gruppo di persone, dovute all’età o alla disabilità fisica o mentale, al fine di distorcere materialmente il comportamento di una persona che appartiene a tale gruppo in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico;
- l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA da parte delle autorità pubbliche o per loro conto ai fini della valutazione o della classificazione dell’affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi i seguenti scenari”;
- l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto.
Si registra un intenso dibattito sull’opportunità di inserire l’ultima categoria tra le attività proibite. Alcuni soggetti preferirebbero un divieto puro e semplice fondato sull’elevato livello di intrusività dei sistemi di identificazione biometrica remota in tempo reale laddove alcuni governi manifestano l’interesse a impiegare tali sistemi per ragioni di sicurezza. In ogni caso, il ban non riguarda i sistemi di riconoscimento biometrico cd. “uno a uno” al fine di verificare l’identità dell’utente per l’accesso a specifici servizi (ad esempio, accedere all’abitazione o al luogo di lavoro o semplicemente sbloccare lo smartphone).
I sistemi di IA ad alto rischio nell’AI ACT
In secondo luogo, l’art. 6 qualifica i sistemi di IA ad alto rischio allorquando siano soddisfatte in via cumulativa due condizioni:
- “il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell’Unione elencata nell’allegato II;
- il prodotto, il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto è soggetto a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell’Unione elencata nell’allegato II”.
Le attività ad alto rischio sono elencate all’allegato III (tra cui rientra, ad esempio, la scansione di cv per dare un punteggio ai candidati per un posto di lavoro), il quale costituisce parte integrante della normativa. Sull’estensione di tale elenco e sulla sua emendabilità si gioca una delle partite più importanti. Il Parlamento vorrebbe ampliarlo di molto rispetto a quello inizialmente proposto dalla Commissione, affidando a quest’ultima il potere di aggiornarlo.
In effetti, le attività contenute nell’allegato III sono consentite a condizione che si rispettino stringenti obbligazioni, in termini di sistema di gestione dei rischi (art. 9), governance dei dati (art. 10), documentazione tecnica (art. 11), conservazione delle registrazioni (art. 12), trasparenza e forniture di informazioni agli utenti (art. 13), sorveglianza umana (art. 14), accuratezza robustezza e cibersicurezza (art. 15). È evidente che tutto questo comporti dei costi molto significativi, che al momento attuale non sono graduati in relazione alla grandezza dell’operatore. Se però è facile presumere che le grandi multinazionali godano delle risorse tecniche e finanziarie per sostenere gli elevati costi di compliance è altrettanto agevole credere che tali obblighi siano meno sostenibili per le piccole e medie imprese, specie le start-up, creando così significative barriere all’ingresso nel mercato dell’IA.
Infine, l’art. 52 prevede obblighi di trasparenza per le attività a basso rischio al fine di rendere edotte le persone fisiche che stanno interagendo con un sistema di IA.
Il dilemma posto da ChatGPT e i suoi simili
Un ulteriore nodo da sciogliere nella regolazione dell’IA riguarda il trattamento della cd. “general-purpose AI”. Inizialmente trascurata nella proposta della Commissione europea, che aveva a riferimento soprattutto applicazioni specifiche in settori ben definiti, ritorna improvvisamente alla ribalta grazie al successo travolgente (ma anche alle evidenti imperfezioni) di ChatGPT. I sistemi basati sulla IA generativa possono infatti avere miriadi di applicazioni a cui corrispondono altrettanti benefici e rischi. Vista l’enorme diffusione in pochi mesi del chatbot sviluppato da OpenAI, che ne è peraltro solo uno dei tanti esempi possibili, è senz’altro utile prevedere quantomeno un set minimo di regole, che peraltro tuteli anche il copyright delle opere creative di cui fa incetta il chatbot. Ma attenzione a farsi prendere la mano. La classificazione della general-purpose AI nell’ambito delle attività ad alto rischio potrebbe disincentivare lo sviluppo di questa promettente tecnologia a causa degli onerosi costi di certificazione e delle rigide obbligazioni enucleate agli artt. 9-15 della proposta, quand’anche non impiegata materialmente per pratiche ad alto rischio.
L’intervento non è particolarmente semplice anche perché modelli di IA generativa, come ChatGPT, possono essere utilizzati tramite le API (Application Programming Interface) da altri soggetti per sviluppare ulteriori applicazioni (è ad esempio il caso del motore di ricerca Bing che ha incorporato le funzionalità di ChatGPT). Per inciso, sono questi ultimi i casi più concreti di interazioni dirette con la vasta platea dei consumatori ed utenti, con tutti i rischi che ciò potrebbe comportare. In tali circostanze, come dovrebbe funzionare l’impianto regolatorio e a quale soggetto sarebbe attribuibile un eventuale malfunzionamento o un uso dell’IA improprio o dannoso da parte di un consumatore? L’esatta allocazione delle responsabilità tra sviluppatori e venditori di sistemi di IA rappresenta un tema intricato che impegnerà significativamente le parti politiche durante il trilogo.
Le principali novità introdotte dagli emendamenti al testo votati dal Parlamento
Il Parlamento ha innanzitutto esteso le attività proibite, prevedendo un bando assoluto per il riconoscimento biometrico in real time ed eccezioni estremamente stringenti per quello ex post (in pratica, solo per gravi ragioni di pubblica sicurezza e dietro autorizzazione dell’autorità giudiziaria). Ma vengono vietati anche il cosiddetto “scraping” (ovvero la raccolta indiscriminata) di immagini su Internet o via circuito chiuso per creare database di riconoscimento facciale, sistemi di riconoscimento delle emozioni nelle attività di polizia, controlli di frontiera, luoghi di lavoro e istituzioni educative, sistemi di classificazione biometrica basati su caratteristiche sensibili (es. razza, genere, religione, ecc.) e sistemi predittivi per le indagini delle forze dell’ordine.
Rispetto alla macro-distinzione tra attività ad alto e a basso rischio, il testo approvato dal Parlamento non modifica la metodologia proposta dalla Commissione ma ne rende più flessibile l’adozione, riducendone l’automatismo in maniera perfettamente simmetrica. Da un lato potranno essere considerate ad alto rischio tutte quelle componenti AI che, pur non essendo ricomprese nell’apposito elenco previsto, potrebbero produrre un danno alla salute, alla sicurezza e ai diritti fondamentali delle persone o, qualora applicate a infrastrutture critiche, all’ambiente. Ma allo stesso tempo, per le applicazioni ricomprese nell’elenco delle applicazioni ad alto rischio, i soggetti produttori potranno notificare l’assenza di possibili danni rilevanti nelle stesse fattispecie alle autorità competenti. Queste ultime avranno 3 mesi per autorizzare o meno l’immissione in commercio senza valutazione d conformità, prevista per le applicazioni ad alto rischio. E alle imprese rimane comunque la possibilità, in caso di diniego, di fare ricorso.
All’elenco delle attività preliminarmente considerate ad alto rischio, sono aggiunti anche i sistemi di raccomandazione delle piattaforme social con un maggior numero di utenti (oltre i 45 milioni, coerentemente con la definizione di very large platform contenuta nel DSA).
Per l’AI generativa, che include ChatGPT e tanti altri prodotti usciti negli ultimi tempi, si è faticosamente raggiunto un punto di compromesso. Si è evitato di considerarla tout court ad alto rischio ma si sono previsti diversi paletti, da obblighi di maggiore trasparenza al rigoroso rispetto della normativa europea sul copyright. Inoltre, i fornitori di modelli fondazionali devono comunque valutare e mitigare possibili rischi e registrare i loro modelli in un apposito registro europeo.
Non sono invece previste eccezioni di carattere generale per le piccole e medie imprese che pure molti invocavano.
Nel testo approvato dal Parlamento si è però aggiunto un richiamo alle autorità nazionali a riservare “particolare attenzione a mitigare gli oneri amministrativi e i costi di compliance per le micro e piccole imprese” e sono previste forme di tutela contrattuale ad hoc per riequilibrare i rapporti con le Big Tech.
Al fine di ridurre proprio gli impatti sugli sviluppatori, in particolare le start-up, il Parlamento prevede l’obbligo (e non più la facoltà prevista inizialmente nel testo della Commissione) per ciascuno Stato Membro di istituire entro la data di entrata in vigore del regolamento almeno una regulatory sandbox, cioè un ambiente controllato (di qui per l’appunto il termine che in italiano potrebbe tradursi come sabbiera o recinto di sabbia) in cui l’IA può essere testata esonerando i fornitori dagli obblighi previsti per applicazioni più estese. Si prevede inoltre che le sandbox possano essere transnazionali (stabilite di concerto tra due o più Stati membri), un passaggio fondamentale per preparare lo scaling-up successivo dei sistemi di IA, una volta che le sperimentazioni diano esiti positivi sia dal punto di vista dei benefici che della sicurezza.
Conclusioni
L’AIA è senza dubbio una regolazione innovativa che avrà un ruolo cruciale nell’agevolare la transizione digitale europea. Il suo effetto non sarà circoscritto ai singoli Stati Membri, considerato il suo ambito di applicazione esteso anche ai fornitori di IA al di fuori dell’Europa. La proposta si pone quindi nell’ottica di consolidare la leadership europea a livello normativo e di esportare i valori europei. È infatti (anche) sul terreno dell’innovazione – e della sua regolazione – che si gioca la competizione globale.
Tra le critiche a cui si espone l’AIA vi è quella di limitarsi a prevedere una cornice amministrativa entro la quale viene legalizzata la commercializzazione di servizi basati sull’IA senza istituire alcun diritto individuale per ottenere una tutela accelerata contro eventuali malfunzionamenti dannosi. Inoltre, alcune definizioni meriterebbero maggiori chiarimenti e rifiniture, come quella di “fornitore” oppure quella di “pratica subliminale”. Si potrebbero anche modellare gli obblighi stabiliti per le pratiche ad alto rischio in relazione alla taglia dell’operatore, onde evitare la formazione o l’innalzamento di barriere all’ingresso che pregiudichino le startup e le PMI innovative.
Se tutto andrà come ci si attende al momento, si dovrebbe giungere ad un testo definitivo entro fine anno che dovrebbe entrare in vigore dopo due anni dalla sua emanazione (anche se sulla lunghezza del periodo di attuazione ci sono alcune divergenze tra le istituzioni comunitarie, con alcuni che vorrebbero dare più tempo alle imprese ma anche alla complessa governance che in gran parte ricadrà sugli Stati membri). Se, da un lato, questo frangente temporale offrirà la possibilità ai regolatori – e soprattutto agli enforcers – di maturare le necessarie competenze digitali, nonché alle imprese di mettere a punto le procedure di compliance, dall’altro, l’auspicio principale che ci sentiamo di fare è che a distanza di alcuni anni da adesso il regolamento non nasca già obsoleto, superato da una tecnologia in costante evoluzione.