Le Commissioni Mercato Interno e Protezione dei Consumatori e Giustizia del Parlamento Europeo, hanno licenziato lo scorso 11 maggio il testo finale relativo all’armonizzazione delle regole comuni sull’intelligenza artificiale (“Artificial Intelligence Act”); il testo dovrà poi seguire gli ulteriori passaggi istituzionali per la definitiva entrata in vigore, tuttavia molteplici sono gli spunti di riflessione a seguito del comunicato del Parlamento EU.
Per un certo verso, lo sviluppo esponenziale delle tecnologie che si basano sull’IA impone un livello di attenzione da parte degli Stati membri, attesa la pervasività (o meglio, potenziale pericolosità) dei risultati ottenuti dall’elaborazione, soprattutto in ordine al delicato bilanciamento fra diritti della persona e libero mercato.
Perché regolare l’IA?
Anzitutto, è necessario distinguere le tipologie tecnologie di Intelligenza Artificiale: difatti si parla di AI ristretta (ANI) e l’AI generale (AGI), ancorché questa summa divisio non raccolga ancora il consenso unanime degli studiosi.
L’ANI è istruita da un set di dati ben strutturati al fine di raggiungere un determinato scopo in un ambiente predefinito: ad esempio, possiamo includere in questa categoria i sistemi di riconoscimento facciale o vocale.
L’AGI, invece, è concepita per svolgere più compiti intelligenti come, ad esempio, generare pensiero astratto o l’adattarsi a nuove situazioni.
Si riteneva che l’evoluzione delle AGI fosse più lenta, tuttavia lo sviluppo delle tecnologie di linguaggio in autoapprendimento o semi-auto apprendimento (o LLM, basato su reti neurali) ha generato una serie di interrogativi su quali fossero i rischi etici e sociali in relazione all’uso incontrollato delle relative piattaforme; una su tutte ChatGPT, recentemente nel mirino dell’Autorità Garante della Privacy per la «mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI [la società che ha sviluppato il sistema, NDR], ma soprattutto per l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.»
Vi è, in buona sostanza, (nonostante le precauzioni prese dagli ingegneri) l’altissima probabilità che il mezzo informatico, di per sé neutro, possa “inconsapevolmente” discriminare per sesso, religione, razza e convinzioni personali mediante la generazione di un linguaggio d’odio o violento, oppure generare campagne di disinformazione e/o influenzare le competizioni politiche.
Un’altra problematica riguarda il fatto che le AGI, per funzionare, analizzano una mole incalcolabile di dati pubblici presi dalla rete, per poi elaborarli quale risultato credibile per l’utente, con sostanziali implicazioni in relazione al consenso all’uso dei dati personali.
Altra questione riguarda il diritto d’autore, difatti, l’AI, mediante la ricombinazione di più fonti coperte da copyright (anche per fini educativi), potrebbe generare nuove opere in aperta violazione delle licenze d’uso originarie; in questo caso avrebbe senso pensare ad una modalità di remunerazione dell’apporto creativo “originale” con le inevitabili implicazioni di carattere tecnico per la raccolta delle royalties.
D’altro canto, gli esperti hanno chiesto una costante supervisione dei sistemi IA AGI, anche in ragione del notevole impatto socio-economico di tale tecnologia, auspicando un controllo sulle fasi di implementazione dei sistemi LLM nonché riflettendo sul fatto che l’esclusiva di tale tecnologia in capo a pochi grandi attori o Governi aprirebbe ad uno scenario neo-Orweliano.
Inoltre, ci si domanda quale potrebbe essere il regime di responsabilità qualora l’AI cagionasse un danno: dovrebbe sempre rispondere la software house, oppure ci sono spazi per considerare la scelta della macchina “autonoma” rispetto agli originali parametri di programmazione, aprendo ad una sostanziale impunità dell’individuo qualora l’evoluzione dell’IA fosse non solo prevista, ma anche imprevedibile secondo le conoscenze del momento.
I principi ispiratori e gli usi vietati
Il legislatore europeo ha ritenuto di regolare la materia al fine di assicurare uno sviluppo antropocentrico ed etico dell’IA in Europa, con regole che riguardano la trasparenza e la gestione del rischio dei sistemi basati sull’IA.
Le nuove norme stabiliscono un approccio basato sul rischio ed impongono obblighi sia per fornitori dei servizi basati sull’IA e che per utenti in base al livello di rischio potenziale.
Vengono, dapprima, individuati i sistemi tassativamente vietati quali, ad esempio, quelli che impieghino tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per assegnare agli individui un cosiddetto “punteggio sociale” di modo da classificarli sulla base del loro comportamento personale, pubblico, stato socio-economico ecc.
Nello specifico, i parlamentari europei hanno stilato un elenco di utilizzi vietati che, nello specifico, sono:
- L’identificazione biometrica in tempo reale in luoghi pubblici o aperti al pubblico;
- L’identificazione biometrica ex-post, con la sola eccezione dei sistemi in uso alle Forze dell’Ordine in ordine alle indagini per gravi reati solo dopo l’autorizzazione dell’Autorità Giudiziaria.
- Sistemi di catalogazione biometrica mediante l’uso di dati sensibili quali, sesso, razza, gruppo etnico, stato sociale, religione, orientamento politico;
- Sistemi di polizia predittiva basati sulla profilazione, luogo o precedente comportamento criminale;
- Sistemi di riconoscimento delle emozioni da parte delle Forze dell’Ordine o nell’ambito del controllo delle frontiere, dei luoghi di lavoro e nelle istituzioni scolastiche;
- Utilizzo indiscriminato dei dati biometrici carpiti dai social media o dalle telecamere di sorveglianza per creare database di riconoscimento facciale, in violazione dei diritti umani e del diritto alla riservatezza.
Il legislatore europeo si è anche spinto oltre andando a classificare le aree “ad alto rischio” includendo sistemi di IA che possano provocare danni alla salute, alla sicurezza delle persone, ai diritti fondamentali o all’ambiente; inoltre, l’esperienza recente (vedi caso “Cambridge Analytica”) ha determinato una stretta anche a quei sistemi di IA tendenti ad influenzare il voto nelle piattaforme con oltre 45 milioni di utenti, prendendo quale parametro l’art 33 co.1 Reg. (UE) 2022/2065 (Digital Services Act).
L’evoluzione delle leggi della robotica
Negli anni ’40 lo scrittore Isaac Asimov aveva, con una capacità predittiva che oggi definiremmo “visionaria”, ipotizzato che le macchine dovessero contenere “leggi” che non consentissero loro di arrecare danno al genere umano(le famose tre leggi della robotica); ed è questo, probabilmente, il senso delle regole del legislatore europeo relative ai sistemi di IA definiti quali software sviluppati con una o più delle tecniche e criteri predeterminati (allegato I della proposta), che possono, «per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono».
L’approccio base è quello secondo cui i sistemi siano programmati in modo da:
- Garantire una forte protezione dei diritti fondamentali, salute e sicurezza, ambiente, democrazia e primato della legge;
- Prevedere e mitigare i rischi connessi, rispettare determinati requisiti di progettazione, informazione e ambiente ed avere i propri database nel territorio della UE.
Una particolare attenzione è dedicata ai cosiddetti “Generative Foundation Models”, ossia quel tipo di algoritmi che possono essere usati per generare contenuti quali testi, foto, video, audio, codici sorgenti che, nelle intenzioni del legislatore europeo, devono indicare che il prodotto è, per l’appunto, generato da AI, nonché essere progettati affinché non creino contenuti illegali ovvero pubblicare riepiloghi di opere protette da copyright utilizzati per la formazione.
Non solo divieti, ma regolamentazione della tecnologia come opportunità di sviluppo
La proposta di legge euro unitaria, tuttavia, non deve essere considerata come un intervento a gamba tesa contro le nuove tecnologie, piuttosto (sulla falsariga del Digital Service Act e del Digital Market Act) quale regolamentazione, anche perché le big tech che controllano le piattaforme digitali emergono «come gatekeeper nei mercati digitali, con il potere di agire come governanti privati», avendo l’enorme potere contrattuale di imporre condizioni ingiuste per le imprese che utilizzano tali piattaforme nonché una minore scelta per i consumatori.
Ma l’aspetto che preoccupa il legislatore europeo, riguarda la pervasività delle tecnologie di IA rispetto ai diritti fondamentali della persona, quali privacy, libertà di autodeterminazione, libertà di movimento ecc.
D’altro canto, il primo considerando della bozza di regolamento così dice espressamente: “lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale (IA) in conformità ai valori dell’Unione. Il presente regolamento persegue una serie di motivi imperativi di interesse pubblico, quali un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, e garantisce la libera circolazione transfrontaliera di beni e servizi basati sull’IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all’uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento”.
Da come si può evincere, si intende tutelare salute, sicurezza e diritti fondamentali in relazione allo sviluppo, commercializzazione ed uso dei sistemi di IA, introducendo una base giudica comune anche al fine di evitare ingiustificate restrizioni alla crescita di tali tecnologie, considerate di eccezionale importanza per lo sviluppo economico dell’Unione.
Conclusioni
Il solco è ormai tratto, difatti l’UE intende non solo regolamentare il mercato delle nuove tecnologie al fine di dargli una dimensione “etica”, ma anche incentivare lo sviluppo di sistemi di IA prevedendo speciali deroghe all’AI ACT in caso in cui i sistemi siano rilasciati con licenze open source o per finalità di ricerca.
Inoltre, la bozza prevede i cosiddetti “sandbox normativi” ovvero ambienti controllati dalle Autorità Pubbliche in cui si possano testare nuovi sistemi di IA prima della loro implementazione.
Infine, una visione antropocentrica non può non prescindere dal diritto di ogni cittadino, previsto dal regolamento, di depositare istanze o reclami presso le autorità individuate ovvero pretendere di sapere come siano state prese le decisioni basate su sistemi di intelligenza artificiale ad alto rischio nel momento in cui dovessero incidere sui propri diritti fondamentali.
Non ci resta che capire, quando le nuove norme entreranno in vigore, se il tentativo di far convive diritti fondamentali e sviluppo tecnologico porterà ad un effettivo sviluppo economico e sociale dei cittadini europei, oppure se ci dobbiamo preparare ad un diverso scenario in cui “la macchina” prenderà per noi decisioni sempre più importanti.