Già da qualche anno l’Unione europea ha avviato il suo proprio percorso per costruire un sistema di regole capace di governare il rapido processo di diffusione dell’Intelligenza Artificiale (IA). Questo ha fatto parlare di una vera e propria strategia europea.
L’intelligenza artificiale rappresenta il futuro, ma è già parte del presente, una tecnologia che prometterà di trasformare le economie, stimolare la crescita e affrontare anche sfide sociali, ma che al contempo implica anche rischi intrinseci per la sicurezza e un significativo potenziale da non sottovalutare.
Molto probabilmente, quindi, l’IA influenzerà l’andamento dello sviluppo economico europeo. Anche per questo motivo, nel 2018, la Commissione ha adottato un piano coordinato con gli Stati membri – poi aggiornato nel 2021 – per aumentare gli investimenti ed incentivare il lavoro finalizzato all’adozione di un quadro normativo idoneo a governare il futuro.
Questo percorso ha già prodotto dei risultati normativi non trascurabili, a partire dall’ormai noto AI Act, delineando un approccio preciso dell’UE rispetto alle nuove tecnologie.
L’approccio europeo all’Intelligenza Artificiale: una questione di valori
Il 19 febbraio 2020, la Commissione europea ha pubblicato l’attesissimo Libro bianco sull’intelligenza artificiale, accompagnato da un comunicato e da un rapporto, adempiendo a un importante impegno nel definire un approccio europeo all’IA. Il documento sottolinea la necessità che l’UE “agisca all’unisono e definisca il proprio modo, basato sui valori europei, di promuovere lo sviluppo e la diffusione dell’intelligenza artificiale”. Per quanto riguarda la regolamentazione e gli investimenti, il Libro bianco persegue un duplice obiettivo: sostenere l’adozione dell’intelligenza artificiale e la gestione dei rischi legati ai suoi usi. Il documento considera la salute un’importante area di applicazione e fissa l’obiettivo ambizioso dell’UE di “diventare un leader globale nell’innovazione nell’economia dei dati e nelle sue applicazioni”.
Le posizioni assunte dall’UE rispetto all’IA rimangono quindi fedeli ai valori europei, ritenuti il faro della strategia per affrontare la crescente concorrenza da parte delle industrie statunitense e cinese su tutte.
La Commissione sottolinea altresì che “l’intelligenza artificiale si basa sui valori europei” e invita addirittura l’UE a “esportare i suoi valori in tutto il mondo”.
La linea europea è quindi piuttosto chiara, e segue quella già intrapresa con il Regolamento UE 2016/679 in materia di protezione dei dati personali, ossia governare la tecnologia con un approccio incentrato sull’essere umano e sulla tutela dei suoi diritti fondamentali.
L’esportazione dei valori europei nel mondo: gli ostacoli
Ora, chiarita la nobile dichiarazione di intenti, la parte dedicata alla esportazione dei valori europei nel mondo incontra alcune domande immediate, se non ostacoli. Diversi importanti valori condivisi sono incorporati nella struttura giuridica dell’Unione stessa e nelle principali legislazioni dell’UE.
Questi valori si rilevano, ad esempio, nel Green Deal europeo, nella Carta dei diritti fondamentali dell’UE e, come anticipato, nel GDPR. Tuttavia, la Commissione potrebbe essere troppo ottimista sul fatto che le questioni sollevate dalla regolamentazione dell’IA saranno risolvibili sulla base di norme e valori europei condivisi e consolidati. Certamente la normativa europea potrà essere un riferimento importantissimo a livello globale, ma è difficile immaginare un pieno assorbimento da parte di contesti sociali e normativi ben diversi da quelli comunitari.
Il fiore all’occhiello dell’approccio europeo: l’AI Act
Il primo agosto 2024 è entrato in vigore l’ormai noto Regolamento europeo sull’intelligenza artificiale (AI Act), la normativa che mira a promuovere lo sviluppo e la diffusione responsabile dell’intelligenza artificiale nell’UE.
Proposta dalla Commissione nell’aprile 2021 e approvata dal Parlamento europeo e dal Consiglio nel dicembre 2023, la legge sull’intelligenza artificiale affronta i potenziali rischi per la salute, la sicurezza e i diritti fondamentali dei cittadini. Fornisce agli sviluppatori e agli operatori requisiti e obblighi chiari riguardo agli usi specifici dell’IA, riducendo al contempo gli oneri amministrativi e finanziari per le imprese.
L’approccio basato sul rischio
La legge sull’intelligenza artificiale introduce un quadro uniforme in tutti i paesi dell’UE, basato su una definizione lungimirante di intelligenza artificiale e un approccio basato sul rischio:
- Rischio minimo: la maggior parte dei sistemi di intelligenza artificiale, come i filtri antispam e i videogiochi abilitati all’intelligenza artificiale, non sono vincolati dalla legge sull’intelligenza artificiale, ma le aziende possono adottare volontariamente ulteriori codici di condotta.
- Rischio specifico per la trasparenza: sistemi come le chatbots devono informare chiaramente gli utenti che stanno interagendo con una macchina, mentre alcuni contenuti generati dall’intelligenza artificiale devono essere etichettati come tali.
- Rischio elevato: i sistemi di intelligenza artificiale ad alto rischio, come i software medici basati sull’intelligenza artificiale o i sistemi di intelligenza artificiale utilizzati per il reclutamento, devono rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, set di dati di alta qualità, informazioni chiare sugli utenti, supervisione umana, ecc.
- Rischio inaccettabile: ad esempio, i sistemi di IA che consentono il “social scoring” da parte di governi o aziende sono considerati una chiara minaccia ai diritti fondamentali delle persone e sono quindi vietati.
L’Ue leader globale dell’IA sicura
L’UE aspira così ad essere il leader globale nel campo dell’IA sicura. Sviluppando un quadro normativo solido basato sui diritti umani e sui valori fondamentali, l’UE può sviluppare un ecosistema di intelligenza artificiale a vantaggio di tutti. Ciò significa una migliore assistenza sanitaria, trasporti più sicuri e più puliti e migliori servizi pubblici per i cittadini. Offre prodotti e servizi innovativi, in particolare nei settori dell’energia, della sicurezza e dell’assistenza sanitaria, nonché una maggiore produttività e una produzione più efficiente per le imprese, mentre i governi possono beneficiare di servizi più economici. Tutto ciò, come dicevamo, con un approccio antropocentrico, basato sulla tutela dei diritti fondamentali dell’uomo, che caratterizza tutta la normativa europea in materia, e non solo l’AI Act.
L’Artificial Intelligence Liability Directive
Il 28 settembre 2022 la Commissione europea ha pubblicato la proposta di Direttiva sulla responsabilità derivante dall’intelligenza artificiale (“AI Liability Directive”), che affronta la questione relativa alle richieste di risarcimento dei danni causati dai sistemi di IA, o dall’uso dell’IA, adattando le norme sulla responsabilità civile extracontrattuale all’intelligenza artificiale.
La direttiva integra il Regolamento sull’intelligenza artificiale introducendo un nuovo regime di responsabilità che garantisce la certezza del diritto, rafforza la fiducia dei consumatori nell’intelligenza artificiale e assiste le richieste dei consumatori per i danni causati da prodotti e servizi basati sull’intelligenza artificiale disponibili sul mercato dell’UE o che operano all’interno del mercato dell’UE.
Prima della direttiva, le norme nazionali sulla responsabilità, in particolare basate sulla colpa, non erano adatte a gestire le richieste di responsabilità per danni causati da prodotti e servizi basati sull’intelligenza artificiale. Secondo tali norme, le vittime dovrebbero dimostrare un’azione illecita o un’omissione da parte della persona che ha causato il danno. Le caratteristiche specifiche dell’IA, tra cui la complessità, l’autonomia e l’opacità, rendono difficile o proibitivamente costoso per le vittime identificare la persona responsabile e dimostrare i requisiti per un’azione di responsabilità accoglibile in sede giudiziaria.
In particolare, quando richiedono un risarcimento, le vittime potrebbero sostenere costi iniziali molto elevati e affrontare procedimenti legali molto più lunghi, rispetto ai casi che non coinvolgono l’IA. Le vittime potrebbero quindi essere dissuase del tutto dal richiedere un risarcimento.
Ciò causa naturalmente un contesto caratterizzato da incertezza giuridica. Le imprese, dall’altro lato, senza un quadro normativo chiaro, avrebbero difficoltà a prevedere come verranno applicate le norme sulla responsabilità e quindi a valutare la propria esposizione alla responsabilità stessa. Ciò colpirebbe in particolare le imprese che commerciano oltre frontiera e le piccole e medie imprese (PMI), che non possono fare affidamento su competenze legali interne o riserve di capitale.
Ancora, diversi Stati membri stanno valutando, o addirittura pianificando concretamente, l’introduzione di un’azione legislativa sulla responsabilità civile per l’IA. Se l’UE non agisse, gli Stati membri adatterebbero le loro norme nazionali sulla responsabilità alle sfide dell’IA. Ciò comporterebbe un’ulteriore frammentazione e un aumento dei costi per le imprese attive in tutta l’UE.
Da qui si capisce l’importanza evidente della proposta in esame, che segue un approccio di armonizzazione che consentirà ai ricorrenti, in casi di danni causati da sistemi di IA, di invocare norme più favorevoli del diritto nazionale.
Quale futuro normativo?
Di recente il futuro della direttiva è stato da alcuni percepito come incerto, ritenendo la Commissione incline a ritirare la proposta esistente e superata e a stilarne una nuova che si allinei meglio all’attuale contesto legislativo. Se così fosse, sarebbe un grosso problema per l’UE e per l’armonizzazione delle normative alla luce delle evoluzioni tecnologiche.
Contrariamente alle voci che circolano, l’affermazione secondo cui la direttiva sulla responsabilità dell’IA sarebbe stata abbandonata è stata ritenuta infondata. La Commissione europea ha ribadito inequivocabilmente il suo impegno a far progredire la direttiva, come dimostrato dalla recente diffusione della proposta modificata ai governi e ai legislatori dell’UE per un ulteriore esame. Ciò sottolinea l’impegno della Commissione nell’istituzione di un solido quadro giuridico per la responsabilità dell’IA, rafforzando l’allineamento con il nuovo AI Act e ampliando l’ambito di responsabilità per le applicazioni di IA.