La serie di proposte legislative sull’intelligenza artificiale presentata dalla Commissione europea – e in consultazione fino al 19 maggio 2020 – è molto ambiziosa: definisce alcuni necessari aggiustamenti delle attuali norme per rispondere alle nuove sfide poste dall’AI oltre a ulteriori proposte per regolare i sistemi che presentano particolari rischi.
Ci sono tuttavia anche alcune criticità legate a questo approccio che è opportuno sottolineare, intaccando equilibri nei rapporti tra privacy (e diritti dei cittadini) e innovazione.
Andiamo dunque a esaminare il progetto Ue che, per altro, va a aggiungersi alle numerose iniziative legislative che si stanno susseguendo in tutto il mondo per regolamentare l’uso dell’intelligenza artificiale alla luce della sempre maggiore consapevolezza della portata dei possibili impatti che un suo pieno sviluppo potrebbe avere sulle nostre vite (si veda, ad esempio, la panoramica globale fornita dal Future of Life Institute). Persino il Vaticano si è espresso sul tema, firmando insieme a Microsoft, IBM e FAO una Call for AI Ethics, documento il cui intento è quello di promuovere un approccio etico all’intelligenza artificiale e un senso di responsabilità nel regolamentarla.
Intelligenza artificiale, punti salienti delle proposte Ue
Le proposte legislative presentate dalla Commissione Europea si pongono un intento fondamentale e chiaro: l’Europa vuole mantenere la propria leadership nel regolamentare l’uso delle nuove tecnologie, una leadership che Anu Bradford associa al cosiddetto Brussels Effect, ovvero quel processo che spesso porta le norme adottate dall’Unione europea a diventare di fatto standard di riferimento globali, come si è visto con il GDPR.
Quello presentato dalla Commissione è, come abbiamo già sottolineato, un progetto ambizioso: rivedere numerose normative europee, da quelle sulla protezione dei consumatori a quelle in materia di non discriminazione, per renderle idonee ad affrontare le sfide dell’intelligenza artificiale. Nel complesso, ciò si sostanzierebbe in una riforma di proporzioni comparabili a quella che ha dato luce al GDPR, con conseguenze importanti per il settore digitale, ma non solo.
Le proposte della Commissione partono dal presupposto che, già oggi, gli sviluppatori e gli utilizzatori di sistemi di intelligenza artificiale sono soggetti a numerosi requisiti normativi ai sensi del diritto europeo vigente (ad esempio, quelli imposti dalla normativa sulla protezione dei dati personali, sulla sicurezza generale dei prodotti, sui dispositivi medici, ecc.). Tuttavia, nella pratica, l’applicazione delle regole esistenti ai sistemi di intelligenza artificiale non è sempre scontata né facile.
L’intento della Commissione è quindi in primo luogo quello di chiarire quando e come le regole attuali si applichino all’intelligenza artificiale. In secondo luogo, la Commissione propone di stabilire regole ulteriori per quei sistemi di intelligenza artificiale che presentano particolari rischi, nei modi delineati di seguito. Tali regole dovrebbero tenere in debito conto le raccomandazioni espresse dal cosiddetto High-Level Expert Group on Artificial Intelligence.
- Riconoscimento facciale: per quanto riguarda i sistemi di riconoscimento facciale, è interessante notare come, nelle proposte pubblicate, la Commissione indichi come, a suo avviso, l’uso di sistemi di riconoscimento facciale per l’identificazione di persone in pubblico è generalmente proibita ai sensi del GDPR. Tuttavia, la Commissione intende valutare se, in determinate circostanze, l’uso del riconoscimento facciale negli spazi pubblici possa essere ritenuto giustificato (con alcune garanzie). Si tratta di un cambio di rotta radicale rispetto alla moratoria di cinque anni che la Commissione aveva inizialmente preso in considerazione.
- Valutazione di conformità e certificazione dei sistemi di intelligenza artificiale ad alto rischio: la Commissione propone di imporre che i sistemi di intelligenza artificiale ad alto rischio (in particolare quelli da utilizzarsi nel settore energetico, sanitario e dei trasporti) vengano sottoposti a un processo di valutazione di conformità prima di essere immessi sul mercato, eventualmente facendo anche ricorso ad opportuni meccanismi di certificazione. Si tratta di un processo già utilizzato per l’immissione sul mercato di prodotti più tradizionali ad alto rischio (come i dispositivi medici), processo che andrebbe riadattato alle caratteristiche specifiche dei sistemi di intelligenza artificiale.
Tale valutazione andrebbe a verificare se i sistemi in questione rispondono a determinati requisiti, tra cui:
- requisiti relativi all’adeguatezza dei set di dati su cui i sistemi sono testati:
- requisiti in materia di conservazione della documentazione relativa allo sviluppo dei sistemi in questione;
- regole sull’informativa da fornire a chi usa tali sistemi;
- requisiti che assicurino l’accuratezza di tali sistemi;
- regole che assicurino l’intervento umano.
- Revisione del concetto di “prodotto sicuro”: per quanto riguarda la normativa sulla sicurezza dei prodotti, la Commissione ritiene necessario rendere chiaro che il concetto di “prodotto sicuro” non riguarda le caratteristiche fisiche e meccaniche del prodotto, ma anche l’assenza di rischi intrinsecamente legati agli elementi digitali del prodotto.
- Risarcimento dei danni connessi al malfunzionamento di prodotti digitali: secondo la Commissione, non è necessario riscrivere completamente le regole in materia di responsabilità civile per far fronte alle specificità dell’intelligenza artificiale. Tuttavia, potrebbe essere necessario introdurre alcuni aggiustamenti per assicurarsi che chiunque venga danneggiato dall’uso di un sistema di intelligenza artificiale possa agilmente ottenere i dovuti risarcimenti. Un documento pubblicato dalla Commissione fornisce alcuni spunti interessanti su come assicurarsi che questo avvenga.
- Sistemi volontari di etichettatura dei sistemi di intelligenza artificiale a basso rischio: per assicura una maggiore fiducia nei sistemi di intelligenza artificiale, la Commissione prevede l’introduzione di sistemi volontari di etichettatura che rendano chiaro a chi li usa quali sono i principi che sono stati applicati nel svilupparli. Si tratta di un approccio seguito da varie normative europee, tra le quali il GDPR che prevede l’istituzione di marchi e sigilli che consentano agli interessati di valutare rapidamente il livello di protezione dei dati di determinati prodotti e servizi.
I rischi dell’approccio della Commissione
Alcuni degli aggiustamenti normativi proposti dalla Commissione appaiono certamente necessari per affrontare al meglio le sfide poste dall’uso dell’intelligenza artificiale. Tuttavia, la revisione simultanea di molteplici strumenti giuridici potrebbe potenzialmente aprire un vaso di Pandora. Infatti, una volta riaperta la discussione sul contenuto di un determinato quadro normativo, è difficile assicurarsi che le modifiche proposte e poi introdotte vengano limitate a quanto è strettamente necessario per far fronte alle nuove sfide dell’intelligenza artificiale, con il rischio che alcuni equilibri normativi consolidatisi nel tempo vengano ad essere intaccati. Un’alternativa potrebbe essere quella di adottare un unico e nuovo provvedimento normativo che regolamenti, sotto vari aspetti, l’uso dell’intelligenza artificiale.
È bene sottolineare che le proposte della Commissione sono sottoposte a consultazione pubblica fino al 19 maggio 2020. È quindi legittimo attendersi che alcuni elementi presentati in questo articolo potrebbero essere modificati, anche sostanzialmente, in futuro.