Da anni esperti e accademici mettono in guardia le organizzazioni dai rischi dell’intelligenza artificiale. L’assunto consolidato è che, più di altre tecnologie, l’IA metta a rischio la sicurezza delle persone, della società, e delle organizzazioni stesse che la implementano.
In questo dibattito, l’Unione Europea gioca un ruolo da protagonista, visto che la legislazione europea sull’IA sarà la più avanzata a livello internazionale. Il Parlamento Europeo ha infatti approvato lo scorso 14 giugno l’AI Act, che definisce un quadro esplicito di come e quando applicare i sistemi di gestione dei rischi dell’intelligenza artificiale.
I rischi si possono vedere già ora e devono essere mitigati prima che la diffusione dell’IA diventi capillare. Al di là dei requisiti dell’AI Act, richiedono di proteggere le stesse organizzazioni, oltre che gli individui e la società.
Tutto questo deve portare le organizzazioni ad approcciare la gestione dei rischi come un’opportunità di protezione, oltre che una necessità di conformità alla regolamentazione. Altrimenti, se questo percorso sarà vissuto come un semplice un obbligo normativo, potrebbero diventare concreti quei rischi che, come dice Sam Altman, tutti devono impegnarsi a gestire.
I rischi dell’IA
Per capire quali sono i rischi dell’IA che è necessario valutare e gestire, è utile partire dalla definizione che l’AI Act fornisce, all’Articolo 3, di intelligenza artificiale: un sistema di intelligenza artificiale (AI system) è un sistema composto da una macchina (machine-based) e progettato per operare con vari livelli di autonomia. L’AI system può, in base a obiettivi impliciti o espliciti, generare risultati come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali.
Nella definizione non si fa riferimento a categorie specifiche di algoritmi come il machine learning. In questo contesto i “sistemi” sono da intendere come elementi interconnessi in un tutto unitario. Un sistema di intelligenza artificiale non è quindi solamente il software con cui è stato sviluppato l’algoritmo, ma include anche, per esempio, i dati che sono stati utilizzati per l’addestramento, l’hardware o l’oggetto fisico che lo rende fruibile agli utenti e le modalità di interazione con gli utenti stessi.
I sistemi di IA vengono, quindi, definiti a partire da alcune caratteristiche fondamentali:
- sono costituiti da una macchina – che può essere un “prodotto”, ovvero un oggetto fisico di qualsiasi tipo oppure un calcolatore e dal relativo software;
- sono stati progettati per eseguire determinate attività con diversi livelli di autonomia, dal fare una previsione – come nel caso di un sistema che calcoli la probabilità del verificarsi di un evento – a prendere una decisione in autonomia;
- possono perseguire obiettivi espliciti – definiti nella fase di progettazione dagli sviluppatori – e impliciti – definiti dagli utilizzatori;
- producono risultati come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici e virtuali.
Non è però obbligatorio valutare e gestire i rischi di tutti i sistemi di IA. Sono soggetti alla regolamentazione europea solo i sistemi di intelligenza artificiale definiti dalla Commissione stessa come ad “alto rischio”. Il quadro elaborato dalle istituzioni europee rimane comunque applicabile a tutti i sistemi di IA, su base volontaria. La Commissione stessa ne promuove un uso ampio, aperto e auspicabile anche per i sistemi non ad alto rischio.
I sistemi di intelligenza artificiale ad alto rischio
Per identificare i sistemi di intelligenza artificiale ad alto rischio, l’AI Act fa riferimento ai diritti fondamentali dell’uomo. Questi includono la dignità dell’essere umano, il rispetto della vita privata e della famiglia, la protezione delle informazioni personali, la libertà di espressione e di informazione, la libertà di associazione e non discriminazione, il diritto allo studio, la protezione dei consumatori, i diritti dei lavoratori, i diritti delle persone con disabilità, l’uguaglianza di genere, la protezione della proprietà intellettuale, il diritto ad un ricorso effettivo e a un processo giusto, il diritto di difesa e la presunzione di innocenza, il diritto a una buona amministrazione e il diritto a un elevato livello di protezione dell’ambiente.
Sulla base di questi principi generali, sono state individuate due categorie di sistemi di IA ad alto rischio. La prima categoria riguarda i sistemi di IA che rientrano nel nuovo quadro giuridico armonizzato a livello europeo – o che sono componenti di sicurezza di questi prodotti – e che sono obbligatoriamente soggetti ad una valutazione di conformità da terze parti.
Tutti gli altri sistemi di IA sono devono essere classificati ad alto rischio se, in base all’obiettivo per il quale sono stati progettati, pongono un rischio significativo alla salute, sicurezza o diritti fondamentali delle persone. Per questi sistemi è riportato un elenco puntuale nello stesso AI Act. Tutti i sistemi di IA che non rientrano nella prima categoria, e che non sono riportati nell’elenco puntuale descritto nel regolamento, non sono considerati ad alto rischio.
L’AI Act, comunque, identifica quattro aree di applicazione dove un sistema di IA è considerato ad alto rischio. L’Allegato III, infatti, prevede che siano considerati ad alto rischio i sistemi IA per valutare l’accesso al credito, i sistemi per la gestione e il funzionamento di infrastrutture critiche e digitali, i sistemi per l’istruzione e la gestione del personale, e i sistemi per i servizi di emergenza di primo soccorso, gestione dei flussi migratori, asilo e controllo delle frontiere.
Fonte: Rielaborazione Intellera Consulting su bozza AI Act
Il requisito della gestione del rischio
L’Articolo 9 dell’AI Act prevede che, per quanto riguarda l’alto rischio, un sistema di gestione del rischio debba essere definito, realizzato, documentato e manutenuto.
Per “definito” si intende che sono state stabilite e approvate dai competenti organi organizzativi le procedure per la corretta gestione dei rischi dei sistemi di IA. Con il termine “realizzato” si vuole che tali procedure siano state messe in pratica e che tutti nell’organizzazione sappiano che azioni tenere, comportandosi di conseguenza. Il sistema deve poi essere “documentato”, ovvero descritto in modo sistematico e per iscritto, in modo da poter essere presentato su richiesta di un’autorità competente. Infine, il sistema deve essere regolarmente manutenuto.
L’AI Act specifica anche che il processo di gestione dei rischi deve essere eseguito durante tutto il ciclo di vita del sistema di IA, monitorato sistematicamente e iterativo, nel senso che deve essere aggiornato qualora emergano nuovi rischi, dalla definizione strategica del sistema di AI, alla sua consegna, nella relazione con l’ecosistema, nella gestione dei dati, nella progettazione del modello, nella sua implementazione, nella gestione operativa e, infine, nel monitoraggio.
Un sistema di gestione del rischio permette di identificare, stimare e mitigare i rischi relativi ad un’applicazione di IA. Considera tutti i rischi legati all’IA, sia che questi riguardino l’organizzazione stessa, gli individui o la società.
Il sistema di gestione del rischio è suddiviso in cinque fasi principali: l’identificazione del rischio, la sua analisi, per valutarne impatto e probabilità, la valutazione in merito a come trattare il rischio, l’eventuale azione di trattamento del rischio, e infine il monitoraggio dello stesso.
Il rischio deve essere individuato valutando, da un lato, l’effetto combinato rispetto al suo livello di gravità, intensità, probabilità di insorgenza e durata e, dall’altro, se il rischio può incidere su un individuo, una pluralità di persone o un particolare gruppo di persone. Il risultato della valutazione potrebbe, ad esempio, comportare un’elevata gravità ma una bassa probabilità di influenzare una persona fisica, oppure un’alta probabilità di influenzare un gruppo di persone con una bassa intensità per un lungo periodo di tempo, a seconda del contesto. Questo è il criterio generale per valutare il rischio di un sistema di IA ad alto rischio. Nel dettaglio, nella figura riportata è descritto il flusso del processo di gestione del rischio, come previsto dall’AI Act.
Fonte: Rielaborazione Intellera dell’articolo di J. Schuett (2022), Risk management in the AI Act
Una pubblica amministrazione, dunque, per implementare un corretto sistema di gestione del rischio deve ragionare in modo sistemico. Il lavoro delle pubbliche amministrazioni deve partire quindi dalla mappatura dei sistemi di intelligenza artificiale in uso nell’organizzazione, classificandoli nelle categorie di rischio dell’AI Act. Si deve percorrere poi il sistema di gestione del rischio in ogni sua fase, per ogni sistema di AI, dall’identificazione dei rischi, l’analisi e la valutazione degli stessi al loro eventuale trattamento e monitoraggio.
Un sistema di gestione dei rischi dell’AI protegge infatti l’organizzazione a prescindere dall’obbligo normativo. Le applicazioni di AI potrebbero incidere ad esempio sui costi dell’organizzazione, la sua sicurezza informatica o struttura organizzativa, oltre che la sua reputazione.
Il ruolo degli standard
L’AI Act delinea dei principi che devono essere applicati ai sistemi di gestione del rischio, ma rimanda agli standard europei per le linee guida puntuali da seguire per la loro applicazione. L’AI Act fa riferimento, infatti, alle organizzazioni responsabili della definizione degli standard che assicurano la corretta applicazione della legislazione. L’aderenza a questi standard garantisce la presunzione di conformità alla normativa in caso di controllo di terze parti. Tutte le organizzazioni guardano quindi con molto interesse a questi standard. Il problema è che non sono ancora disponibili. L’Unione europea ha dato mandato a Cen-Cenlec di elaborare delle linee guida dettagliate per la gestione dei rischi ma queste verranno pubblicate verosimilmente contestualmente all’approvazione finale della regolamentazione.
Le organizzazioni che vogliono anticipare l’aderenza della propria gestione dei rischi per l’IA si trovano oggi in un vuoto normativo. A colmare questa mancanza vengono in soccorso alcuni standard internazionali, come ISO (International Organization for Standardization) che ha predisposto degli standard di processo per la gestione dei rischi per l’IA, ai quali – come fonti di Intellera all’interno della Commissione Europea hanno confermato – con ogni probabilità Cen-Cenlec si ispirerà.
ISO, infatti, ha alcuni accordi con le organizzazioni di standard europee per fare economie di scala nell’elaborazione degli standard per l’Unione Europea. Rispetto a quelli elaborati da ISO, gli standard europei potrebbero richiedere maggiore granularità di informazioni per renderli compatibili ai requisiti all’AI Act.
Cosa c’è da fare operativamente
Per le organizzazioni pubbliche e private europee lo stato dell’arte più avanzato sono gli standard di ISO. È necessario quindi sviluppare – o adattare, dove già presente – la propria gestione del rischio dell’IA a partire dai passaggi proposti da ISO. Questo renderà l’adeguamento agli standard armonizzati a livello europeo più agevole, visto che con ogni probabilità questi somiglieranno ad ISO.
Ad integrazione degli standard ISO, è importante per le organizzazioni identificare la categoria di rischio dei propri sistemi di IA secondo l’AI Act. La classificazione della regolamentazione europea è chiara e facilmente interpretabile. Le organizzazioni possono quindi cominciare dal classificare le proprie applicazioni di IA come proibite, ad alto rischio o a rischio limitato, come previsto dall’AI Act. Questo permetterebbe di proseguire con maggiore chiarezza nella valutazione di impiego delle applicazioni di IA.
Il sistema di gestione dei rischi per l’AI va poi integrato a livello di governance aziendale, definendo processi e ruoli per scalare i rischi identificati come rilevanti. In questo modo, il management ai diversi livelli dell’organizzazione sarebbe in grado di operare sui rischi rilevati in base alle proprie competenze e responsabilità.