Gli algoritmi di intelligenza artificiale sono ormai in ogni ambito e mercato, utilizzati e utilizzabili da individui e organizzazioni: la musica che ci viene consigliata studiando i nostri gusti preferiti, i percorsi suggeriti sulle mappe per raggiungere una destinazione, le analisi delle frodi bancarie, le autovetture a guida autonoma, i sistemi in grado di accettare o rifiutare domande di prestito di denaro, non ultima la possibilità di fare domande su qualsiasi tipo di argomento (qualcuno sta pensando a ChatGPT?).
Attorno a essi nascono nuove professioni, nuove idee di business, nuovi casi di utilizzo.
Partendo da questo presupposto, Gartner ha recentemente pubblicato un paper centrato su “AI TRiSM” nel tentativo di fornire una migliore comprensione dell’emergente ecosistema incentrato sull’intelligenza artificiale.
AI Trust, Risk and Security Management: obiettivi e vantaggi pratici
Cos’è l’AI TriSM
AI TRiSM, acronimo di Artificial Intelligence (AI) Trust, Risk, and Security Management, è un framework sviluppato per consentire la governance, l’affidabilità, l’equità, l’efficacia e la privacy dell’IA. Si preoccupa di garantire che vengano impiegate adeguate salvaguardie e politiche di governance al fine di evitare l’uso inappropriato dell’intelligenza artificiale.
Si tratta, a tutti gli effetti, di una disciplina che mira a garantire la sicurezza e la protezione dei sistemi di intelligenza artificiale e dei dati che essi utilizzano, sia nel momento dell’addestramento degli algoritmi (le informazioni utili a completare la fase di studio e conoscenza necessaria a questi sistemi), sia nel momento di utilizzo vero e proprio.
Al suo interno comprende non solo la gestione dei rischi legati all’utilizzo di queste tecnologie, ma anche la gestione della fiducia (verso gli utilizzatori) e la gestione della sicurezza.
La disciplina include anche la valutazione dei rischi legati all’utilizzo dell’IA, la creazione di controlli per prevenirli o mitigarli e linee guida relativa alla corretta gestione dei dati utilizzati per addestrare, alimentare e mantenere aggiornati i sistemi.
Gartner definisce AI TRiSM come un framework che include soluzioni, tecniche e processi per aumentare la fiducia nei sistemi grazie all’interpretazione e alla spiegabilità del modello, la privacy, le operazioni effettuate dai modelli e la resistenza agli attacchi avversari per i clienti (utilizzatori) e l’azienda (produttrice del modello).
Per ultimo, ma non per questo meno importante, l’AI TRiSM si occupa anche di assicurare che i sistemi IA soddisfino standard etici e legali, un punto certamente fondamentale e di importanza strategica.
I tre ambiti del framework TRiSM
Il framework AI TRiSM si concentra su tre ambiti distinti:
- AI Trust
- AI Risk
- AI Security Management
Oltre a questo, Gartner definisce 5 pilastri su cui poter disegnare, modellare e costruire efficaci soluzioni di intelligenza artificiale:
- Explainability
- ModelOps
- Data Anomaly Detection
- Adversarial Attack Resistance
- Data Protection
L’obiettivo dell’iniziativa è quello di poter avere e condividere una disciplina (a oggi in rapido sviluppo e in costante evoluzione) utile a supportare prima di tutto un’adozione corretta dell’IA, sempre più diffusa anche in settori critici e, in certo senso, più delicati di altri: la finanza, la sanità, la produzione, l’energia e la difesa.
Secondo Gartner, AI TRiSM mira ad assicurare la governance, l’affidabilità, l’equità, l’affidabilità, l’efficacia, la sicurezza e la protezione dei dati dei modelli gestiti da sistemi di intelligenza artificiale.
AI TRiSM a supporto delle organizzazioni pubbliche e private
Se si considerano queste tecnologie come fondamentali nel prossimo futuro, la disciplina non può che essere un aiuto essenziale per supportare tutte le organizzazioni, siano essere pubbliche che private, a raggiungere meglio (e forse prima) proprio il domani in questione.
Gartner prevede che entro il 2026 le organizzazioni che renderanno operativi temi di trasparenza, fiducia e sicurezza verso l’IA vedranno i propri modelli di intelligenza artificiale ottenere un miglioramento dei risultati del 50% in termini di adozione, obiettivi di business e accettazione da parte degli utenti.
Senza ombra di dubbio un più interessante ritorno dell’investimento.
Allo stesso modo, la società di consulenza, prevede che entro il 2028 le macchine basate sull’intelligenza artificiale rappresenteranno il 20% della forza lavoro globale e il 40% di tutta la produttività economica.
Da questi ragionamenti diventa semplice dedurre che le organizzazioni che non gestiranno il rischio avranno molte più probabilità di sperimentare problemi, violazioni o esiti negativi: di fatto, l’incapacità di poter sfruttare al meglio la tecnologia e i suoi benefici.
I modelli potrebbero non funzionare come previsto, si potrebbero verificare problemi di sicurezza o privacy, avere perdite di reputazione (o anche economiche) e così via.
Come nel mondo delle analisi dei dati, ma qui in maniera forse ancora più marcata, l’intelligenza artificiale gestita in modo errato può indurre le organizzazioni a prendere decisioni sbagliate.
Se è vero che le normative legate ai temi di IA stanno aumentando, è fondamentale che anche prima di avere regole obbligatorie emanate dal legislatore si implementino pratiche utili a garantire fiducia, trasparenza e protezione dei consumatori.
Una soluzione definita per proteggere adeguatamente l’IA
Di fatto possiamo considerare AI TRiSM come una soluzione definita per proteggere adeguatamente l’IA: dalla sua fase di implementazione, fino alla sua fase di adozione (la messa a disposizione verso gli utenti).
L’applicazione delle funzionalità AI TRiSM va proprio nella direzione di poter garantire l’affidabilità, la privacy e la sicurezza dei modelli.
L’obiettivo, ma anche il principale suggerimento, è quello di familiarizzare con le varie forme di compromissione possibili e utilizzare il set di soluzioni e linee guida di AI TRiSM in modo da poter proteggere adeguatamente l’IA, senza aspettare che il modello vada in produzione (il momento in cui verrà utilizzato, quando eventuali difetti di “costruzione” potrebbero non essere più corretti).
Il framework suggerisce, per le organizzazioni, la presenza di un team orizzontale, con figure di differenti estrazioni e funzioni, che lavori insieme: professionisti che abbiano competenza di temi legali, conformità, sicurezza, infrastrutture IT e analisi dei dati.
Il vantaggio di poter disporre di svariate professioni come queste va nella direzione di poter avere un miglioramento dei risultati aziendali ottenibile grazie all’uso dell’intelligenza artificiale, piuttosto che un semplice rispetto delle normative.
Lo stato della regolamentazione sull’IA
In generale, qual è lo stato delle cose a oggi?
Autorità di regolamentazione e agenzie governative di tutto il mondo hanno pubblicato (e stanno pubblicando) linee guida e hanno annunciato nuove direttive pensate e progettate per definire e delineare un uso equo e trasparente dell’IA.
L’Unione europea, tra tutti gli organi internazionali, ha adottato un approccio multiforme a questo problema anche attraverso investimenti nella ricerca e partenariati pubblico-privato.
Grazie alla formazione di un gruppo di esperti multidisciplinari, chiamato European AI High Level Expert Group (HLEG), sta sviluppando linee guida etiche su pregiudizi, trasparenza, valori condivisi e spiegabilità. Questo gruppo sarà anche in grado di raccomandare anche politiche sulle infrastrutture e sui finanziamenti relativi all’IA.
In questo quadro, l’UE ha anche proposto pesanti multe economiche per le organizzazione che non dovessero rispettare le linee guida stabilite per l’IA.
Negli Stati Uniti, invece, la regolamentazione dell’IA sembra essere in una fase ancora abbastanza precoce: alcuni funzionari governativi hanno chiesto regole per limitare l’uso e la progettazione dell’IA, ma il governo federale degli USA non ha, a tutt’oggi, sviluppato un approccio globale alla questione.
Solo nel maggio 2021, il National Institute of Standards and Technology (NIST) ha pubblicato una bozza per sviluppare una discussione, così da sollevare il tema, sulla fiducia nei sistemi di intelligenza artificiale.
Le funzionalità di AI TRiSM nascono per garantire l’affidabilità, l’affidabilità, la sicurezza e la privacy dei modelli sviluppati.
Per ottenere risultati migliori in termini di adozione di queste nuove tecnologie, obiettivi di business e accettazione da parte degli utenti, le organizzazioni devono essere in grado di gestire fiducia, rischi e sicurezza dell’IA.
Una squadra in azienda per affrontare le variabili della gestione dell’IA
Le aziende che operano in settori regolamentati necessitano di trasparenza in merito ai sistemi di intelligenza artificiale che utilizzano: devono essere in grado di monitorare la precisione, le prestazioni e qualsiasi potenziale pregiudizio della loro tecnologia. Devono registrare queste informazioni con un livello di dettaglio adatto alla responsabilità, alla conformità e anche, perché no, al servizio dei loro clienti.
Per questi motivi, disporre di personale e strutture per affrontare le numerose variabili relative al rischio e alla conformità, compresa la gestione delle enormi quantità di documentazione necessaria, diventa molto importante.
Secondo Gartner “l’IA pone nuovi requisiti di gestione della fiducia, del rischio e della sicurezza che i controlli convenzionali non affrontano”.
Non sfugge che la valutazione del rischio per la sicurezza di un sistema di intelligenza artificiale deve essere necessariamente fatta esaminando l’intero ciclo di vita dello sviluppo e dell’implementazione del sistema. Ciò significa che, per proteggere veramente il modello di IA, dobbiamo tenere conto della protezione dell’intera catena di approvvigionamento dell’informazione e della gestione dei sistemi.
Come in uno sport di squadra: ci sono figure che progettano architetture, altre creano pipeline di acquisizione dati, altri ancora addestramento dei modelli e distribuzione. Gli architetti della sicurezza stabiliscono politiche appropriate, gli analisti della sicurezza rispondono alle minacce.
“Man mano che la necessità della società di proteggere i sistemi di intelligenza artificiale diventa sempre più evidente, risorse come il framework di gestione dei rischi per la sicurezza dell’IA possono essere contributi fondamentali” — Jack Molloy, Senior Security Engineer, BCG
L’idea è quella di:
- Avere una prospettiva completa sulla sicurezza del sistema di intelligenza artificiale esaminando ogni elemento del ciclo di vita del sistema: dalla raccolta dei dati, alla loro elaborazione, alla distribuzione del modello. Il tutto tenendo conto dei controlli e delle politiche in relazione a backup, ripristino e pianificazione di emergenza
- Delineare minacce e raccomandazioni per ridurle con l’obiettivo di aiutare direttamente ingegneri e professionisti della sicurezza, elencando possibili criticità di ogni fase del processo di creazione del sistema di IA.
- Condurre valutazione del rischio, raccogliendo informazioni sullo stato attuale della sicurezza dei sistemi di IA nell’organizzazione, eseguendo analisi delle possibili carenze e tenendo traccia dell’avanzamento delle politiche e delle best practices sicurezza.
Conclusioni
I framework di AI TRiSM sono praticamente ancora nuovi e, a onor del vero, la maggior parte delle organizzazioni non applica ancora in profondità metodologie e strumenti di questo tipo o, almeno, fino a quando i modelli non vengono implementati.
Costruire l’affidabilità dei modelli fin dalla loro idea iniziale (analisi), per continuare durante la fase di progettazione (sviluppo) e produzione (rilascio), porterà certamente a migliori prestazioni del modello.
Non solo funzionali e/o prestazionali, ma anche di fiducia, sicurezza e tranquillità di adozione.
I modelli di intelligenza artificiale non faranno altro che aumentare e l’adozione di strumenti legati ai temi dell’AI TRiSM potranno certamente essere un ottimo supporto di valore.