L’Italia ha aderito al documento pubblicato dalle Autorità statunitensi e britanniche“Guidelines for Secure AI System Development”, vere e proprie linee guida su come sviluppare e implementare in modo sicuro sistemi di intelligenza artificiale generativa (IA gen).
Un documento prezioso che merita un approfondimento, non solo perché il nostro Paese è stato così rapido a adottarlo, tramite l’Agenzia per la sicurezza cibernetica (Acn).
Le linee guida per sviluppare IA sicura
E’ ultima di una serie di iniziative di Washington e Londra per affrontare i rischi di sicurezza imposti dalle tecnologie di apprendimento automatico.
Documento nato nel Regno Unito, con le Linee Guida delineate durante il Summit sulla Cybersecurity dell’ IA svoltosi all’inizio di novembre a Bletchley Park, dove esperti provenienti da governi e settore privato di 18 paesi hanno collaborato per redigerle, ovvero una coalizione di agenzie di sicurezza informatica e intelligence insieme a aziende tecnologiche e organizzazioni di ricerca.
Questo documento di alto livello offre consigli su progettazione, sviluppo, implementazione e operatività sicura e manutenzione di sistemi di intelligenza artificiale: applicando concetti di sicurezza informatica, come la modellizzazione delle minacce, la sicurezza della catena di approvvigionamento e la risposta agli incidenti, esso si pone l’obiettivo di incoraggiare sviluppatori e utenti di IA a dare priorità alle questioni di sicurezza.
La CISA ha pubblicato il documento insieme al National Cyber Security Centre del Regno Unito. Le linee guida sono state redatte da 21 agenzie e Ministeri di sicurezza che coprono le nazioni del G7. Un elenco di aziende multinazionali di IA ha fornito contributi insieme a organizzazioni di ricerca di livello internazionale.
I punti chiave delle Linee Guida
I sistemi di intelligenza artificiale (IA) hanno il potenziale di apportare numerosi benefici alla società. Tuttavia, affinché le opportunità dell’IA siano pienamente realizzate, essa deve essere sviluppata, implementata e gestita in modo sicuro e responsabile.
I sistemi di intelligenza artificiale sono soggetti a nuove vulnerabilità di sicurezza che devono essere considerate insieme alle minacce standard della sicurezza informatica. Quando il ritmo di sviluppo è elevato – come nel caso dell’IA – la sicurezza può spesso essere considerata come una questione secondaria. La sicurezza deve essere un requisito fondamentale, non solo nella fase di sviluppo, ma per l’intero ciclo di vita del sistema.
Per questo motivo, le linee guida sono suddivise in quattro aree chiave all’interno del ciclo di vita di sviluppo del sistema di IA: progettazione sicura, sviluppo sicuro, implementazione sicura e gestione sicura e manutenzione.
1) Progettazione sicura:
Questa sezione contiene linee guida che si applicano alla fase di progettazione del ciclo di vita di sviluppo del sistema di IA. Copre la comprensione dei rischi e la modellazione delle minacce, oltre a argomenti specifici e compromessi da considerare nella progettazione del sistema e del modello.
2) Sviluppo sicuro:
Questa sezione contiene linee guida che si applicano alla fase di sviluppo del ciclo di vita di sviluppo del sistema di IA, compresa la sicurezza della catena di approvvigionamento, la documentazione e la gestione dei beni e del debito tecnico.
3) Implementazione sicura:
Questa sezione contiene linee guida che si applicano alla fase di implementazione del ciclo di vita di sviluppo del sistema di IA, compresa la protezione dell’infrastruttura e dei modelli da compromissioni, minacce o perdite, lo sviluppo di processi di gestione degli incidenti e il rilascio responsabile.
4) Gestione sicura e manutenzione:
Questa sezione contiene linee guida che si applicano alla fase di gestione sicura e manutenzione del ciclo di vita di sviluppo del sistema di IA. Fornisce linee guida su azioni particolarmente rilevanti una volta che un sistema è stato implementato, inclusi logging e monitoraggio, gestione degli aggiornamenti e condivisione delle informazioni.
Tutte queste linee guida seguono un “approccio sicuro di default” e sono strettamente allineate alle pratiche definite nelle linee guida di sviluppo e implementazione sicura del NCSC, nel Framework di sviluppo di software sicuro del NIST e nei princìpi di progettazione sicura pubblicati da CISA, il NCSC e le agenzie di cybersecurity internazionali.
Esse danno priorità nel prendere in carico gli esiti di sicurezza per i clienti, abbracciare la trasparenza e responsabilità radicali, costruire una struttura organizzativa e una leadership in modo che la sicurezza per progettazione sia una priorità aziendale principale.
Esse rappresentano per tutta la comunità internazionale di cybersecurity, un ulteriore passo significativo nella definizione di una comprensione veramente globale e comune dei rischi cibernetici e delle strategie di mitigazione legate all’IA, per garantire che la sicurezza non sia un requisito fondamentale durante “tutta la sua gestazione”.
Inoltre, sebbene l’accordo non abbia valore legale vincolante, consiste soprattutto di raccomandazioni ampie. Queste includono la supervisione dei sistemi di intelligenza artificiale per prevenire possibili abusi, la protezione dei dati da manomissioni e una valutazione approfondita dei fornitori di software.
L’importante adesione dell’ACN (Agenzia della Cybersecurity Nazionale) alle linee guida per lo sviluppo sicuro
Come detto, l’ Agenzia della Cybersecurity Nazionale (ACN) ha aderito alle direttive internazionali sulla sicurezza dell’intelligenza artificiale delineate durante il vertice di Bletchley Park nel Regno Unito. L’IA è una delle principali priorità della presidenza del G7 di Roma nel 2024, unendosi così alle linee guida sulla sicurezza dell’IA.
L ‘Italia è tra i 18 paesi che hanno firmato le nuove Linee Guida Internazionali per lo Sviluppo Sicuro dei Sistemi di Intelligenza Artificiale mediante la sua Agenzia della Cybersecurity Nazionale (ACN), una delle 23 agenzie che vi aderiscono.
Questo è il primo documento congiunto internazionale per l’uso sicuro dell’IA, una questione che ha suscitato fermento ed l’attenzione dei governi in tutto il mondo. Infatti la sicurezza informatica è una condizione essenziale per l’IA e serve a garantire resilienza, riservatezza, equità e affidabilità, ovvero uno spazio cibernetico più sicuro.
Oltre all’Italia e al Regno Unito, le linee guida sono supportate da Australia, Canada, Cile, Repubblica Ceca, Estonia, Francia, Germania, Israele, Giappone, Nuova Zelanda, Nigeria, Norvegia, Polonia, Singapore, Corea del Sud e Stati Uniti.
La Prima Ministra italiana, Giorgia Meloni, presente al vertice di Bletchley Park, ha promesso di fare della governance dell’IA un focus centrale della cooperazione del G7 nel 2024.
Si va verso una regolamentazione globale?
E’ un periodo storico vicino ad un punto di svolta nello sviluppo dell’intelligenza artificiale, che potrebbe divenire la tecnologia più significativa del nostro tempo. Infatti, la sicurezza informatica è fondamentale per costruire sistemi di IA sicuri, protetti e affidabili. E poiché i sistemi di IA vengono rapidamente implementati nella società, sviluppatori e responsabili politici si affrettano ad affrontare le preoccupazioni di sicurezza e sicurezza legate alla tecnologia.
Il mese scorso, il Presidente Joe Biden aveva firmato un decreto esecutivo che incaricava il Governo Federale di intensificare gli sforzi per sviluppare standard per affrontare le preoccupazioni di sicurezza, in particolare per i modelli red team e la marcatura dell’IA generata.
In una conferenza a Londra, una coalizione di 28 Stati si è impegnata a sottoporre i modelli di IA leader a test intensivi prima del rilascio.
Tuttavia, gli esperti avvertono che l’affrontare i rischi dell’IA continua a rimanere indietro rispetto agli sforzi per sviluppare e implementare la tecnologia all’avanguardia. Sebbene carenti di dettagli tecnici, gli standard mirano a fornire un insieme di princìpi che sia utile sia agli utenti che agli sviluppatori di IA per rinforzare i loro sistemi.
Se si vorrà rendere la cybersecurity il tema principale globale ormai anche a livello mediatico mediante la regolamentazione dell’IA come un insieme di problemi tecnici che devono essere risolti da esperti del settore tecnologico e del governo, ciò potrebbe non enfatizzare l’ampia considerazione democratica necessaria, coinvolgendo tutti coloro che sono colpiti da queste tecnologie.
Infatti, la cornice esistenziale della minaccia dell’IA è eccessivamente restrittiva, se ci concentriamo su scenari catastrofici e trascuriamo altre preoccupazioni più concrete, come i diritti umani digitali e la mitigazione dei pregiudizi algoritmici. Tuttavia, tutto ciò solleva interrogativi sull’interpretazione e la priorità dei predetti valori, con un rischio di non gerarchizzazione e conseguente sovrapposizione.
Il valore della dichiarazione potrebbe essere anche e solo principalmente simbolico, riflettendo la consapevolezza dei leader politici sui rischi e le opportunità dell’IA e la loro disponibilità a cooperare. La traduzione dei valori in una regolamentazione efficace richiede un’ampia partecipazione democratica e non può essere un processo dall’alto verso il basso guidato da élite tecnocratiche.
Il coinvolgimento della Cina nei colloqui, nonostante le proteste prevedibili dei falchi, ha rappresentato un risultato positivo: le nostre democrazie euro-atlantiche devono decidere come cooperare con nazioni non democratiche il cui contributo alle norme globali sull’IA è essenziale.
Un’altra sfida-chiave per i governi è nutrire la considerazione dei problemi da parte del pubblico attingendo a competenze tecniche: questa esperienza dovrebbe includere i principali ricercatori impiegati dalle grandi società tecnologiche, ma non dovrebbe consentire loro di dettare i valori che la tecnologia dell’IA dovrebbe servire o di stabilire quali valori dovrebbero essere prioritari.
Ovvero: in che misura gli Stati saranno in grado di regolare lo sviluppo dell’IA e come verrà introdotto in questo processo un’autentica deliberazione pubblica e responsabilità?”
Di fatto, il vertice sull’IA di Bletchley ha affrontato le preoccupazioni per la minaccia esistenziale dell’IA, ampliando la discussione per includere altri rischi e valori più concreti, riflettendo la consapevolezza dei leader politici sulle sfide e le opportunità dell’IA e la loro volontà di cooperare. Tuttavia, la traduzione dei valori della dichiarazione in una regolamentazione efficace richiede un’ampia partecipazione democratica e un equilibrio tra competenze tecniche e considerazioni pubbliche.