Il paper

Sicurezza dell’intelligenza artificiale, progettazione e rischi correlati: le linee guida ETSI

Nel suo primo paper, il gruppo di standardizzazione Securing Artificial Intelligence dell’ETSI fornisce linee guida per migliorare l’approccio alla sicurezza dell’IA. Nel documento sono catalogati i principali tipi di rischio collegati a ciascuna fase di sviluppo e c’è un capitolo dedicato all’etica

Pubblicato il 16 Mar 2021

Danilo Benedetti

Docente di tecnologie avanzate presso LUMSA

intelligenza artificiale digitale

Il gruppo di standardizzazione ETSI dedicato alla sicurezza dell’intelligenza artificiale[1] (Industry Specification Group – Securing Artificial Intelligence) ha rilasciato il suo primo paper sulla sicurezza dell’IA.

Con la nascita di questo gruppo, ETSI riconosce il ruolo sempre più ampio che l’intelligenza artificiale ha nelle nostre vite, grazie alla sua capacità di rivoluzionare il modo in cui interagiamo con la tecnologia, e alle sue potenzialità di migliorare la nostra qualità di vita e arricchire la sicurezza. In assenza di standard tecnici adeguati, l’IA ha però anche il potenziale per creare nuove minacce e peggiorare la sicurezza complessiva delle nostre società.

L’obiettivo del gruppo SAI è di fornire delle linee guida per migliorare l’approccio alla sicurezza dell’IA secondo tre assi:

  • Proteggere l’intelligenza artificiale dagli attacchi: in questo caso l’intelligenza artificiale è vista come componente di un sistema, e come tale necessitante di protezione;
  • Mitigazione contro l’uso dell’IA come strumento di attacco: in questo caso l’intelligenza artificiale è utilizzata per potenziare i vettori di attacco convenzionali o crearne di nuovi;
  • Utilizzo dell’intelligenza artificiale per migliorare le misure di sicurezza: l’IA viene utilizzata per potenziare la protezione dei sistemi contro gli attacchi, affiancando o sostituendo le contromisure convenzionali.

Il paper appena rilasciato si pone l’obiettivo di definire e delimitare il problema relativo alla sicurezza dell’IA, e nelle intenzioni del gruppo dovrebbe essere seguito da altri cinque argomenti:

  • Ontologia delle minacce, per allineare la terminologia.
  • Supply Chain dei dati, incentrata sui rischi relativi ai dati e alla fase di training.
  • Strategie di mitigazione, con le linee guida per mitigare gli impatti delle minacce all’IA.
  • Test della sicurezza per l’IA.
  • Il ruolo dell’hardware nella sicurezza dell’intelligenza artificiale.

La definizione del problema della sicurezza dell’IA secondo ETSI

ETSI riconosce che il termine intelligenza artificiale include un numero elevato di differenti tipologie di algoritmi, ma riconosce anche che, in questo momento, le tecnologie basate sull’apprendimento (supervisionato o meno) sono quelle che stanno incontrando il maggiore sviluppo e diffusione; per questo motivo il documento si concentra sulle tecniche di machine learning.

Il primo passo per mettere “in sicurezza” questa tecnologia è esplicitarne la “catena di produzione”, che nel paper viene suddivisa in 8 fasi diverse, come rappresentato nel disegno.

ETSI considera la sicurezza delle fasi di realizzazione di sistemi di machine learning secondo l’ottica della “CIA Triad[2]” – Confidenzialità, Integrità e disponibilità dei dati e della piattaforma.

Nel documento sono catalogati i principali tipi di rischio collegati a ciascuna fase di sviluppo, riportati nella tabella sottostante per comodità del lettore.

FasePrincipale minaccia secondo ETSI
Raccolta datiIntegrità
Preparazione dei datiIntegrità
Progettazione del modelloProblemi non specifici
Implementazione softwareProblemi non specifici
TrainingConfidenzialità, integrità, disponibilità
TestDisponibilità
RilascioConfidenzialità, integrità, disponibilità
AggiornamentiIntegrità, disponibilità

Dopo questa sezione, che approfondisce il tipo di rischio caratteristici di ciascuna fase, il documento si sposta su terreni familiari per chi segue agendadigitale.eu, ovvero i problemi di progettazione e i fattori non intenzionali che possono comunque produrre comportamenti non attesi o dannosi del sistema di IA.

AI, il paradosso della legge come ostacolo o supporto: perché serve un nuovo approccio

Problemi di progettazione e fattori non intenzionali

Il primo di questi è il bias, ovvero la possibilità che i dati utilizzati per l’addestramento del sistema siano selezionati o manipolati in modo da produrre output allineati ad alcune ipotesi predeterminate (bias confermativo), oppure quando la selezione dei dati, effettuata su basi soggettive, si riflette in un insieme di dati di training che non riproduce accuratamente la popolazione (bias di selezione).

Accanto al bias ETSI considera anche la necessità di mitigare adeguatamente i problemi di underfitting e overfitting – che, rispettivamente, producono modelli “troppo semplici” o “troppo complessi” per il problema che si vuole risolvere – e il tema del trattamento degli outlier, ovvero quei valori molto fuori scala rispetto alla media della popolazione, la cui presenza nell’insieme dei dati di training può avere un impatto sproporzionato sulle decisioni del sistema IA.

È degna di nota la distinzione che gli autori fanno fra il bias “indesiderato” e quello che invece è parte delle specifiche di progetto: ad esempio, in un sistema di guida autonoma è probabilmente desiderabile che questo sia “polarizzato” per favorire comportamenti più cauti e meno rischiosi. Analogamente, il tema degli outliers può essere anch’esso considerato come un requisito, se si tratta di casi estremi (ma reali) il cui presentarsi può avere impatti molto importanti sul comportamento del sistema.

L’etica dell’IA

All’interno della trattazione dei problemi inerenti alla progettazione, è sicuramente interessante la presenza di un capitolo dedicato all’etica dell’IA, relativo in particolare all’uso dei dati, alla capacità – e opportunità – che un sistema di IA possa prendere decisioni che hanno impatti sulla vita delle persone e, infine, alla trasparenza che deve caratterizzare il funzionamento dell’IA.

ETSI infatti riconosce che, sebbene i temi etici non abbiano un’incidenza diretta sulle caratteristiche di sicurezza dei sistemi di IA, essi possono avere un effetto significativo sulla percezione di attendibilità del sistema da parte degli individui. Diviene quindi importante per i progettisti e gli sviluppatori dei sistemi di IA, considerare le sfide etiche all’interno della progettazione, affinché le persone che li useranno possano af-fidarsi ad essi. L’uso etico dell’IA costituisce uno degli aspetti del tema più generale relativo all’abuso dell’IA, in un continuum che muove dall’utilizzo della tecnologia per fini che possono produrre effetti indesiderati per gli utilizzatori / destinatari della stessa, fino al vero e proprio uso dell’IA come strumento per realizzare azioni illecite, come nel caso dei generatori di malware, i deepfake, la riproduzione della voce ecc.

AI e dati, è caos etico: serve una metodologia standard

Conclusioni

Dell’articolo sono interessanti anche le omissioni: almeno in questo primo documento, sono assenti i riferimenti all’intelligenza artificiale come “arma strategica”, come anche i riferimenti alla possibile nascita di sistemi senzienti, ostili all’uomo. Tutto sommato anche questo è un segno di maturità della tecnologia e della percezione che abbiamo di essa: uno strumento di progresso che va gestito per limitare gli effetti negativi che, come ogni altra tecnologia umana, la sua diffusione porta inevitabilmente con sé.

  1. https://www.etsi.org/technologies/securing-artificial-intelligence
  2. Confidentiality, Integrity, Availability.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati