gli scenari

Cyber security e intelligenza artificiale, così cambiano le minacce informatiche

L’intelligenza artificiale può essere causa anche di diverse insidie poco considerate, per la cyber security. Vediamo come cambiano le minacce nei diversi ambiti della sicurezza informatica e cosa fare per mitigare i rischi

Pubblicato il 18 Ott 2018

Rocco De Nicola

IMT – Scuola Alti Studi Lucca

security_10322398

L’intelligenza artificiale (IA) e le capacità di apprendimento automatico sono alla base di nuovi rischi di cyber security

Vediamo qui le potenziali minacce alla sicurezza derivanti da usi malevoli dell’IA, cercando di individuare modi per prevedere, prevenire e mitigare queste minacce. La questione di quale sia l’equilibrio a lungo termine tra aggressori e difensori è aperta. Ci concentriamo invece su quali tipi di attacchi vedremo probabilmente presto se non saranno sviluppate difese adeguate.

Come cambiano le minacce con l’Intelligenza Artificiale

Man mano che le capacità dell’intelligenza artificiale diventano più potenti e diffuse, ci aspettiamo un uso crescente, e l’induzione di diversi cambiamenti nel panorama delle minacce.

Espansione delle minacce esistenti

I costi degli attacchi ai sistemi informatici potranno essere ridotti significativamente dall’uso scalabile dei sistemi AI; questi sistemi potranno essere utilizzati per svolgere attività che normalmente richiederebbero lavoro umano, intelligenza e competenza. Un effetto naturale potrà essere quello di aumentare senza elevati costi aggiuntivi il gruppo di attori che effettuano attacchi specifici, e di aumentare la velocità alla quale possono essere effettuati gli attacchi.

Modifica del carattere tipico delle minacce

Crediamo che ci sia ragione per aspettarsi che gli attacchi consentiti dall’uso crescente dell’IA possano essere particolarmente efficaci, finemente mirati, difficili da attribuire, e in grado di sfruttare le vulnerabilità dei sistemi di intelligenza artificiale utilizzati da chi è preposto alla difesa dei sistemi.

Di seguito prendiamo in considerazione separatamente tre domini di sicurezza, illustrando i possibili cambiamenti alle minacce dell’IA all’interno di questi domini attraverso esempi rappresentativi:

AI e Sicurezza digitale

L’uso dell’intelligenza artificiale per automatizzare i compiti connessi all’esecuzione di attacchi cibernetici ridurrà il gap esistente tra la portata e l’efficacia degli attacchi. Questo potrà espandere la minaccia associata ad attacchi informatici ad alta intensità di lavoro (come spear-phishing o pesca mirata). Ci aspettiamo inoltre nuovi attacchi che sfruttino le vulnerabilità umane (ad es., attraverso l’uso della sintesi vocale per l’impersonificazione), le vulnerabilità software esistenti (ad es., attraverso l’hacking automatico) o le vulnerabilità dei sistemi di IA stessi (ad es., attraverso adversarial learning o apprendimento automatico in ambiente ostile e attraverso l’avvelenamento dei dati).

AI e sicurezza fisica

L’uso dell’IA per automatizzare i compiti connessi all’esecuzione di attacchi con droni e altri sistemi fisici (ad esempio, attraverso l’impiego di sistemi d’arma autonomi) può ampliare le minacce associate a tali attacchi. Ci aspettiamo inoltre nuovi attacchi che sovvertano i sistemi cibernetici (ad esempio, causando blocchi o incidenti di veicoli autonomi) o che coinvolgano sistemi fisici che sarebbe impossibile dirigere a distanza (ad esempio, uno sciame di migliaia di micro droni).

AI e sicurezza politica

L’uso dell’intelligenza artificiale per automatizzare i compiti di sorveglianza (ad es., analisi di dati raccolti in massa), persuasione (ad es., creazione di propaganda mirata) e inganno (ad es., manipolazione di video) può espandere le minacce associate all’invasione della privacy e alla manipolazione sociale.

Sono da aspettarsi anche nuovi attacchi che sfruttino una migliore capacità di analizzare comportamenti, stati d’animo e convinzioni umane sulla base dei dati disponibili. Queste preoccupazioni sono più significative nel contesto degli Stati autoritari, ma possono anche compromettere la capacità di democrazie mature a sostenere dibattiti pubblici veritieri.

Cosa fare

In risposta al panorama mutevole delle minacce, ci sentiamo di sottolineare che è necessario che:

  • Politici, ricercatori e tecnici collaborino per studiare, prevenire e mitigare i potenziale usi dannosi di IA e che la comunità IA, collaborando con quella che si occupa di sicurezza informatica, utilizzi le tecniche di “red teaming” (ovvero attacchi mirati a scoprire vulnerabilità per migliorare l’efficacia) e garantisca la divulgazione responsabile delle vulnerabilità IA.
  • I ricercatori promuovano una cultura della responsabilità e considerino la natura a duplice uso (civile e militare) del loro lavoro, consentendo che le considerazioni relative all’uso improprio influenzino le priorità e le norme della ricerca, ripensando norme e istituzioni intorno alla ricerca open access, a partire dalla valutazione dei rischi di pre-pubblicazione in aree tecniche di particolare interesse.

Riconoscimenti: Alcune delle considerazioni fatte sopra sono state riprese dal volume “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” disponibile online.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati