L’intelligenza artificiale (IA) e le capacità di apprendimento automatico sono alla base di nuovi rischi di cyber security.
Vediamo qui le potenziali minacce alla sicurezza derivanti da usi malevoli dell’IA, cercando di individuare modi per prevedere, prevenire e mitigare queste minacce. La questione di quale sia l’equilibrio a lungo termine tra aggressori e difensori è aperta. Ci concentriamo invece su quali tipi di attacchi vedremo probabilmente presto se non saranno sviluppate difese adeguate.
Come cambiano le minacce con l’Intelligenza Artificiale
Man mano che le capacità dell’intelligenza artificiale diventano più potenti e diffuse, ci aspettiamo un uso crescente, e l’induzione di diversi cambiamenti nel panorama delle minacce.
Espansione delle minacce esistenti
I costi degli attacchi ai sistemi informatici potranno essere ridotti significativamente dall’uso scalabile dei sistemi AI; questi sistemi potranno essere utilizzati per svolgere attività che normalmente richiederebbero lavoro umano, intelligenza e competenza. Un effetto naturale potrà essere quello di aumentare senza elevati costi aggiuntivi il gruppo di attori che effettuano attacchi specifici, e di aumentare la velocità alla quale possono essere effettuati gli attacchi.
Modifica del carattere tipico delle minacce
Crediamo che ci sia ragione per aspettarsi che gli attacchi consentiti dall’uso crescente dell’IA possano essere particolarmente efficaci, finemente mirati, difficili da attribuire, e in grado di sfruttare le vulnerabilità dei sistemi di intelligenza artificiale utilizzati da chi è preposto alla difesa dei sistemi.
Di seguito prendiamo in considerazione separatamente tre domini di sicurezza, illustrando i possibili cambiamenti alle minacce dell’IA all’interno di questi domini attraverso esempi rappresentativi:
AI e Sicurezza digitale
L’uso dell’intelligenza artificiale per automatizzare i compiti connessi all’esecuzione di attacchi cibernetici ridurrà il gap esistente tra la portata e l’efficacia degli attacchi. Questo potrà espandere la minaccia associata ad attacchi informatici ad alta intensità di lavoro (come spear-phishing o pesca mirata). Ci aspettiamo inoltre nuovi attacchi che sfruttino le vulnerabilità umane (ad es., attraverso l’uso della sintesi vocale per l’impersonificazione), le vulnerabilità software esistenti (ad es., attraverso l’hacking automatico) o le vulnerabilità dei sistemi di IA stessi (ad es., attraverso adversarial learning o apprendimento automatico in ambiente ostile e attraverso l’avvelenamento dei dati).
AI e sicurezza fisica
L’uso dell’IA per automatizzare i compiti connessi all’esecuzione di attacchi con droni e altri sistemi fisici (ad esempio, attraverso l’impiego di sistemi d’arma autonomi) può ampliare le minacce associate a tali attacchi. Ci aspettiamo inoltre nuovi attacchi che sovvertano i sistemi cibernetici (ad esempio, causando blocchi o incidenti di veicoli autonomi) o che coinvolgano sistemi fisici che sarebbe impossibile dirigere a distanza (ad esempio, uno sciame di migliaia di micro droni).
AI e sicurezza politica
L’uso dell’intelligenza artificiale per automatizzare i compiti di sorveglianza (ad es., analisi di dati raccolti in massa), persuasione (ad es., creazione di propaganda mirata) e inganno (ad es., manipolazione di video) può espandere le minacce associate all’invasione della privacy e alla manipolazione sociale.
Sono da aspettarsi anche nuovi attacchi che sfruttino una migliore capacità di analizzare comportamenti, stati d’animo e convinzioni umane sulla base dei dati disponibili. Queste preoccupazioni sono più significative nel contesto degli Stati autoritari, ma possono anche compromettere la capacità di democrazie mature a sostenere dibattiti pubblici veritieri.
Cosa fare
In risposta al panorama mutevole delle minacce, ci sentiamo di sottolineare che è necessario che:
- Politici, ricercatori e tecnici collaborino per studiare, prevenire e mitigare i potenziale usi dannosi di IA e che la comunità IA, collaborando con quella che si occupa di sicurezza informatica, utilizzi le tecniche di “red teaming” (ovvero attacchi mirati a scoprire vulnerabilità per migliorare l’efficacia) e garantisca la divulgazione responsabile delle vulnerabilità IA.
- I ricercatori promuovano una cultura della responsabilità e considerino la natura a duplice uso (civile e militare) del loro lavoro, consentendo che le considerazioni relative all’uso improprio influenzino le priorità e le norme della ricerca, ripensando norme e istituzioni intorno alla ricerca open access, a partire dalla valutazione dei rischi di pre-pubblicazione in aree tecniche di particolare interesse.
Riconoscimenti: Alcune delle considerazioni fatte sopra sono state riprese dal volume “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” disponibile online.