Rischi e opportunità dell’AI

Intelligenza artificiale, come ripensare la cybersecurity delle aziende

I rapidi progressi nel campo dell’IA ne comportano un’applicazione esponenziale a tutti i settori economici, imponendo prudenza nella valutazione dei rischi e opportunità per la cybersecurity. È fondamentale per le imprese sviluppare una strategia di difesa solida che tenga conto dei requisiti normativi applicabili

Pubblicato il 27 Apr 2023

Tommaso Ricci

Avvocato, Data Protection & LegalTech Specialist presso DLA Piper

intelligenza artificiale pregiudizio

L’entusiasmo connesso agli strumenti di intelligenza artificiale (IA) ha subito una accelerazione vertiginosa nei primi mesi del 2023 grazie al rilascio di soluzioni accessibili al pubblico come ChatGPT e Midjourney che sono presto diventate virali grazie alla loro capacità di generare contenuto testuale o visivo originale che ha catturato l’attenzione del pubblico.

Mentre le aziende cercano di potenziare i propri processi e prodotti integrando soluzioni di terzi tramite l’utilizzo delle interfacce di programmazione API o sviluppandone di proprie, è fondamentale procedere con cautela e valutare i potenziali rischi associati all’utilizzo di queste tecnologie, ma anche le opportunità derivanti dall’applicazione dell’IA a tutela della sicurezza cibernetica.

ChatGPT in azienda? Ecco i benefici e i rischi da valutare

I rischi cyber dell’IA

Gli sviluppi dell’intelligenza artificiale (AI) hanno portato a notevoli progressi in diversi campi, ma hanno anche introdotto nuovi rischi cyber. La natura “duale” dell’IA consente infatti applicazioni sia innocue che dannose, sia pacifiche che militari, rendendo fondamentale l’attenzione ai rischi associati all’utilizzo di queste tecnologie.

In primo luogo, i sistemi di IA presentano delle vulnerabilità note, come la possibilità di corruzione o manipolazione dei dataset di input. Questo può portare a risultati distorti e non rappresentativi della realtà. In secondo luogo i sistemi di IA sono generalmente abilitati a effettuare deduzioni e svolgere azioni in modo automatizzato e senza il costante coinvolgimento umano, con una conseguente riduzione delle possibilità di individuare eventuali vulnerabilità che possono essere sfruttate da competitor poco scrupolosi o da criminali informatici per compromettere i sistemi aziendali.  Inoltre le ragioni per cui un programma di apprendimento automatico o di IA fa particolari deduzioni e prende determinate decisioni non sono sempre immediatamente chiare ai soggetti che si occupano della supervisione.  I modelli decisionali e i dati sottostanti non sono necessariamente trasparenti o rapidamente interpretabili (anche se sono in corso sforzi significativi per migliorare la trasparenza di tali strumenti). Ciò significa che, anche se viene rilevata una violazione, il suo scopo o la sua causa possono essere difficili da ricostruire. Ci sono poi rischi derivanti dall’abuso della tecnologia stessa: con modelli linguistici come ChatGPT, è sempre più facile per gli aggressori creare e-mail di phishing altamente sofisticate e convincenti che possono ingannare anche gli utenti più esperti. Inoltre secondo alcuni report un thread intitolato “ChatGPT – Vantaggi del malware” è apparso su un forum di hacking sotterraneo il 29 dicembre 2022, in cui l’autore ha rivelato di sperimentare l’uso di ChatGPT per ricreare tecniche di malware e ceppi descritti in pubblicazioni di ricerca. Ha condiviso un esempio di codice per un furto basato su Python che cerca e copia tipi di file comuni in una cartella temporanea, quindi li zippa e carica su un server FTP.

Chiaramente queste condotte sono in violazione dei termini e condizioni di utilizzo di ChatGPT e con il rilascio dei vari update il servizio limita sempre più la possibilità di bypassare i propri controlli di sicurezza, ma allo stesso tempo servizi paralleli meno noti e meno controllati vengono lanciati sul mercato.

Le opportunità dell’IA nella sicurezza cibernetica

Da un altro punto di vista però le organizzazioni possono contare sulle capacità dell’IA sia per aggiornare le loro prassi in termini di sicurezza informatica che per proteggere i loro sistemi dotati di Intelligenza Artificiale. L’ IA migliora le capacità di rilevamento e di risposta alle minacce esistenti, e permette di sviluppare nuove capacità di difesa preventiva. Grazie all’impiego dell’IA, ad esempio, le aziende possono snellire e migliorare il modello operativo della sicurezza riducendo i lunghi e complessi processi manuali di ispezione e intervento e riorientando gli sforzi umani verso compiti di supervisione e risoluzione dei problemi. In particolare l’IA può potenziare gli attuali sistemi e le prassi di sicurezza informatica in tre direzioni principali.

Prevenzione e protezione

L’A.I. offre un modo per automatizzare il processo di rilevazione delle minacce – aumentando, piuttosto che sostituendo – l’analista umano attraverso tecniche di machine learning[1] e deep learning[2]. Molte delle applicazioni dell’A.I. per il rilevamento e la prevenzione delle minacce utilizzano una versione del machine learning chiamata “unsupervised learning“, attraverso cui i set di dati raccolti vengono utilizzati per trovare dei pattern che a loro volta sono utilizzati per individuare anomalie, come spostamenti o cambiamenti insoliti dei file.

Rilevazione

L’intelligenza artificiale permette di passare da metodi di rilevamento statici (Signature Based Intrusion Detection System) che rilevano violazioni alla sicurezza informatica attraverso un’analisi del sistema alla ricerca di segni caratteristici delle violazioni informatiche, a metodi più dinamici e in continuo miglioramento. Gli algoritmi di A.I. sono in grado di rilevare qualsiasi cambiamento che appaia anormale, senza bisogno di una definizione anticipata di ciò che è anormale. In questo modo l’A.I. rappresenta un potente strumento per la qualificazione e l’indagine delle minacce che si rivela particolarmente utile per il monitoraggio delle indagini ad alto rischio, quali quelle nel settore dell’alta finanza. L’intelligenza artificiale è infatti in grado di riconoscere i cambiamenti significativi dei comportamenti degli utenti che possono rappresentare un rischio per la sicurezza.

Reazione

Grazie all’A.I. è possibile ridurre il carico di lavoro per gli analisti di cybersecurity. Ad esempio automatizzando in modo intelligente le ordinarie attività manuali ripetitive, come la ricerca dei segni di compromissione all’interno dei file di log, le risorse umane possono concentrarsi su attività a maggior valore e dare priorità alle aree a rischio. Inoltre i sistemi di reazione dotati di intelligenza artificiale possono intervenire in maniera proattiva e segregare dinamicamente le reti per isolare la informazioni di valore in luoghi sicuri o reindirizzare gli aggressori lontano da vulnerabilità o dati importanti.

Ad esempio il 28 marzo Microsoft ha annunciato il lancio di Security Copilot, l’ IA che semplifica e potenzia le capacità degli esperti di sicurezza, riassumendo e razionalizzando le informazioni sulle minacce e aiutando a identificare le attività dannose tra il rumore del traffico web. Il software supporta i team di sicurezza fornendo dettagli importanti, correlazione e riassunti dei dati sugli attacchi, prioritizzando gli incidenti e suggerendo la migliore linea d’azione.

Come sviluppare e implementare AI in sicurezza

Proprio secondo Microsoft nel mondo si verificano 1.287 attacchi password al secondo mentre secondo il Threat Landscape report 2022 dell’ENISA[1] la proliferazione di bot che creano personaggi virtuali può facilmente compromettere il processo di creazione delle normative, così come l’interazione tra comunità, inondando le agenzie governative con contenuti e commenti falsi.

In un contesto così ostile è fondamentale per le imprese, di tutte le dimensioni, elaborare una strategia di cybersecurity con solide fondamenta che tenga conto dei requisiti specifici a seconda del settore operativo: ad esempio il D. Lgs. n. 65/2018 che ha implementato la Direttiva NIS 1 richiede che le società rientranti nel suo ambito di applicazione siano tenute adottare misure tecniche ed organizzative adeguate e proporzionate rispetto alla gestione dei rischi cyber, dovendo altresì prevenire e minimizzare l’impatto degli eventuali incidenti di sicurezza subiti. Di recente è stata approvata anche la Direttiva NIS 2 che introduce obblighi di cybersecurity più dettagliati e stringenti, ed amplia l’ambito di applicazione anche a società che offrono ad esempio servizi digitali o sanitari.

La progettazione di soluzioni di sicurezza aziendale efficaci passa attraverso l’elaborazione di processi di governance, management e legal compliance della sicurezza IT basati su una strutturata e sistematica acquisizione e analisi di informazioni sia sui requisiti normativi applicabili che sulle possibili minacce cyber al fine di guidare, progettare, verificare e monitorare le adeguate contromisure. Le attività di Cyber Threat Intelligence[2] devono inoltre proseguire per tutto il ciclo di vita dei sistemi informativi aziendali, in quanto driver essenziali per la loro corretta evoluzione e fattore abilitante per l’implementazione di efficaci misure di difesa e prevenzione.

Note

  1. Il rapporto ENISA Threat Landscape (ETL) è il rapporto annuale dell’Agenzia dell’Unione Europea per la Cybersecurity, ENISA, sullo stato del panorama delle minacce alla sicurezza informatica.
  2. La Cyberthreat Intelligence rappresenta la capacità di Intelligence, ovvero di elaborazione strategica delle informazioni, sviluppata in ambito Cybersecurity. Include la raccolta e l’analisi di informazioni al fine di caratterizzare possibili minacce cyber dal punto di vista tecnico, di risorse, di motivazioni e di intenti, spesso in relazione a contesti operativi specifici.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3