Dopo il lancio di ChatGPT e di altri prodotti basati su modelli LLM, il settore della cybersecurity sta accelerando nell’adozione dell’IA come uno strumento fondamentale, in particolare nell’identificazione delle minacce, nonostante la natura dei dati del settore della sicurezza – sensibile e isolata – renda difficile ottenere set di dati completi e di alta qualità per addestrare e aggiornare un modello LLM.
Cosa dovrebbero fare dunque le aziende di sicurezza informatica?
Assumere il giusto mix di talenti
Innanzitutto, assumere all’interno delle proprie organizzazioni il giusto mix di talenti per introdurre le capacità di IA generativa nei loro prodotti. Assistiamo infatti ad un’accelerazione delle assunzioni di ingegneri specializzati in Intelligenza Artificiale a livello globale. Ad esempio guardando all’Asia, l’India è diventata un luogo fiorente per le multinazionali che vogliono stabilire centri di ricerca e sviluppo nell’ambito dell’intelligenza artificiale (AI) grazie al suo ampio bacino di talenti, che offre un grande potenziale di crescita.
Tra gli altri esempi, Fujitsu ha lanciato un nuovo centro di R&S sull’intelligenza artificiale, Fujitsu Research of India Private. Ma anche guardando al mercato italiano, l’innovazione della cybersecurity rappresenta una rilevante opportunità, considerando le dimensioni del mercato domestico che supererà i 2 miliardi di euro di spesa per le aziende nel 2024, con una parte rilevante di tale spesa assorbita da servizi di Security Operations Center, dove la leva dell’Intelligenza Artificiale può generare particolari benefici.
L’IA nell’industria del software
Fino a poco tempo fa, il lavoro (e il talento) legati all’intelligenza artificiale si sono concentrati tra i grandi fornitori di servizi cloud. Ora, si sta diffondendo in un più ampio spettro di settori e attività e anche le aziende di sicurezza informatica devono investire su questa tipologia di professionisti per tenersi al passo con i tempi. Infatti, L’IA generativa progredirà rapidamente ed è essenziale che tutte le parti interessate, dai fornitori di cybersicurezza alle imprese, aggiornino continuamente le loro conoscenze specialistiche e le loro strategie per trarre vantaggio da questa opportunità. L’intelligenza artificiale sta cambiando già l’industria del software, in particolare le funzioni di ingegneria, commerciali e di marketing. Quasi due terzi degli ingegneri software dichiarano di aspettarsi aumenti di produttività del 20% o più, e molti stanno già impiegando supporto della Generative AI. Circa il 39% delle aziende di software ha dichiarato come il principale ostacolo sia la mancanza di competenze tecniche specifiche; quindi, un investimento rapido nell’aggiornamento dei talenti da parte delle realtà attive sul fronte della cybersecurity potrebbe davvero offrir loro un importante vantaggio competitivo.
IA, le minacce concrete in ambito cybersecurity
Inoltre, le aziende del segmento devono proteggersi dalle false informazioni create dall’IA generativa e dalle manomissioni esterne degli algoritmi e dei modelli di IA generativa che potrebbero creare vulnerabilità backdoor.
Dda un lato, infatti, l’identificazione delle minacce racchiude il maggior potenziale dell’IA generativa per migliorare la sicurezza informatica, permettendo di individuare più rapidamente un attacco hacker e di valutarne meglio la portata e il potenziale impatto. Tuttavia, nonostante i suoi molteplici benefici, l’IA generativa potrebbe essere utilizzata anche come strumento per i cyberattacker, fornendo loro capacità simili a quelle dei difensori. Ad esempio, gli aggressori meno esperti possono usarla per creare e-mail o video più leggibili e interessanti, registrazioni e immagini deepfake più realistici da inviare ai loro target di phishing. L’intelligenza artificiale generativa consente inoltre di riscrivere facilmente il codice di un attacco hacker in modo che sia sufficientemente diverso da evitare il rilevamento. E la minaccia su questo fronte non potrà che aumentare man mano che l’IA generativa verrà utilizzata per standardizzare e aggiornare le tattiche, tecniche e procedure da parte degli hacker.
Tra le minacce più concrete, si segnalano i ceppi di malware che si auto-evolvono, creando varianti per attaccare un bersaglio specifico con una tecnica unica e un codice polimorfico non rilevabile dalle misure di sicurezza esistenti. Solo le operazioni di cybersecurity più agili potranno rispondere a questo tipo di rischio.
Un hacker ha di recente dichiarato di essere riuscito ad utilizzare l’intelligenza artificiale generativa per ricreare ceppi di malware da pubblicazioni di ricerca, come ad esempio uno stealer basato su Python che può cercare e recuperare tipi di file comuni (.docx, PDF, immagini) in un sistema. In generale, le menzioni sull’IA generativa sul dark web sono proliferate nel 2023.
I consigli
L’utilizzo dell’intelligenza artificiale nelle soluzioni di sicurezza informatica è ancora agli inizi e i progressi avverranno a un ritmo rapido; è importante che tutte le parti interessate aggiornino continuamente le proprie conoscenze e strategie di sicurezza informatica per trarre vantaggio dai nuovi progressi:
- Le aziende clienti devono comprendere che le soluzioni miracolose nel cyber sono un mito e che la Gen AI non semplificherà completamente le operazioni informatiche. Sarà importante continuare ad affrontare la sicurezza informatica in modo completo come un insieme di capacità su quattro pilastri chiave: governance, processi operativi, elementi organizzativi e tecnologia, allocando nel contempo tempo dei leader interni delle SecOps alla revisione, alla convalida e al controllo a campione delle dei risultati di performance dell’intelligenza artificiale
- I professionisti della Cybersecurity devono assicurare il giusto mix di talenti per creare e introdurre funzionalità di Gen AI nelle soluzioni informatiche, con un focus particolare sulle professionalità di data science & analytics in ambito SecOps per assicurare una continua e rapida evoluzione delle performance di “threat hunting and investigations” per minimizzare le potenziali “Allucinazioni” dei modelli di intelligenza artificiale, nonché l’evoluzione degli attacchi hacker sugli algoritmi di intelligenza artificiale.