L’intelligenza artificiale (AI), in prima linea nell’innovazione aziendale, sembrerebbe un concetto relativamente nuovo ma, secondo una ricerca ESG, l’83% dei fornitori di servizi tecnologici ne ha già adottato l’IA generativa (GenAI).
Oggi sono disponibili sul mercato migliaia di strumenti di GenAI per i quali, ogni mese, vengono lanciate decine di nuove applicazioni dedicate. Probabilmente più della metà dei dipendenti la sta già utilizzando per migliorare la propria produttività e si prevede che la sua adozione crescerà man mano che saranno disponibili applicazioni per nuovi casi d’uso. Purtroppo, però, la maggior parte delle applicazioni GenAI di terze parti non viene verificata o approvata per un utilizzo lavorativo, e non è stata sviluppata secondo standard di sicurezza enterprise, esponendo le aziende a gravi rischi causati da link dannosi che possono agevolare l’ingresso di malintenzionati.
Indice degli argomenti
IA e produttività: le potenzialità
Se da un lato gli strumenti di AI offrono l’incredibile potenziale di massimizzare la produttività dei dipendenti e di consentire a un’azienda di incrementare fatturato e profitti, dall’altro nascondono rischi nuovi e complessi, mai visti prima. Spetta ai responsabili aziendali e ai loro team IT mettere la forza lavoro nelle condizioni di utilizzare con fiducia gli strumenti di intelligenza artificiale, assicurando consapevolezza, visibilità, controlli, sicurezza dei dati e prevenzione delle minacce. Una volta che i team di security sanno cosa viene utilizzato e in quale modo, possono prevenire eventuali fughe di dati e salvaguardare l’azienda dalle minacce.
Scenari applicativi dell’IA: i rischi
L’intelligenza artificiale in sé si applica a scenari molto differenti tra loro, promettendo di portare benefici altrettanto variegati: tra questi, ottimizzazione della supply chain, automazione dei processi, chatbot del servizio clienti, assistenti virtuali, analisi dei dati, monitoraggio della logistica, rilevamento delle frodi, intelligenza competitiva e altro ancora. Quali sono però i potenziali rischi legati a queste diverse applicazioni?
- Compagnie aeree, hotel, tour operator e agenzie di viaggi stanno realizzando assistenti virtuali alimentati da LLM per consentire all’utente di gestire autonomamente le proprie prenotazioni. Ma cosa succederebbe se l’azienda si affrettasse a lanciare l’applicazione sul mercato senza tenere nella giusta considerazione le potenziali vulnerabilità della catena di fornitura nell’ecosistema dell’app, compreso il rischio di avere pacchetti e modelli di AI e machine learning (ML) corrotti?
- Le aziende farmaceutiche puntano a utilizzare ricerche, sperimentazioni e risultati già disponibili per addestrare i modelli, accelerando così la propria capacità di portare il prossimo farmaco sul mercato. Ma cosa succederebbe se l’azienda sfruttasse un modello open-source addestrato su dati “avvelenati” in cui risultati di sperimentazione fossero errati o fuorvianti?
- Le società immobiliari stanno costruendo applicazioni online per aiutare gli utenti a trovare il loro prossimo immobile e a definire l’offerta più appropriata in base ai dati di mercato. Ma cosa succederebbe se l’applicazione fosse soggetta ad attacchi di tipo prompt injection che permetterebbero ai malintenzionati di correggere il mercato a spese degli abituali acquirenti di case?
Come sfruttare l’IA senza compromettere la sicurezza
Indipendentemente dal loro punto di vista sull’adozione dell’AI, è chiaro che le aziende che hanno avviato già i primi progetti operativi stanno ottenendo un vantaggio competitivo. Ma non è così semplice inserire un modello di AI in uno stack infrastrutturale esistente per poter raggiungere i propri obiettivi. Si tratta di aggiungere un intero nuovo stack di intelligenza artificiale che comprende modello, catena di fornitura, plug-in e agenti, e fornirgli accesso a dati interni sensibili per addestramento e inferenza, un processo elaborato, che comporta una serie di nuove complessità in tema di protezione.
Come sfruttare quindi il potenziale dell’AI senza compromettere la sicurezza?
- Il percorso verso un’efficace protezione delle applicazioni alimentate da intelligenza artificiale inizia con la loro scoperta. Bisogna essere in grado di individuare e avere sotto controllo ogni componente dell’ecosistema di applicazioni di AI, compresi app, modelli, dataset di inferenza e di addestramento e plug-in.
- Successivamente, è necessario comprendere la propria postura di sicurezza per identificare e correggere possibili falle nella supply chain e nella configurazione, nonché individuare i rischi di esposizione dei dati alle proprie applicazioni di intelligenza artificiale. Identificando le app a maggiore rischio potenziale, è possibile analizzare i pericoli del set di dati di addestramento e il potenziale livello di rischio per l’azienda.
- In seguito, bisogna proteggersi dai rischi di runtime a cui è esposta l’applicazione una volta distribuita all’esterno. Gli attaccanti sono consapevoli della velocità con cui le nuove applicazioni di intelligenza artificiale vengono sviluppate e immesse sul mercato e hanno ideato un arsenale crescente di attacchi specifici per l’AI, nella speranza di sfruttare nuovi componenti non testati e punti deboli nella sicurezza generale di queste applicazioni. Dotare i componenti delle applicazioni di AI di meccanismi di protezione runtime aiuta a proteggere il modello da usi impropri, come ad esempio le tecniche di prompt injection per far trapelare i dati dei clienti o attaccanti che usano i modelli per generare malware.
Cosa devono fare le aziende
C’è grande entusiasmo di fronte alle possibilità dell’AI, e le prospettive che questa nuova tecnologia offre sono davvero trasformative, ma è necessario considerare allo stesso modo i rischi correlati per affrontarli in modo adeguato, e permetterle di sprigionare il suo pieno potenziale.
Una soluzione di sicurezza completa aiuterà a sviluppare applicazioni AI con fiducia, dalla progettazione, alla realizzazione fino all’esecuzione. Le aziende possono – e devono – prendersi il tempo necessario per valutare come consentire ai propri dipendenti di utilizzare queste applicazioni in modo sicuro ed evitare rischi di compromissione che potrebbero minare in modo significativo attività e produttività.