Quello che stiamo per lasciarci alle spalle è un anno particolarmente prolifico per l’intelligenza artificiale, sia da un punto di vista strettamente tecnologico che normativo.
Se, come europei, ci avviamo lentamente verso l’uscita dal tunnel legislativo che porterà al varo del cosiddetto “AI Act” nostrano[1], dall’altra parte dell’Atlantico gli americani non rimangono di certo a guardare.
Anzi. Con l’amministrazione Biden che spinge fortemente verso l’acceleratore, volendo surclassare l’Unione Europea nel suo stesso gioco[2], l’agenzia governativa a stelle e strisce NIST (National Institute of Standards and Technology) ha pubblicato una bozza di guida[3] (un draft) che mira a valutare la protezione dei dati personali da utilizzare con dispositivi alimentati dall’intelligenza artificiale. Stiamo parlando della cosiddetta “privacy differenziale”, una delle tecnologie di miglioramento della privacy più “mature” utilizzate nell’analisi dei dati.
Privacy differenziale, alla ricerca di un quilibrio tra privacy e accuratezza dei dati
Il NIST ha come obiettivo quello di aiutare le aziende che utilizzano l’Intelligenza Artificiale a trovare un equilibrio tra privacy e accuratezza dei dati. In questo settore, la mancanza di standard a cui “aggrapparsi” può rendere difficile qualsiasi utilizzo efficace della tecnologia in esame. La quale, come sappiamo, non è esente da “pregiudizi”.
Nella sua bozza di guida (che dovrebbe essere varata, nella sua versione definitiva, febbraio prossimo), il NIST esamina una “situazione difficile”: ricercatori del ramo sanitario che vorrebbero accedere ai dati dei fitness tracker (come Apple Watch per intenderci) dei consumatori per contribuire a migliorare la diagnostica medica. La domanda che ci si pone negli States è: come possono i ricercatori ottenere informazioni utili e accurate che potrebbero essere utili alla società, mantenendo allo stesso tempo “intatta” la privacy delle persone? Il NIST ha dichiarato che la bozza di guida, pur essendo stata concepita per le agenzie federali (come richiesto dall’amministrazione Biden), è utile al contempo per gli sviluppatori di software e i proprietari di aziende (tech e non solo) per comprendere come coniugare Intelligenza Artificiale e privacy differenziale tra loro.
Le tecnologie che migliorano la privacy sono l’unico modo per risolvere il problema di come sfruttare il valore dei dati proteggendo al contempo i dati personali degli utenti. Tuttavia, la privacy differenziale, che utilizza un aggregatore centrale o multiplo per aggiungere “rumore” lì dove vi è un trattamento dei dati, deve ancora maturare. Anche se, al momento, è il metodo migliore che conosciamo per fornire una solida protezione della privacy contro gli attacchi dopo che il modello alimentato dall’Intelligenza Artificiale è stato addestrato con successo. Certo, la privacy differenziale non impedisce tutti i tipi di attacchi; tuttavia, può aggiungere un livello di difesa in più lì dove serve.
La “piramide” della privacy differenziale
Per valutare correttamente la privacy differenziale, è necessario comprendere diversi fattori, che il NIST ha identificato e organizzato in una sorta di “piramide”. Il livello superiore (il “top” o la punta della piramide, per intenderci) contiene le misure più dirette a garantire la privacy di un sistema; il livello intermedio (“middle”) contiene i fattori che possono compromettere una garanzia di privacy differenziale; e il livello inferiore (“bottom”) è composto da fattori sottostanti ai primi due livelli, come il processo di raccolta dei dati.
I potenti modelli di Intelligenza Artificiale costruiti con il calcolo quantistico ampliano la superficie di attacco per le aziende che ospitano grandi quantità di dati “sensibili”, come quelli del ramo sanitario per intenderci. Qualsiasi informazione di carattere sanitario protetta (persino crittografata) potrebbe essere vulnerabile a un attacco di questo tipo[4]. In un futuro non troppo lontano, infatti, i computer quantistici potrebbero decifrare rapidamente la crittografia binaria, mettendo a serio rischio i dati sensibili delle aziende e degli utenti.
Crittografia ssimmetrica e asimmetrica
Proteggere i dati che si affidano alla crittografia a chiave pubblica (o “asimmetrica”) per la sicurezza dei dati è una priorità. Per “crittografia asimmetrica” si intende un sistema che utilizza coppie di chiavi per crittografare e autenticare le informazioni. Una chiave nella coppia è una chiave pubblica che, come suggerisce il nome, può essere ampiamente distribuita senza influire sulla sicurezza. La seconda chiave nella coppia è una chiave privata conosciuta solo dal proprietario.
Mentre nella crittografia simmetrica tutte le chiavi sono private e richiedono un canale sicuro per trasmettere le chiavi e il segreto di tutte le parti su tutte le chiavi, nella crittografia asimmetrica le chiavi pubbliche possono essere distribuite liberamente. Questa distribuzione pubblica consente comunicazioni crittografate e autenticate tra le parti che non hanno scambiato informazioni in precedenza tra loro.[5]
Conclusioni
Sebbene gli standard finali del NIST per la crittografia a chiave pubblica sicura, dal punto di vista quantistico, siano ancora in fase di definizione, gli stessi sembrano molto promettenti al momento per quanto riguarda la loro capacità di difendere i sistemi dagli attacchi quantistici. Staremo a vedere come si aprirà l’anno entrante che vedrà un’ulteriore evoluzione lato-normativo dell’approccio globale all’intelligenza artificiale. [6]
Note
[1] Regolamento sull’intelligenza artificiale: il Consiglio e il Parlamento raggiungono un accordo sulle prime regole per l’IA al mondo. Consiglio Europeo. https://www.consilium.europa.eu/it/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/
[2] FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. The White House. https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/
[3] NIST Offers Draft Guidance on Evaluating a Privacy Protection Technique for the AI Era. NIST. https://www.nist.gov/news-events/news/2023/12/nist-offers-draft-guidance-evaluating-privacy-protection-technique-ai-era
[4] NIST Announces First Four Quantum-Resistant Cryptographic Algorithms. NIST. https://www.nist.gov/news-events/news/2022/07/nist-announces-first-four-quantum-resistant-cryptographic-algorithms
[5] Cos’è la crittografia a chiave pubblica? SSL.com. https://www.ssl.com/it/faq/cos%27%C3%A8-la-crittografia-a-chiave-pubblica/
[6] NIST drafts privacy protection guidance for AI-driven research. Healthcare IT News. https://www.healthcareitnews.com/news/nist-drafts-privacy-protection-guidance-ai-driven-research