La gestione dell’incertezza nell’intelligenza artificiale è al centro del lavoro innovativo di Sharon Yixuan Li e punta a rendere i modelli di IA non solo intelligenti ma anche sicuri e utili per l’umanità.
Ma perché proprio l’incertezza?
Un’intelligenza artificiale che sa di non sapere
Se da un lato siamo abituati a un’intelligenza artificiale che valica ogni giorno nuovi confini, superando sempre nuovi ostacoli, in una traiettoria di progresso costante, dall’altro, riflessioni di carattere etico-normativo ci hanno anche insegnato a guardare con sospetto i risultati in questione, a metterli in prospettiva e a porci domande più generali sui benefici e sugli eventuali danni che lo sviluppo di una certa tecnologia, o una sua particolare applicazione, potrebbero avere.
Quello a cui forse siamo meno abituati, però, e che per questo potrebbe sorprenderci, è che un elemento chiave dei sistemi di IA è costituito proprio dall’incertezza, intesa come capacità di riconoscere un dato come incerto e accompagnata quindi dalla necessità che l’IA sappia di non sapere. Quasi ironicamente, perciò, troviamo incarnato nell’IA il motivo socratico del sapere di non sapere (implicato dal motto greco gnothi seauton, conosci te stesso, ovvero riconosci i tuoi limiti, e la tua limitatezza). Ci troviamo così di fronte all’immagine di un’IA che, anziché procedere sempre oltre, matematizzando tutto, si ferma a chiedersi che cosa non sa. Al di là dell’ironia superficiale, però, questo elemento nasconde un aspetto molto interessante, sia a livello generale sia a livello tecnico.
Sicurezza e affidabilità dell’IA
Saper classificare un’immagine o un testo come incerto, perché sconosciuto, o come nuovo è un elemento centrale per sviluppare una IA affidabile e, per questo, anche più sicura. Così ritiene fermamente Sharon Yixuan Li, Professoressa associata al Dipartimento di Computer Sciences dell’Università del Wisconsin-Madison, che è stata nominata “Innovator of the Year” under 35 dal MIT Technology Review lo scorso settembre. Il suo lavoro ruota attorno al concetto di sicurezza, ovvero ha lo scopo di far sì che i modelli di IA siano non solo intelligenti, come ci ricorda il nome, bensì anche sicuri e utili per l’umanità, nel suo complesso.
Rilevare i i dati OOD
In particolar modo, sicurezza e affidabilità dei sistemi di IA vengono promossi da Sharon Yixuan Li tramite la rilevazione dei cosiddetti “out of distribution data” (detti anche dati OOD). La professoressa, infatti, ha sviluppato uno dei primi algoritmi in grado di rilevare i dati OOD per i deep neural networks. E proprio per questi suoi lavori è stata premiata.
Il problema dei dati OOD nasce dal fatto che generalmente i sistemi di IA non sono in grado di discernere tra ciò che sanno e ciò che non sanno ed è proprio da questa mancanza di consapevolezza che secondo Li deriva la maggior parte dei disastri causati dall’IA. Il problema, dunque, non sarebbe che il sistema è disegnato per produrre del male, o che funziona male in un determinato caso, ma in questa incapacità di identificare quello che non si sa, e di conseguenza dal comportarsi come se lo si sapesse, anche quando questa assunzione è falsa.
I deep neural networks, infatti, sono spesso allenati sulla cosiddetta close-world assumption, ovvero l’assunzione in base alla quale ciò che è vero è anche conosciuto per vero e, per converso, ciò che è sconosciuto è falso. Al contrario, la open-world assumption prevede che ciò che è sconosciuto non per questo deve essere falso. La prima assunzione se è valida in fase di training, risulta chiaramente problematica nel mondo reale, in cui le situazioni nuove o OOD sono numerose, creando un collasso nelle performance dei sistemi di IA: un sistema di IA ideale dovrebbe generalizzare gli esempi fuori distribuzione (OOD) ogni volta che è possibile e segnalare quelli che sono al di là delle sue capacità, in particolare richiedendo l’intervento umano.
L’importanza di saper identificare l’ignoto
Così, un buon classificatore di immagini o di testo non dovrebbe solo produrre predizioni accurate in contesti conosciuti, ma anche identificare l’ignoto, evitando di assegnare in modo casuale una immagine o un testo sconosciuti all’interno di una categoria nota o, come abbiamo detto, richiedere l’intervento umano, se necessario. Identificare correttamente l’ignoto come tale diventa infatti utile per evitare danni a cose o a persone se il sistema in questione è inserito in un’auto a guida automatica, per esempio, dove classificare male un oggetto sconosciuto, come sappiamo dai casi di cronaca, può essere di vitale importanza per qualcuno. Ma può servire anche in casi meno eclatanti ma non per questo eludibili, come l’incidente accaduto alla Moscow Chess Open Competition, il 19 luglio 2022, quando un robot ha fratturato il dito di un bambino di 7 anni, avendolo classificato come un pezzo degli scacchi.
I diversi tipi di dati OOD
Anche un lavoro di classificazione dei casi problematici diventa allora centrale. Esistono infatti diversi tipi di dati OOD. In particolare, possiamo individuare: lo spostamento delle covariate (quando la distribuzione degli input cambia tra l’addestramento e l’applicazione e la distribuzione degli output rimane invariata), lo spostamento semantico (o di classe), l’incertezza dell’etichetta e lo spostamento della sottopopolazione. Ed esistono diversi modi per tener conto di questa problematica e, di conseguenza, diverse tecniche per tenerla a bada (Yang, Zhou, Li & Liu 2022 ne individuano e analizzano cinque sottocategorie).
Cosa deve fare un’IA per essee affidabile
Come sostengono dei ricercatori di Google per essere affidabile un sistema deve:
- riportare accuratamente l’incertezza sulle proprie previsioni (“sapere ciò che non sa”);
- generalizzare in modo robusto su nuovi scenari (spostamento della distribuzione);
- essere in grado di adattarsi in modo efficiente a nuovi dati (adattamento).
Se il sogno di una comprensione onnipervasiva, una biblioteca di Babele infinitamente e indefinitamente accresciuta, insieme al sogno di poter conoscere e modellizzare tutto continuano a essere sogni, sono tuttavia più vicini quando, come in questo caso, ci si renda conto che conoscere l’incertezza e i propri limiti è un passo fondamentale proprio in questa direzione e che vale non solo per gli esseri umani, ma anche per i sistemi basati sull’IA che proprio così diventano più affidabili e che richiedendo l’intervento umano possono quanto meno fermare un processo o metterne in dubbio i risultati. Se poi l’essere umano sia o non sia un giudice più affidabile, in che misura debba intervenire e fino a che punto aprire le porte al dubbio non diventi un inibitore di qualsivoglia decisione sono altre questioni, certo non meno interessanti da affrontare.
Bibliografia
Heikkilä, Melissa (Sept. 2023). “2023 Innovator of the Year: As AI models are released into the wild, Sharon Li wants to ensure they’re safe”, MIT Technology Review, September 12, 2023
Jingkang Yang, Kaiyang Zhou, Yixuan Li, Ziwei Liu (2022), “Generalized Out-of-Distribution Detection: A Survey”, https://doi.org/10.48550/arXiv.2110.11334
Tran, Dustin and Balaji Lakshminarayanan (July 2022), “Towards Reliability in Deep Learning Systems”, https://blog.research.google/2022/07/towards-reliability-in-deep-learning.html