Le capacità dei sistemi basati sull‘intelligenza artificiale sono indubbiamente impressionanti, come evidenziato di recente dal clamore suscitato da ChatGPT, il chatbot dell’azienda OpenAI. La sua capacità di comprendere i dialoghi e generare risposte sembra pari a quella di una persona reale. Non sorprende quindi che, in un periodo di disordini globali, alcuni sperino che gli algoritmi siano in grado di prevenire la prossima pandemia, combattere il cambiamento climatico o creare una società più inclusiva.
ChatGPT, perché ora l’intelligenza artificiale ci stupisce e spaventa
Ciò che queste idee, spesso anche piuttosto utopiche, frequentemente trascurano è il fatto che ogni sistema di IA è fondamentalmente limitato dai dati utilizzati per addestrarlo. In linea di massima, l’apprendimento automatico ha prestazioni peggiori quando i dati sono imprecisi, incompleti, irrilevanti, non validi, obsoleti o incoerenti. Cosa significa questa relazione fondamentale per la nostra attuale epoca di disordine globale, caratterizzata da numerose crisi, dall’aggressione della Russia all’impennata dell’inflazione e al caos climatico?
L’IA può essere molto utile anche in tempi di crisi, ma gli algoritmi che sono stati ottimizzati utilizzando dati convenzionali possono inconsapevolmente portare a decisioni sbagliate. È quindi necessario, soprattutto in ambienti sempre più automatizzati, applicare all’IA regole “adeguate al rischio” durante una crisi.
L’attuale crisi è un “rinoceronte grigio” o un “cigno nero”? Gli economisti usano spesso questi due termini per descrivere eventi imprevedibili o in lenta evoluzione però sempre con conseguenze estreme.
Cigni neri, rinoceronti grigi e policrisi
I modelli di intelligenza artificiale sviluppati o addestrati sulla base di periodi di relativa calma e stabilità possono fallire quando si verificano importanti shock esterni che segnalano l’inizio di periodi anomali. La natura intrinseca del rischio fa sì che questo problema non possa essere completamente evitato; un fenomeno per il quale l’ex trader di Wall Street, Nassim Nicholas Taleb, ha coniato l’espressione “cigni neri”. Si tratta di eventi imprevedibili con conseguenze estreme, come la crisi finanziaria del 2008 o la pandemia di Covid iniziata nel 2020.
Gli economisti usano anche il termine “rinoceronti grigi” per riferirsi a rischi noti e in lenta evoluzione che amplificano questi shock, come l’attuale alto livello di debito o il cambiamento climatico globale. Mentre i cigni neri e i rinoceronti grigi rendono difficile qualsiasi tipo di previsione, comprese quelle fatte dall’uomo, le applicazioni dell’IA sono molto più impenetrabili dei sistemi di previsione convenzionali. Sono più difficili da contrastare e possono dare origine a cicli di feedback negativi in tempi molto brevi e su lunghe distanze. Questo crea nuovi rischi sistemici. Primi esempi suggeriscono che, in caso di “policrisi”, i sistemi di IA predittivi possono addirittura risultare controproducenti.
La situazione si complica ulteriormente quando diversi shock si verificano contemporaneamente e creano interdipendenze generalmente inaspettate. Lo storico dell’economia, Adam Tooze, ha recentemente diagnosticato una policrisi di questo tipo. Tutto ciò aumenta la probabilità che gli algoritmi attualmente in uso siano stati sviluppati o addestrati sulla base di dati che potrebbero improvvisamente diventare irrilevanti. Quando i modelli di intelligenza artificiale vengono addestrati sulla base di insiemi di dati più piccoli rispetto alla popolazione che sono destinati a rispecchiare, ciò può portare alla cosiddetta perdita di dati (data leakage) ; un pericolo che sta già minacciando l’affidabilità dell’apprendimento automatico in molte discipline. I primi esempi suggeriscono che, in caso di policrisi, i sistemi di intelligenza artificiale predittiva potrebbero addirittura causare dei danni.
Finanza, medicina, sicurezza: l’intelligenza artificiale durante una crisi
Ad esempio, all’inizio della pandemia, i comuni strumenti americani di intelligenza artificiale per il rilevamento delle frodi con le carte di credito presupponevano, sulla base dell’esperienza passata, che la maggior parte degli acquisti venisse effettuata di persona, il che portava a classificare come problematiche molte transazioni virtuali. L’algoritmo raccomandava di negare milioni di acquisti legittimi, mentre i clienti in quarantena cercavano solo di procurarsi online alimenti o medicinali di base (e persino la carta igienica). Allo stesso tempo, problemi simili hanno afflitto gli strumenti di valutazione del credito guidati dall’IA del gigante tecnologico cinese Ant.
Gli esperti riconoscono sempre più che le previsioni dell’IA possono persino rafforzare le tendenze negative in situazioni complesse. Per affrontare le conseguenze della crisi degli oppioidi, le agenzie statunitensi hanno utilizzato un noto algoritmo per determinare il rischio di tossicodipendenza. Tuttavia, l’algoritmo ha spesso rifiutato il trattamento ai pazienti più vulnerabili durante la crisi o con una storia medica complessa. Una policrisi esaspera il potenziale di questi sistemi automatizzati di trasformarsi in “armi di distruzione matematici”.
I problemi sorgono anche con gli strumenti di IA nel settore della sicurezza quando si basano su dati storici e quindi potenzialmente distorti. Ad esempio, una minore presenza di polizia in una determinata area comporta di solito un minor numero di denunce penali, il che induce i sistemi di intelligenza artificiale specializzati nell’applicazione della legge ad allocare le risorse in altri luoghi. Questo, a sua volta, significa che l’area interessata viene monitorata ancora meno, aumentando la sua vulnerabilità, ad esempio, al sabotaggio di infrastrutture critiche. Lo stesso problema affligge i sistemi di IA predittivi utilizzati per il controllo delle frontiere, i cui errori di valutazione hanno rilevanza sistemica in tempi di migrazione causata dai cambiamenti climatici.
L’utilità degli strumenti di previsione basati sull’IA è limitata a settori ristretti come la finanza, la medicina o la sicurezza, ed esclude necessariamente altri ambiti della vita umana. Come osserva, Martin Wolf, pensare in “silos” intellettuali può essere efficiente in un mondo ragionevolmente stabile, ma fallirà inevitabilmente in una policrisi.
Nel suo libro “Weapons of Math Destruction – How Big Data Increases Inequality and Threatens Democracy”, Cathy O’Neil, una matematica americana, mette in guardia dai pericoli dei Big Data. Secondo una recente pubblicazione del CEP, una policrisi può esacerbare il potenziale dei sistemi automatizzati di trasformarsi proprio in queste “armi di distruzione di massa”.
Come possiamo mitigare i rischi di previsioni errate dell’IA?
In una certa misura, la raccolta di nuovi tipi di dati, la condivisione globale dei dati e gli standard comuni di dati possono portare a sistemi di IA migliori. Un’altra strada potrebbe essere l’apprendimento per rinforzo, che non dipenda da set di dati esterni. Tuttavia, queste alternative non rappresentano una panacea, poiché i cigni neri possono comparire in qualsiasi momento e la crescente velocità e interconnessione delle crisi rendono virtualmente impossibile identificare i dati rilevanti abbastanza velocemente e mantenerli sufficientemente aggiornati.
Garantire piuttosto condizioni quadro solide è la migliore difesa contro il rischio di previsioni AI errate.
La migliore difesa consiste quindi nel garantire la creazione di solide “condizioni quadro” nei negoziati di trilogo sulla legge europea sull’IA, prevista essere approvata nel 2023. L’approccio basato sul rischio, attualmente previsto, potrebbe non rivelarsi adeguato, poiché è impossibile conoscere il rischio dinamico di un sistema afflitto da crisi, soprattutto in ambienti in forte evoluzione. Se si accetta l’approccio basato sul rischio, si dovrebbe tenere anche conto dei pericoli che sorgono durante una policrisi, classificando quindi una percentuale maggiore di sistemi di IA come ad “alto rischio”. Sarà, inoltre, fondamentale effettuare controlli regolari sull’IA utilizzando personale e risorse tecniche sufficienti, senza sovraccaricare però le startup. Il punto di partenza per questo ragionamento ed evoluzione deve essere una maggiore attenzione da parte dei politici ed esperti di tecnologia al potenziale di danno dell’IA durante una policrisi.
(L’originale di questo articolo in lingua inglese è stato pubblicato su https://commongroundeurope.eu/ )