Negli ultimi cinque anni si è osservato l’inizio di una nuova rivoluzione tecnologica, paragonabile per impatti e sviluppi sull’umanità alle rivoluzioni industriali del XIX e del XX secolo, che coinvolge l’utilizzo massiccio dell’intelligenza artificiale in tutti i settori della società umana.
La magnitudo di questa rivoluzione, tuttavia, è ancora da comprendere appieno ed è per questo che diversi esperti di differenti settori hanno lanciato i primi segnali di allarme per quanto riguarda gli usi malevoli di questo strumento, proponendo alcune soluzioni per controllare lo sviluppo impetuoso di tale tecnologia.
La crescita esponenziale degli investimenti privati in IA
Una ricerca di Stanford sulla crescita del settore nell’ultima decade rivela una crescita esponenziale negli investimenti privati nel settore, decuplicati tra il 2013 e il 2023, ma anche un importante aumento delle controversie e gli incidenti legati all’uso di IA nei più svariati contesti.
Esempi e possibili rischi
Esempi del vasto e ad ora incontrollato impatto dell’intelligenza artificiale, ma soprattutto dei possibili rischi in un’implementazione massiccia nelle attività umane, sono sempre più diffusi ed intersettoriali. Tra di essi l’uso del software di “autoguida” nei veicoli Tesla, ha portato a investigazioni da parte dell’U.S. auto safety regulator, sulla scia di diversi incidenti fatali riportati in differenti stati USA in cui le macchine coinvolte erano abilitate con questo tipo di tecnologia.
Un altro caso riguarda la celebre chatbot di OpenAI, ChatGPT, la quale ha accidentalmente lasciato aperta la possibilità ad alcuni utilizzatori di scoprire dati personali di altri utenti, problema successivamente risolto ma che amplifica i numerosi dubbi sull’effettiva sicurezza di questa tipologia di strumenti.
In ambito militare, storicamente uno dei primi utilizzatori di tecnologie basate o supportate dall’ IA, ha sollevato dibattiti sulla sicurezza, sulla regolamentazione e sulle modalità di utilizzo di tali strumenti. Queste discussioni avvengono sia per i diversi incidenti sostenuti durante l’utilizzo degli stessi, in particolare da parte dell’esercito americano, che nei settori in attuale sviluppo, riguardanti l’intelligence, la difesa aerea, i droni e i veicoli senza pilota e che pongono interrogativi sull’eticità e il controllo effettivo che l’uomo può avere su macchine o strumenti capaci di agire in autonomia.
Una regolamentazione efficace per limitare i possibili danni
Gli esempi illustrati sono una piccola frazione delle attuali e future applicazioni di tale tecnologia, per la cui specifica pervasività, diversi esperti chiedono un restringimento nello sviluppo dell’IA e una efficace regolamentazione per limitare i possibili danni a cose e persone causati da un’intelligenza artificiale senza controllo.
Secondo il parere di un pool di accademici, tra i quali sono presenti Geoffrey Hinton e Yoshua Bengio, due dei cosiddetti “padri dell’intelligenza artificiale”, di fatto i sistemi di IA potrebbero superare rapidamente gli esseri umani in un numero sempre più ampio di funzioni e se tali sistemi non vengono accuratamente progettati e implementati, rappresentano una serie di rischi su scala globale soprattutto dal punto di vista della tenuta sociale. In potenza i sistemi di intelligenza artificiale potrebbero guadagnare la fiducia di esseri umani, acquisire risorse finanziarie e formare alleanze con attori umani e altri sistemi. Inoltre, la partecipazione attiva di questa tecnologia alla scrittura dei codici informatici in molteplici applicazioni darebbe alle IA la capacità di penetrare tali programmi e intervenire su diversi elementi fondamentali degli stati come le telecomunicazioni, le banche, le catene di approvvigionamento, le forze armate e i governi.
Yuval Harari, storico e scrittore del best sellers “Sapiens”, descrive in questo modo l’impatto dell’IA: “Cosa succederebbe una volta che un’intelligenza non umana diventa migliore dell’uomo medio nella narrazione di storie, composizione di melodie, disegno di immagini, e scrittura di leggi e testi sacri?” [….] “Pensate alla prossima gara presidenziale americana nel 2024, e cercate di immaginare l’impatto degli strumenti IA che possono essere fatti per produrre in massa contenuti politici, storie di fake news e testi sacri per i nuovi culti”.
Molti di questi rischi potrebbero essere amplificati e potrebbero esserne creati di nuovi, poiché le aziende stanno sviluppando apparati di intelligenza artificiale autonoma: sistemi in grado di pianificare e perseguire obiettivi in totale indipendenza. Nonostante gli attuali sistemi di IA abbiano un’autonomia limitata, le aziende del settore stanno lavorando per espanderne i limiti. Infatti, il settore, già ad ora rappresentante di un importante giro d’affari, è in continua espansione spinto dai grandi tech player statunitensi come Microsoft, Google, Amazon, Meta, Apple e Alphabet, i quali vogliono velocemente conquistare una fetta di mercato prima che gli enti regolatori statali ed internazionali inizino a muoversi.
Le diverse iniziative nel mondo per la regolamentazione del settore
Ad oggi ci sono diverse iniziative nel mondo per la regolamentazione del settore e del suo sviluppo ma ad ora le possibili bozze di legge sono in qualche caso in fase di discussione, come nel caso dell’Unione Europea e del suo EU AI Act, sul quale gli stati dell’unione ad ora sono in fase di negoziazione sulle modalità di attuazione. Nel caso degli USA invece, vi è un’opposizione da parte dell’industria del settore, corrispondente alle grandi big tech della Silicon Valley, che se da un lato si mostrano concilianti verso una prima forma di regolamentazione, dall’altro si oppongono a restrizioni severe come sono previste nel progetto di legge europeo. Sempre secondo Harari alcune soluzioni sarebbero da ricercare in normative del settore più severe: “Qualora le aziende tecnologiche adottassero misure di contrasto o rispondessero con una pena detentiva di 20 anni, si prevede che troverebbero rapidamente modi per impedire che le piattaforme diventino sovraffollate da persone false.”
Un’istituzione internazionale per la regolamentazione dell’IA
Un’ulteriore proposta arriva direttamente dai co-fondatori di ChatGPT Greg Brockman e Ilya Sutskever e il chief executive Sam Altman, i quali sostengono la necessità della creazione di un’istituzione internazionale per la regolamentazione dell’IA corrispettiva all’Agenzia Internazionale per l’Energia Atomica (IAEA), implementando dunque un coordinamento transnazionale sullo sviluppo di questa tecnologia.
L’Artificial Intelligence Risk Management Framework
Un primo passo verso una gestione più controllata e sicura nello sviluppo delle intelligenze artificiali è rappresentato dall’Artificial Intelligence Risk Management Framework, pubblicato dal National Institute of Standards and Technology (NIST) ad inizio 2023, il quale delinea una mappa concettuale per l’identificazione dei rischi nell’IA delineando i tipi generali e le fonti di rischio relativi all’IA e elencando diverse caratteristiche essenziali di un’IA affidabile tra cui: sicura, resiliente, spiegabile, interpretabile, rispettosa, equa, responsabile, trasparente, valida e attendibile. In più collega le dimensioni socio-tecniche dell’IA alle fasi del ciclo di vita di un sistema IA e agli attori coinvolti, fornendo un insieme di procedure e attività organizzative per valutare e gestire i rischi.
Conclusioni
L’appello verso un maggiore controllo nello sviluppo delle intelligenze artificiali è dunque multilaterale ed internazionale e alcuni passi verso delle prime forme di regolamentazione iniziano ad essere discussi e presi in considerazione. Le sfide più grandi di questo processo sono individuabili da un lato nell’effettiva collaborazione di attori esterni alla sfera di influenza occidentale come Cina e Russia, entrambe in fase di sviluppo di una propria industria di settore.
Dall’altro le tempistiche di implementazione di queste normative saranno fondamentali per evitare una “corsa all’IA” che rischia di diventare incontrollata in tempi rapidi, soprattutto in un contesto generalizzato di crisi e competizione globale e di importanti investimenti nel settore. Come in tutti le grandi rivoluzione tecnologiche della storia umana è evidente che nei prossimi anni episodi di incidenti, attacchi o crimini legati a tecnologie basate su programmi di IA si moltiplicheranno dati i sempre più numerosi campi d’applicazione di questi strumenti. Fondamentale è e sarà la consapevolezza pubblica del tipo di problematiche che pone questo tipo di sistemi.
Conseguentemente i metodi che saranno sviluppati per determinare un efficace controllo senza tarpare lo sviluppo di questa potente tecnologia, influiranno sul futuro sviluppo della comunità umana.