A inizio 2022, l’Università di Stanford ha pubblicato il suo rapporto annuale sull’IA. L’AI Index Report tiene traccia, confronta, distilla e visualizza i dati relativi all’intelligenza artificiale. La sua missione è di fornire dati imparziali, rigorosamente controllati e di provenienza globale a responsabili politici, ricercatori, dirigenti, giornalisti, e il pubblico in generale per sviluppare una comprensione più approfondita e sfumata del complesso campo dell’IA. Il rapporto mira a essere la fonte più credibile e autorevole al mondo di dati e approfondimenti sull’IA.
Intelligenza artificiale: focus sulle questioni etiche
Il rapporto di quest’anno fa emergere che i sistemi di intelligenza artificiale stanno iniziando a essere ampiamente utilizzati nell’economia ma, allo stesso tempo che vengono implementati, le questioni etiche associate all’IA stanno diventando sempre più importanti. Parte di questo è naturale, tutto sommato, tendiamo a preoccuparci maggiormente degli aspetti etici di una determinata tecnologia quando viene più ampiamente utilizzata nel mondo. Ma parte di questo fenomeno è legata ai tratti peculiari dell’IA contemporanea, ovvero sistemi di IA più grandi, complessi e capaci che possono generalmente fare meglio su un’ampia gamma di compiti, mostrando, però, anche un maggiore potenziale per il sorgere di preoccupazioni etiche.
Questo è legato alla globalizzazione e industrializzazione dell’IA: una gamma più ampia di paesi sta sviluppando, implementando e regolando sistemi di IA come mai prima, e il risultato combinato di queste attività è la creazione di un insieme più esteso di sistemi di intelligenza artificiale disponibili per l’uso da parte delle persone e la riduzione dei loro prezzi.
Altre parti dell’IA non sono molto globalizzate, tuttavia, e l’analisi etica dell’università di Stanford rivela che molte pubblicazioni sull’etica dell’IA tendono a concentrarsi su sistemi e set di dati in lingua inglese, nonostante l’IA sia distribuita a livello globale.
Il rischio, quindi, è che mentre l’uso di sistemi di intelligenza artificiale in varie forme si sta democratizzando in tutto il mondo, le questioni relative all’etica potrebbero rimanere in qualche modo riservate ad un pubblico di nicchia, diminuendo di fatto l’informazione e la consapevolezza del grande pubblico sui rischi dell’IA ed aumentando, pertanto, le criticità.
Un’IA sempre più performante ma anche più pregiudicata?
L’ultimo periodo ha visto un continuo incremento della ricerca e dello sviluppo dell’IA nonché degli investimenti nel settore. L’investimento privato nell’IA nel 2021 è stato di circa 93,5 miliardi di dollari, più del doppio del totale rispetto al 2020, mentre il numero di società di IA di nuova costituzione continua a diminuire, da 1051 società nel 2019 e 762 società nel 2020 a 746 società nel 2021. Se l’investimento cresce, si sta però creando una forma di concentramento delle risorse e, pertanto, dell’innovazione.
Inoltre, da notare l’incremento del numero di brevetti AI depositati nel 2021, oltre 30 volte superiore rispetto al 2015, mostrando un tasso di crescita annuo del 76,9%.
Per migliorare i risultati tecnici dell’IA è stato necessario basarsi sempre più sull’uso di dati di allenamento aggiuntivi per impostare nuovi risultati all’avanguardia. Questa tendenza non solo favorisce maggiormente gli attori del settore privato con accesso a vasti set di dati ma riaccende, inoltre, le criticità legate all’uso massiccio di dati nell’IA.
Se sono necessari, infatti, molti dati perché i sistemi di intelligenza artificiale si sviluppino ma diventino anche più performanti, questo può contrastare con grandi principi della protezione dei dati personali, quali in particolare l’accuratezza, la qualità dei dati o la minimizzazione.
Modelli linguistici: capacità e pregiudizi
In questo senso, interessante notare come il report fa emergere che i modelli linguistici siano diventati più capaci che mai, ma comportino anche sempre più pregiudizi.
Così, i modelli linguistici di grandi dimensioni stanno performando nuovi record sul piano tecnico, mentre nuovi dati mostrano che questi modelli più grandi e più performanti sono anche più propensi a riflettere le distorsioni dai loro dati di addestramento. Recenti modelli sviluppati nel 2021 mostrano un aumento delle distorsioni pari al 29%.
Se da un lato, quindi, i sistemi stanno diventando significativamente più capaci nel tempo, l’aumento delle capacità, aumenta anche il potenziale di gravità dei loro pregiudizi.
Tuttavia, vale notare l’incremento delle ricerche sull’etica dell’IA ovunque. La ricerca sull’equità e la trasparenza nell’IA è esplosa dal 2014, con un aumento di cinque volte delle pubblicazioni correlate alle conferenze sull’etica. L’equità e il pregiudizio algoritmico sono passati dall’essere principalmente una ricerca accademica a diventare saldamente radicati come argomento di ricerca tradizionale con implicazioni ad ampio raggio. Negli ultimi anni i ricercatori con affiliazioni industriali hanno contribuito con il 71% in più di pubblicazioni anno dopo anno a conferenze incentrate sull’etica.
IA e lotta alle fake news
Negli ultimi anni, le piattaforme di social media hanno implementato sistemi di intelligenza artificiale per aiutare a gestire la proliferazione della disinformazione online.
Questi sistemi possono aiutare i verificatori di fatti umani identificando potenziali affermazioni false da esaminare, facendo emergere affermazioni simili precedentemente verificate o facendo emergere prove a sostegno di un’affermazione.
La verifica dei fatti completamente automatizzata è un’area di ricerca attiva. Nel 2017, infatti, la Fake News Challenge ha incoraggiato i ricercatori a costruire sistemi di intelligenza artificiale per il rilevamento della posizione e nel 2019 una società canadese di venture capital ha investito 1 milione di dollari in una competizione automatizzata di verifica dei fatti per false notizie.
Così, la comunità della ricerca ha sviluppato diversi parametri di riferimento per la valutazione dei sistemi di verifica automatica dei fatti, in cui la verifica della fattibilità di un’affermazione è posta come un problema di classificazione o punteggio (ad esempio, con due classi che verificano se l’affermazione è vera o falsa).
I risultati di ricerca dimostrano che l’accuratezza e lo sviluppo di tali sistemi automatizzati di fact-checking sono in costante evoluzione. Tuttavia, anche in questa occasione è emerso che la maggior parte dei dati usati per addestrare questi meccanismi e per aumentare la loro affidabilità sono in lingua inglese e in molti casi tratti dal sito di Wikipedia in inglese.
Pertanto, come già evidenziato innanzi, il rischio è che si crei, o piuttosto si rafforzi, una distorsione tra varie parti della popolazione mondiale non solo sull’accesso all’IA e alla ricerca ma anche sull’accesso ad una informazione accurata.
Un’IA sempre più regolamentata
Un’analisi dell’Indice AI dei documenti legislativi sull’IA in 25 paesi mostra che il numero di proposte di legge contenenti “intelligenza artificiale” che sono state approvate è cresciuto da 1 solo nel 2016 a 18 nel 2021. In particolare, Spagna, Regno Unito e Stati Uniti hanno approvato il numero più alto di fatture relative all’IA nel 2021, ciascuna delle quali ne ha adottate tre.
I verbali legislativi federale negli Stati Uniti mostrano un forte aumento del numero totale di proposte di legge relative all’IA dal 2015 al 2021, mentre il numero di proposte di legge approvate rimane basso, con solo il 2% che alla fine diventa legge. Così, i legislatori statali negli Stati Uniti hanno approvato 1 legge su 50 proposte che contengono disposizioni sull’IA nel 2021, mentre il numero di tali proposte di legge è cresciuto da 2 nel 2012 a 131 nel 2021.
In questo contesto, i lavori a livello europeo per l’adozione di un’AI Act sono sempre più l’occasione per l’Unione europea di affermarsi come un leader globale nella regolamentazione dell’intelligenza artificiale.