L’uso inappropriato della cosiddetta “IA generativa” è soggetto a rischi a breve-medio termine e a rischi a lungo termine. Non per questo però devono essere trascurati da subito i rischi a lungo termine, dal momento che, specie in ambito informatico, la distanza temporale tra breve-medio termine e lungo termine si sta sempre più accorciando e affievolendo.
I rischi dell’IA generativa sul breve-medio termine
Tra i rischi del breve-medio termine rientrano sicuramente quelli del rispetto della privacy, dell’accentuazione dei fenomeni della disinformazione e del populismo, della sostituzione di determinate tipologie di lavoro umano.
Il precedente di TAY
Personalmente ho intuito questi rischi non ora con l’inasprirsi delle polemiche sull’utilizzo di Chat GPT versione 4, ma dal lontano 2016 con la sperimentazione da parte di Microsoft di TAY (Thinking About You), un modello di IA basato su rappresentazioni subsimboliche della conoscenza con cui sono state processate le informazioni presenti sul social Twitter.
Tale modello di IA ha iniziato a fornire sul social delle risposte offensive (soprattutto nei confronti delle minoranze deboli ed emarginate) e socialmente pericolose, tendendo ad assimilare il “pensiero comune” della maggioranza dei twitters. Un simile incidente si è ripetuto nel mese di novembre dell’anno scorso con la sperimentazione di Galactica di Meta, altro chatbot simile a ChatGPT istruito con 48 milioni tra articoli scientifici, siti web e libri tematici che, a detta di un gruppo di tester umani, era arrivato a formulare pericolosi falsi scientifici.
L’utilizzo dei chatbot intelligenti ha poi aperto una vivace discussione sui pericoli della sostituzione di attività umane anche aventi un carattere di forte specializzazione (es. giornalismo, opinionismo politico, organization counseling, marketing, ricerca etc.).
L’esperienza dell’ARS Marche e dell’AST Ancona
E’ per questo motivo che all’interno dell’Agenzia Regionale Sanitaria delle Marche e dell’Azienda Sanitaria Territoriale di Ancona, abbiamo iniziato a sviluppare dal 2016 delle metodologie per tracciare correttamente la fase di raccolta, pre-elaborazione e codifica dei dati, registrando l’origine dei dati e la qualità della fonte informativa utilizzata per addestrare l’IA (noi esperti di machine learning usiamo l’espressione “shit-in, shit-out” ovvero addestrando l’IA con dati falsi, incoerenti, incompleti o affetti da bias otteniamo sicuramente dei pessimi modelli addestrati di IA) e dall’altro dei modelli di IA che siano in grado di esplicitare la conoscenza acquisita, perché è solo in questo modo che si possono individuare immediatamente dei difetti nel modello di IA addestrato. Utilizziamo inoltre tale modello solamente per fornire supporto informativo ai decisori, sicuramente non per sostituire la loro attività.
Ne sono scaturite due pubblicazioni scientifiche importanti, la prima nell’ambito della conferenza HealthInf 2022 dove abbiamo presentato un sistema di supporto decisionale clinico basato sulla macchina non organizzata di Turing (UTM), la seconda nell’ambito della conferenza HealthInf 2023 dove abbiamo presentato il progetto AIEHEM, un sistema di supporto decisionale gestionale sempre basato sull’UTM di cui abbiamo pubblicato anche un articolo su AgendaDigitale.it e che parteciperà all’AIIC Awards 2023 (le lascio in allegato l’abstract del progetto che è stato preparato per il contest).
I rischi a lungo termine: la visione antropocentrica del concetto di intelligenza
Esistono però, come anticipato, anche rischi a lungo termine da non sottovalutare. E questi sono legati alla visione antropocentrica o antropomorfica del concetto di intelligenza, ovvero alla propensione che abbiamo di assimilare o comparare qualsiasi forma di intelligenza alla nostra. E questo può risultare estremamente pericoloso per il nostro stesso futuro. Mi spiego meglio.
Come egregiamente riassunto nell’articolo “L’intelligenza umana contro quella artificiale” di E.H.Korteling et al., tutti i modelli di intelligenza artificiale basati su reti neuronali si basano sull’emulazione di meccanismi di regolazione biologica quali l’apprendimento associativo, il potenziamento e facilitazione, la saturazione e inibizione laterale associate alla parte più primitiva del nostro cervello. Tutti meccanismi che ci hanno resi nel tempo dei temibili predatori, capaci di sviluppare strategie di gruppo e che ci hanno consentito di sopravvivere in ambienti estremamente ostili.
Intelligenza artificiale e bias umani
Da questi meccanismi primordiali sono scaturite le nostre abilità cognitive superiori assieme ai nostri bias che ci hanno sempre consentito di prendere decisioni in tempi rapidi. Tra questi l’anchoring bias che lega le nostre decisioni a tutte le informazioni acquisite in precedenza (rendendoci però particolarmente refrattari verso il nuovo), l’availability bias che ci porta a considerare un evento più probabile in base alla facilità con cui ne richiamiamo i casi sperimentati, il confirmation bias che ci porta ad operare una selezione dei nostri ricordi per confermare tutte le nostre convinzioni, il cognitive bias che ci porta a “semplificare” il processo di nuova informazione attraverso il filtro delle proprie preferenze ed esperienze personali o l’action bias che ci porta a ricorrere all’azione anche quando non è supportata da una giustificazione razionale.
LLM e supporto decisionale: i rischi da non sottovalutare
Ecco, quindi, che ricorrere a modelli come i Large Language Models (di cui GPT versione 4 ne è solamente l’ultimo esempio), può risultare particolarmente pericoloso specie se li si adotta per il supporto decisionale. Siamo davvero convinti che a prendere delle decisioni sul nostro futuro debba essere un modello di IA basato su capacità mentali ed istinti tipicamente predatori come quelli che caratterizzano la mente umana? Cosa potrebbe accadere se simili modelli di IA potessero accedere a tutta l’informazione e a tutte le risorse disponibili su scala globale?
L’importanza delle fonti della conoscenza dell’IA
Molto meglio sapere in ogni istante cosa si nasconde dietro le decisioni e le previsioni di un modello di IA, accedendo a tutte le sue conoscenze acquisite durante le fasi di autoapprendimento ed espresse utilizzando un formalismo logico ben comprensibile non solo dagli informatici, come avviene con le macchine non organizzate di Turing che stiamo sperimentando presso l’Agenzia Regionale Sanitaria delle Marche.
In questo modo possiamo suddividere tutta la conoscenza acquisita dalla nostra IA in vari moduli che possiamo analizzare e se lo riteniamo opportuno anche aggiornare o eliminare. Un po’ come avviene nella scena di 2001: A Space Odissey di Kubrik, dove il capitano David riesce a riprendere il controllo sul supercomputer di bordo HAL 9000 staccandogli gradualmente tutti i moduli che ritiene pericolosi.
Seguendo questa linea di pensiero si sta anche sviluppando il sistema MRKL (si legge “miracle”) di AI21 Labs, una piattaforma suddivisa in più moduli esperti, ognuno dei quali può essere aggiunto o rimosso, che afferiscono a due tipologie principali: i moduli neurali (i quali si rifanno tipicamente ai LLM) e i moduli simbolici (che si basano su basi di conoscenza di tipo logico come le UTM…).