L’evoluzione dell’intelligenza artificiale pone, tra le principali priorità applicative, il problema di ridurre al minimo gli effetti collaterali, sfruttando al contempo, in un’ottica di convergenza digitale, i benefici fruibili grazie al pervasivo processo di innovazione.
Prendendo atto proprio delle connotazioni dannose che può assumere l’evoluzione tecnologica e alla luce della possibile lesività di cui è portatrice l’intelligenza artificiale, è stata lanciata la prima versione della piattaforma Bloom.
Si tratta di un sistema linguistico multilingue di Intelligenza Artificiale, progettato da oltre 1.000 ricercatori e distribuito gratuitamente, come modello innovativo dotato di elevate capacità di calcolo con dimensioni più grandi rispetto agli equivalenti GPT-3 di OpenAI e LaMDA, da cui diverge, con particolare riferimento alla loro impostazione proprietaria “chiusa”, per le modalità “aperte” nel relativo uso.
Ma davvero può essere una svolta?
L’intelligenza artificiale e il linguaggio umano
Prima di addentrarci nel modello Bloom, partiamo dal presupposto che il linguaggio umano potrebbe rappresentare una delle ultime frontiere progettuali dell’intelligenza artificiale.
Negli ultimi anni, infatti, si sta affermando, grazie al progressivo perfezionamento dei sistemi di IA, un modello di linguaggio universale trasformatore e predittivo sempre più versatile e adattabile, in grado di estrapolare e processare una quantità elevata di informazioni dettagliate e distinguere il significato, letterale o figurato, delle parole. Così, grazie alla codifica dei dati raccolti l’IA è in grado di eseguire un’ampia varietà di attività tradizionalmente riservate alla creatività umana, mediante la riconversione – anche tridimensionale – di messaggi di testo e di immagini funzionali alla creazione di concetti visivi generati combinando gli input provenienti dall’ambiente esterno all’esito di un dinamico processo di costante apprendimento destinato a rimodellare le conversazioni relazionali umane.
Cos’è Bloom
Il modello Bloom è stato addestrato nella sua versione basica partendo dalle specifiche tecniche del supercomputer Jean Zay, in collaborazione con uno dei maggiori centri di ricerca attivi nel settore (Institute for Development and Resources in Intensive Scientific Computing – IDRIS), al fine di pianificare le simulazioni sperimentali su larga scala e incrementare la ricerca di calcolo ad alte prestazioni nello sviluppo degli algoritmi.
In particolare, Bloom, sviluppato da BigScience, rappresenta un “Large Language Model (LLM) autoregressivo, addestrato per continuare il testo da un prompt su grandi quantità di dati di testo utilizzando risorse computazionali su scala industriale”. Il sistema è in grado di creare, in auto-apprendimento, testi dal contenuto nuovo, originale e creativo, difficilmente distinguibile da quello umano, redatti in 46 lingue – di cui 13 lingue indiane e 20 africane (comprensive di varianti dialettali locali, come il catalano), mediante ben 13 linguaggi di programmazione combinati tra loro grazie a 176 miliardi di parametri.
Il modello linguistico multilingue “più grande del mondo”
In altre parole, si tratta del modello linguistico multilingue “più grande del mondo”, caratterizzato da una configurazione tecnica “aperta” che consente di condividere i relativi dati in completa trasparenza per permettere ai ricercatori di studiare le applicazioni ivi implementate nel rispetto dei termini formalizzati dalla licenza Responsible AI License (cd. “RAIL” v1.0).
“RAIL” è una licenza OpenSource, ispirata alla metodologia applicativa della cd. Open Source Initiative, che pertanto non impone, salvo stringenti ed eccezionali limitazioni, alcuna restrizione generale al riutilizzo, alla distribuzione, alla commercializzazione e all’adattamento del modello, nell’ottica di stimolare la condivisione collaborativa del sistema in grado di assicurare il rapido e sostenibile sviluppo evolutivo dell’Intelligenza Artificiale.
Poiché i modelli linguistici di grandi dimensioni possono avere un impatto negativo sulla sfera individuale delle persone nei casi di manipolazione impropria di tali strumenti, per garantire il rispetto effettivo dei principi di equità, responsabilità, trasparenza, spiegabilità e solidità dell’IA, la scelta di un simile approccio mira altresì a garantire la “mitigazione dei rischi” che si possono manifestare nell’implementazione tecnica dei modelli di IA per evitare o ridurre la verificazione massiva di danni a discapito delle persone, grazie alla conoscibilità del codice sorgente in formato aperto, suscettibile di costante perfezionamento. Un esame “multistakeholder” nella predisposizione del lavoro tecnico necessario al miglioramento dei relativi standard, conforme a quanto recepito in una vera e propria “Carta etica”, approvata all’esito di un processo collaborativo dal basso, grazie al contributo trasversale e multidisciplinare di esperti attivi nel settore informatico, giuridico e filosofico.
Le linee guida etiche di riferimento
Di fronte ai possibili difetti e ai rischi rilevati, le linee guida etiche di riferimento – costantemente aggiornate nell’ambito di un dinamico adeguamento alle novità dell’innovazione tecnologica – fungono da principi operativi distintivi di Bloom, nell’ottica di promuovere una serie di valori fondamentali destinati alla comunità dei ricercatori, sia individualmente che collettivamente considerati, per focalizzare, tra le principali priorità di sensibilizzazione generale, la rilevanza di specifiche questioni eticamente e giuridicamente centrali nel processo di implementazione tecnica dei sistemi di intelligenza artificiale che si realizza in sede di analisi, pubblicazione e divulgazione scientifica.
In realtà, la definizione teorica di principi etici a presidio dello sviluppo applicativo dei sistemi di intelligenza artificiale non rappresenta una novità assoluta nel panorama tecnologico. Ad esempio, anche il modello sperimentale LaMDA, come evoluzione tecnologica dei sistemi BERT e GPT-3, basato sull’architettura neurale Transformer, risulta progettato con risorse open source, conformi ai Principi di intelligenza artificiale che Google ha elaborato con l’intento – sebbene non ancora del tutto scevro da incongruenze e critiche – di rendere tale tecnologia socialmente utile in condizioni effettive di sicurezza, innovazione scientifica e privacy, nel rispetto di adeguati standard di equità e accuratezza.
GPT-3: i rischi del deep learning applicato al linguaggio naturale
I pregiudizi invisibili delle reti neurali multimodali
In uno scenario futuristico sempre più complesso è possibile cogliere complesse implicazioni che tratteggiano l’ambiguo doppio volto dell’IA, nell’ambito di un preoccupante lato oscuro tecnologico dalle criticità operative ancora non del tutto chiare e comprensibili, come dimostra la recente progettazione delle reti neurali multimodali OpenAI, GPT-3 e DALL-E (recentemente implementata nella nuova versione DALL-E 2). Senza disconoscere le straordinarie innegabili potenzialità offerte dalla progettazione di tali modelli in grado di rivoluzionare la società nel suo complesso, alcuni studi sottolineano il rischio di invisibili pregiudizi algoritmici dagli effetti discriminatori su larga scala codificati nei processi decisionali che ne condizionano il relativo funzionamento tecnico, senza dimenticare il pericolo di una dilagante circolazione fuori controllo di campagne di disinformazione online. Proprio per tale ragione, viene da tempo invocata la necessità di una supervisione umana e automatizzata come indispensabile fattore operativo di controllo volto a garantire adeguate condizioni di sicurezza e tutela dei diritti secondo un approccio “umano-centrico” su cui basare lo sviluppo dell’intelligenza artificiale.
Al netto dei possibili progressi positivi configurabili nell’immediato futuro – ancora tutti da dimostrare in mancanza di evidenze certe riscontrabili nella concreta prassi – resta centrale e tutt’oggi irrisolto, anche a causa della mancanza di efficaci politiche innovative edificate a presidio di un solido e invulnerabile ecosistema digitale, il problema di assicurare il potenziamento dei modelli linguistici di intelligenza artificiale secondo standard affidabili, sicuri e sostenibili, nel rispetto del diritto alla privacy per evitare qualsivoglia conseguenza dannosa in grado di compromettere la tutela individuale delle persone.