I sistemi di intelligenza artificiale stanno diventando sempre più efficaci nel modellare conversazioni e relazioni umane.
Il linguaggio umano potrebbe, infatti, rappresentare una delle ultime frontiere progettuali dell’Intelligenza Artificiale con inedite prospettive evolutive tra la tendenza a incrementare l’efficienza innovativa delle tecnologie verso scenari oggi impensabili di sviluppo e il rischio concreto di rilevanti pregiudizi che potrebbero amplificare online i discorsi d’odio alimentati da una dilagante violazione verbale fuori controllo, le informazioni fuorvianti e le fake news.
Ancora una volta, a fronte di una pressoché generale inerzia degli apparati statali, sono i colossi del web a trainare il settore affrontando una questione centrale nello sviluppo dell’intelligenza artificiale dei prossimi anni, da cui possono derivare non solo enormi potenzialità per migliorare in generale la vita delle persone, ma anche delicati aspetti problematici nell’ambito di un “lato oscuro” non ancora del tutto decifrabile legato al rapido e quanto mai incerto e imprevedibile perfezionamento degli algoritmi di apprendimento automatico.
Linguaggio naturale e intelligenza artificiale: a che punto siamo
LaMDA di Google
Google ha di recente lanciato il modello sperimentale LaMDA, basato sul funzionamento di un algoritmo di deep learning, insieme al progetto Multitask Unified Model (MUM) come modello di intelligenza artificiale che aumenta la comprensione delle domande umane e migliora la ricerca, con l’intento di sviluppare i suoi servizi di intelligenza artificiale conversazionale mediante l’implementazione di tecniche di apprendimento automatico in grado di “comprendere meglio l’intento delle query di ricerca” a fronte del progressivo accumulo di informazioni veicolate sul web che rende necessario realizzare sistemi tecnologici adeguati a riconoscere la versatilità di un linguaggio sempre più sfumato e adattabile.
La possibilità di distinguere il significato, letterale o figurato, delle parole, rappresenta quindi l’ultima sfida che le big tech intendono affrontare per fornire agli utenti servizi dedicati a sviluppare, grazie ad un’apposita interfaccia in grado di recuperare qualsiasi tipo di informazione (testo, video, audio), il flusso comunicativo della conversazione su specifici argomenti che, per loro natura, possono orientare qualsiasi tipo di discussione, funzionale non solo a comprendere il linguaggio utilizzato, ma anche a generarlo in combinazione con 75 lingue diverse nell’ottica di garantire una completa conoscenza delle informazioni attraverso testi e immagini, eliminando le barriere linguistiche di accesso ai contenuti veicolati online.
LaMDA (“Language Model for Dialogue Applications”), come evoluzione tecnologica dei sistemi BERT e GPT-3, basato sull’architettura neurale Transformer, risponde a tale finalità, superando i limiti degli attuali strumenti conversazionali (chatbot), che tendono a seguire percorsi ristretti e predefiniti, per monitorare un numero tendenzialmente infinito di argomenti, grazie alla capacità di leggere le svariate combinazioni relazionali tra le parole utilizzate, facendo riferimento alle diverse sfumature di significato persino filtrate dal criterio della ragionevolezza.
LaMDA si ispira a una precedente ricerca di Google, pubblicata nel 2020, da cui si evince che i modelli linguistici basati su Transformer addestrati al dialogo potrebbero imparare a parlare praticamente su qualsiasi cosa, con la possibilità di migliorare progressivamente la sensibilità e la specificità delle sue risposte, anche mediante la formulazione di affermazioni inaspettate o spiritose, nonché convincenti e corrette.
Tale progetto, realizzato con risorse open source, risulta peraltro conformato ai Principi di intelligenza artificiale che Google ha elaborato per lo sviluppo dei propri sistemi di IA, con l’intento di rendere tale tecnologia, che avrà un impatto sempre più significativo sulla vita delle persone, socialmente utile in condizioni effettive di sicurezza, innovazione scientifica e privacy, evitando di creare o rafforzare pregiudizi e discriminazioni, mediante l’utilizzo di processi di controllo appropriati.
Rassicurazioni e dubbi su LaMDA
Per dimostrare le capacità di LaMDA di affrontare conversazioni su qualsiasi argomento anche facendo riferimento a fatti ed eventi concreti (come la sonda spaziale che ha visitato Plutone nel 2015), l’azienda californiana ha mostrato alcuni video di presentazione di tale modello.
Nonostante le rassicurazioni da parte di Google sullo sviluppo dei propri modelli AI nel rispetto di adeguati standard di equità, accuratezza, sicurezza e privacy, di certo ha sollevato dubbi il recente licenziamento di Timnit Gebru, il co-lead del team “Ethical AI Group” di Google, dopo aver esaminato i rischi associati ai modelli linguistici che l’azienda californiana presenta ora come chiave per il suo futuro, evidenziando l’esistenza di una serie di errori nel processo di elaborazione del linguaggio offensivo e razzista che codifica pregiudizi razziali e di genere, di cui si è anche occupato anche il Mit Technology Rewiew.
Tanti modelli, poca consapevolezza
Sulla falsariga di Google, nel frattempo, anche altre grandi imprese hi-tech stanno a loro volta producendo modelli linguistici all’avanguardia presto disponibili sul mercato come sistemi integrati alla fornitura dei propri tradizionali servizi offerti (Facebook, ad esempio, sta investendo molto nell’elaborazione di tali modelli per automatizzare la moderazione dei contenuti condividi nella sua piattaforma a livello globale).
Sembra però risultare ancora esiguo il livello di consapevolezza sulle possibili criticità tecnologiche che potrebbero influenzare le persone al punto da impegnare attualmente più di 500 ricercatori in tutto il mondo per studiare le capacità e i limiti di questi modelli prima che sia troppo tardi, riducendo al minimo le conseguenze dannose, al netto dei possibili benefici fruiti verso una direzione il più possibile vantaggiosa.
Si tratta di un passo decisamente in avanti compiuto per verificare fino a che punto le potenzialità dell’IA possono essere spinte nel comprendere il linguaggio umano, sebbene alcuni studi mettano già ora in evidenza, in termini di preoccupanti effetti collaterali determinati da tali sistemi, come le idee razziste e sessiste possano essere incorporate in tali modelli, con il risultato di incoraggiare – anche indirettamente – il compimento di illeciti e condotte vietate, oltre alla diffusione incontrollata di disinformazione di massa.
Conclusioni
In altre parole sarebbe anche imperfetta e non neutrale la configurazione dei sistemi di intelligenza artificiale nel fornire risultati distorti a seguito del processo di elaborazione dei big data, che potrebbero consolidare pregiudizi e stereotipi online a causa della standardizzazione universale di un “vocabolario” che, al netto di un “background” terminologico negativo, potrebbe sempre più accettato e considerato “normale” dalla cultura globale dominante nelle dinamiche relazionali delle persone.
Se non si orienta l’implementazione sicura, sostenibile e non discriminatoria delle tecnologie, superando gli attuali problemi etici che emergono nel processo di innovazione digitale, restano concreti e particolarmente preoccupanti i rischi di diseguaglianze e discriminazioni destinati ad alimentare diffuse forme di profonda esclusione sociale.