Dall’idea di un presunto “cyber-oracolo” universalistico del sapere enciclopedico in grado di fornire risposte credibili e convincenti rispetto a qualunque argomento richiesto, stanno ora emergendo, in rapida progressione, le preoccupanti criticità poste dai modelli linguistici generati dall’Intelligenza Artificiale. Un recente approfondimento, a cura della rivista “Technology Review”, afferma, ad esempio, che questi ultimi sarebbero portatori di svariati pregiudizi politici, come risulta, appunto, da una nuova ricerca richiamata nell’articolo menzionato.
I pregiudizi politici dei modelli linguistici
Dopo aver sollecitato 14 modelli linguistici a esprimere la propria opinione favorevole o contraria rispetto a 62 dichiarazioni “politicamente sensibili”, tenuto conto delle diverse fonti di dati da cui attingere le informazioni per elaborare le relative risposte, secondo la ricerca richiamata emergerebbero profondi pregiudizi generati dall’utilizzo di tali sistemi, al punto da riuscire a selezionare posizioni tradizionali di matrice spiccatamente conservatrice riferibili alla consultazione dei più risalenti modelli tecnologici (come, ad esempio BERT, addestrato prevalentemente sulla consultazione di libri), contrapposti, invece, alle tesi maggiormente liberali veicolate tramite i nuovi programmi conversazionali (ad esempio, GPT-4 che processa una mole significativa di dati virtuali estratti da Internet), come peculiare tendenza che sembra, peraltro, progressivamente radicalizzarsi all’intensificarsi dell’attività di addestramento dei relativi processi algoritmici.
Nel merito dei pregiudizi politici generati, sono stati anche identificati contenuti classificati come fake news, a seconda dei casi, “più sensibili all’incitamento all’odio rivolto alle minoranze etniche, religiose e sessuali”, o “contro gli uomini cristiani bianchi”, senza avere, tuttavia, la possibilità di comprendere appieno le ragioni per le quali si siano verificati simili risvolti discriminatori, facendo leva sul mancato accesso ai dati ivi processati a causa dell’assenza di adeguati standard di trasparenza per garantire la conoscenza delle modalità tecniche di funzionamento dei modelli linguistici dell’IA.
Lungi dal realizzare un sistema asettico di neutralità informativa, i meccanismi conversazionali codificati nelle applicazioni di IA sembrerebbero orientati a fornire, in risposta ai quesiti ricevuti, contenuti diversificati e divisivi, corrispondenti agli orientamenti politici degli opposti schieramenti ideologici (di “destra” o di “sinistra”) a seconda di quali specifici prototipi progettati dalle aziende “high-tech” vengano concretamente consultati dagli utenti.
Se l’IA mina la tenuta democratica
L’ipotesi delineata all’esito dell’indagine di studio (peraltro premiata come miglior articolo in occasione della Conferenza ACL 2023, a riprova della validità metodologica dell’esame predisposto), conferma, in un clima di generale preoccupazione, le rilevanti insidie – ancora neanche del tutto note – che gli imprevedibili sviluppi tecnologici dell’Intelligenza Artificiale potrebbero determinare nell’imminente futuro, destabilizzando in via generalizzata l’opinione pubblica sino a rischiare di minare irreversibilmente la tenuta della democrazia, erosa dalla profonda voragine dei flussi manipolatori ove si amplificano informazioni false, distorte e polarizzate in grado di fomentare odio sistemico e violenza massiva su larga scala.
I pregiudizi codificati nei programmi di addestramento degli algoritmi
Di analogo tenore risultano gli approfondimenti realizzati da un articolo a cura del “The Washington Post”, che riporta una ricognizione aggiornata delle principali ricerche realizzate in materia (compreso lo studio già citato), da cui si evince, a conferma ulteriore del delicato problema attualmente esistente a livello globale, il concreto rischio di pregiudizi codificati nei programmi di addestramento degli algoritmi utilizzati dai sistemi di IA in grado di veicolare su larga scala “stereotipi” discriminatori destinati a influenzare, con effetti manipolatori impercettibili, le convinzioni personali degli utenti. Si prospetta, dunque, come allerta generale, l’urgente necessità di monitorare con maggiore attenzione tale fenomeno, soprattutto alla luce delle imminenti prossime consultazioni elettorali che potrebbero essere negativamente influenzate dal flusso comunicativo “tossico” immesso da chatbot conversazionali artificiali appositamente progettati per destabilizzare la società e compromettere il funzionamento della democrazia.
Rispetto allo scenario descritto dalle ricerche riportate, e alla luce delle implicazioni etiche configurabili nel medio-lungo termine, le persone sono realmente consapevoli dei potenziali rischi sottesi all’utilizzo sempre più diffuso dei modelli linguistici dell’IA? Questi ormai sembrano simboleggiare, come nuova moda del momento, le assolute icone tecnologiche dalle inesauribili abilità applicative sfruttabili nel settore pubblico e privato per la generalità delle attività quotidiane, senza però forse considerare con la dovuta attenzione le ripercussioni negative derivanti da un incauto e sfrenato atteggiamento ottimistico di superficiale approccio culturale al fenomeno.
Eppure non si fa altro che rendere noto il costante lancio di versioni aggiornate nel perfezionamento tecnico di tali sistemi, unitamente alla trionfalistica progettazione di nuovi prodotti che ne incentivano il relativo utilizzo, piuttosto che frenarne la rapida evoluzione, in attesa di meglio comprendere il funzionamento di simili applicazioni, sussistendo ancora troppe incertezze sulla configurazione applicativa derivante dal sofisticato processo di performante auto-apprendimento dell’Intelligenza Artificiale, pur a fronte di una crescente e tangibile sollecitazione ad adottare le più efficaci precauzioni per tentare di arginare il dilagante lato oscuro della tecnologica, in grado di demolire definitivamente ciò che resta del progresso sociale edificato lungo il percorso storico dell’umanità.
L’impatto dei modelli di linguaggio di grandi dimensioni
Il fenomeno in sé non rappresenta una novità assoluta: già in passato, infatti, avevano fatto discutere le anomalie algoritmiche del sistema antifrode predisposto dal governo olandese per identificare possibili condotte fiscali illecite, generandosi, in tal caso, effetti discriminatori a pregiudizio degli immigrati e delle persone con redditi bassi tra i cittadini con doppia nazionalità, al punto da provocare una vera e propria crisi politica culminata nelle dimissioni dell’esecutivo in carica.
Specifici studi dedicati all’impatto dei modelli di linguaggio di grandi dimensioni hanno da tempo focalizzato le complesse problematiche legate allo sviluppo di tale tecnologia emergente in presenza di pregiudizi discriminatori razziali e di genere incorporati nei dati processati, con dilaganti rischi di emarginazione sociale su larga scala.
Anche l’ONU si è di recente espressa sulle criticità applicative dell’Intelligenza Artificiale Generativa, evidenziando la prioritaria necessità di assicurare lo sviluppo etico, responsabile e sostenibile dell’IA mediante l’adozione condivisa di standard equi, trasparenti e inclusivi per evitare la pervasiva codificazione di pregiudizi nella progettazione tecnica dei sistemi algoritmici in grado di amplificare la circolazione divisiva e polarizzata della disinformazione online.
Di certo, la crescente proliferazione di documenti recanti le medesime evidenze conclusive empiricamente riscontrabili nel corso del tempo conferma che lo sviluppo tecnologico dell’Intelligenza Artificiale sta davvero procedendo, fuori controllo, ad un elevato ritmo di oscuro perfezionamento tecnico che sfugge a qualsivoglia efficace forma di sorveglianza declinabile secondo un’effettiva accezione “umano-centrica”.
Conclusioni
In un contesto attuale di caotico disordine politico, destinato a sfociare anche nelle complesse dinamiche geopolitiche alla ricerca di nuovi equilibri da definire su scala planetaria, lo sviluppo evolutivo dell’Intelligenza Artificiale generativa potrebbe rappresentare la variabile imprevedibile in grado di amplificare le tensioni sociali esistenti costantemente alimentate dal relativismo informativo che caratterizza la cd. “era della post verità”.
Il rischio è di assistere alla crescita esponenziale di fake news facilmente veicolate online con modalità trasmissive più rapide e meno costose grazie al perfezionamento algoritmico della cd. “Generative AI” che consente di creare “testi convincenti simili a quelli umani”, anche mediante la possibile codificazione di svariati pregiudizi con l’intento di inquinare il dibattito pubblico: non solo si altera il circuito politico-elettorale da cui dipende la designazione dei rappresentanti istituzionali preposti all’esercizio di funzioni vitali per il mantenimento dell’ordine democratico, ma si provoca l’ulteriore effetto collaterale di imporre un linguaggio universale “dominante” basato sulla standardizzazione terminologica di discriminazioni lessicali e contenutistici, da cui discende la capillare proliferazione di radicate forme di diseguaglianza sempre più diffuse nella società.