Democrazia a rischio

I pregiudizi politici dell’IA ci mettono tutti in pericolo: ecco le evidenze



Indirizzo copiato

L’IA generativa potrebbe avere come effetto collaterale quello di amplificare le tensioni sociali : il rischio esaminato in recenti studi è che si alteri il circuito politico-elettorale da cui dipende la designazione dei rappresentanti istituzionali preposti al mantenimento dell’ordine democratico e si imponga un pericoloso linguaggio universale “dominante”

Pubblicato il 5 set 2023

Angelo Alù

studioso di processi di innovazione tecnologica e digitale



intelligenza artificiale ai act

Dall’idea di un presunto “cyber-oracolo” universalistico del sapere enciclopedico in grado di fornire risposte credibili e convincenti rispetto a qualunque argomento richiesto, stanno ora emergendo, in rapida progressione, le preoccupanti criticità poste dai modelli linguistici generati dall’Intelligenza Artificiale. Un recente approfondimento, a cura della rivista “Technology Review”, afferma, ad esempio, che questi ultimi sarebbero portatori di svariati pregiudizi politici, come risulta, appunto, da una nuova ricerca richiamata nell’articolo menzionato.

I pregiudizi politici dei modelli linguistici

Dopo aver sollecitato 14 modelli linguistici a esprimere la propria opinione favorevole o contraria rispetto a 62 dichiarazioni “politicamente sensibili”, tenuto conto delle diverse fonti di dati da cui attingere le informazioni per elaborare le relative risposte, secondo la ricerca richiamata emergerebbero profondi pregiudizi generati dall’utilizzo di tali sistemi, al punto da riuscire a selezionare posizioni tradizionali di matrice spiccatamente conservatrice riferibili alla consultazione dei più risalenti modelli tecnologici (come, ad esempio BERT, addestrato prevalentemente sulla consultazione di libri), contrapposti, invece, alle tesi maggiormente liberali veicolate tramite i nuovi programmi conversazionali (ad esempio, GPT-4 che processa una mole significativa di dati virtuali estratti da Internet), come peculiare tendenza che sembra, peraltro, progressivamente radicalizzarsi all’intensificarsi dell’attività di addestramento dei relativi processi algoritmici.

Nel merito dei pregiudizi politici generati, sono stati anche identificati contenuti classificati come fake news, a seconda dei casi, “più sensibili all’incitamento all’odio rivolto alle minoranze etniche, religiose e sessuali”, o “contro gli uomini cristiani bianchi”, senza avere, tuttavia, la possibilità di comprendere appieno le ragioni per le quali si siano verificati simili risvolti discriminatori, facendo leva sul mancato accesso ai dati ivi processati a causa dell’assenza di adeguati standard di trasparenza per garantire la conoscenza delle modalità tecniche di funzionamento dei modelli linguistici dell’IA.

Lungi dal realizzare un sistema asettico di neutralità informativa, i meccanismi conversazionali codificati nelle applicazioni di IA sembrerebbero orientati a fornire, in risposta ai quesiti ricevuti, contenuti diversificati e divisivi, corrispondenti agli orientamenti politici degli opposti schieramenti ideologici (di “destra” o di “sinistra”) a seconda di quali specifici prototipi progettati dalle aziende “high-tech” vengano concretamente consultati dagli utenti.

Se l’IA mina la tenuta democratica

L’ipotesi delineata all’esito dell’indagine di studio (peraltro premiata come miglior articolo in occasione della Conferenza ACL 2023, a riprova della validità metodologica dell’esame predisposto), conferma, in un clima di generale preoccupazione, le rilevanti insidie – ancora neanche del tutto note – che gli imprevedibili sviluppi tecnologici dell’Intelligenza Artificiale potrebbero determinare nell’imminente futuro, destabilizzando in via generalizzata l’opinione pubblica sino a rischiare di minare irreversibilmente la tenuta della democrazia, erosa dalla profonda voragine dei flussi manipolatori ove si amplificano informazioni false, distorte e polarizzate in grado di fomentare odio sistemico e violenza massiva su larga scala.

I pregiudizi codificati nei programmi di addestramento degli algoritmi

Di analogo tenore risultano gli approfondimenti realizzati da un articolo a cura del “The Washington Post”, che riporta una ricognizione aggiornata delle principali ricerche realizzate in materia (compreso lo studio già citato), da cui si evince, a conferma ulteriore del delicato problema attualmente esistente a livello globale, il concreto rischio di pregiudizi codificati nei programmi di addestramento degli algoritmi utilizzati dai sistemi di IA in grado di veicolare su larga scala “stereotipi” discriminatori destinati a influenzare, con effetti manipolatori impercettibili, le convinzioni personali degli utenti. Si prospetta, dunque, come allerta generale, l’urgente necessità di monitorare con maggiore attenzione tale fenomeno, soprattutto alla luce delle imminenti prossime consultazioni elettorali che potrebbero essere negativamente influenzate dal flusso comunicativo “tossico” immesso da chatbot conversazionali artificiali appositamente progettati per destabilizzare la società e compromettere il funzionamento della democrazia.

Rispetto allo scenario descritto dalle ricerche riportate, e alla luce delle implicazioni etiche configurabili nel medio-lungo termine, le persone sono realmente consapevoli dei potenziali rischi sottesi all’utilizzo sempre più diffuso dei modelli linguistici dell’IA? Questi ormai sembrano simboleggiare, come nuova moda del momento, le assolute icone tecnologiche dalle inesauribili abilità applicative sfruttabili nel settore pubblico e privato per la generalità delle attività quotidiane, senza però forse considerare con la dovuta attenzione le ripercussioni negative derivanti da un incauto e sfrenato atteggiamento ottimistico di superficiale approccio culturale al fenomeno.

Eppure non si fa altro che rendere noto il costante lancio di versioni aggiornate nel perfezionamento tecnico di tali sistemi, unitamente alla trionfalistica progettazione di nuovi prodotti che ne incentivano il relativo utilizzo, piuttosto che frenarne la rapida evoluzione, in attesa di meglio comprendere il funzionamento di simili applicazioni, sussistendo ancora troppe incertezze sulla configurazione applicativa derivante dal sofisticato processo di performante auto-apprendimento dell’Intelligenza Artificiale, pur a fronte di una crescente e tangibile sollecitazione ad adottare le più efficaci precauzioni per tentare di arginare il dilagante lato oscuro della tecnologica, in grado di demolire definitivamente ciò che resta del progresso sociale edificato lungo il percorso storico dell’umanità.

Conclusioni

In un contesto attuale di caotico disordine politico, destinato a sfociare anche nelle complesse dinamiche geopolitiche alla ricerca di nuovi equilibri da definire su scala planetaria, lo sviluppo evolutivo dell’Intelligenza Artificiale generativa potrebbe rappresentare la variabile imprevedibile in grado di amplificare le tensioni sociali esistenti costantemente alimentate dal relativismo informativo che caratterizza la cd. “era della post verità”.

Il rischio è di assistere alla crescita esponenziale di fake news facilmente veicolate online con modalità trasmissive più rapide e meno costose grazie al perfezionamento algoritmico della cd. “Generative AI” che consente di creare “testi convincenti simili a quelli umani”, anche mediante la possibile codificazione di svariati pregiudizi con l’intento di inquinare il dibattito pubblico: non solo si altera il circuito politico-elettorale da cui dipende la designazione dei rappresentanti istituzionali preposti all’esercizio di funzioni vitali per il mantenimento dell’ordine democratico, ma si provoca l’ulteriore effetto collaterale di imporre un linguaggio universale “dominante” basato sulla standardizzazione terminologica di discriminazioni lessicali e contenutistici, da cui discende la capillare proliferazione di radicate forme di diseguaglianza sempre più diffuse nella società.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2