intelligenza artificiale

Elezioni 2024: le strategie per gestire i rischi dell’IA



Indirizzo copiato

Lo studio “Prepararsi all’IA generativa nelle elezioni del 2024: raccomandazioni e best practices basate sulla ricerca accademica” evidenzia i rischi dell’IA generativa nelle elezioni del 2024, come i deepfake, proponendo soluzioni quali filigrane e etichette. Raccomanda pratiche per vari attori, sottolineando la verifica delle informazioni e la necessità di evitare la centralizzazione informativa

Pubblicato il 15 feb 2024

Antonino Mallamaci

avvocato, Co.re.com. Calabria



intelligenza artificiale ai act

“Prepararsi all’IA generativa nelle elezioni del 2024: raccomandazioni e best practices basate sulla ricerca accademica”. Questo il titolo di uno studio, redatto in partnership da Harris School of Public Policy dell’Università di Chicago e Stanford Graduate School of Business, condotto allo scopo di fornire raccomandazioni imparziali su varie questioni critiche di governance dell’IA in vista delle elezioni presidenziali USA del prossimo 4 novembre.

Innanzitutto, gli esperti precisano che il loro scopo non è raccomandare molte azioni legali o politiche specifiche, ma di promuovere una chiara comprensione, tra gli elettori, i giornalisti, i leader tecnologici, nella società civile, e sui rischi, e sulle opportunità dell’utilizzo dell’IA per la democrazia e per il processo elettorale che ne è, come si dice, il sale.

Partendo dai rischi, il primo è quello legato alla possibilità di creare, mediante l’utilizzo dell’IA generativa, deepfake altamente convincenti e contenuti ingannevoli, soprattutto se diffuse in prossimità delle elezioni.

L’uso negativo dei deepfake nelle campagne elettorali

Le deep fake (falsi profondi) rappresentano la novità più pericolosa nel campo specifico della disinformazione rispetto al passato. È probabile che attori senza scrupoli diffondano deepfake, magari testati sperimentalmente e messi a punto per ottenere il massimo impatto, non vincolati da norme di verità o responsabilità pubblica. I primi esempi di queste preoccupazioni sono già emersi in elezioni recenti in giro per il mondo. I deepfake hanno avuto un ruolo nelle recenti elezioni turche.

Durante un grande raduno politico, il presidente uscente Erdoğan ha mostrato un falso video che collegava il suo principale oppositore al leader del PKK, un gruppo curdo classificato come organizzazione terroristica. Successivamente, un sostenitore del competitor di Erdogan ha utilizzato l’intelligenza artificiale per generare un video che sembrava mostrare il candidato che pronunciava un discorso elettorale in perfetto inglese.

Negli USA, il Comitato Nazionale Repubblicano ha pubblicato un video della campagna elettorale che ha utilizzato immagini generate dall’intelligenza artificiale del presidente Biden e della vicepresidente Harris per mostrare un futuro distopico dopo la vittoria di Biden-Harris nel 2024. Questo video non era ingannevole – sembra improbabile che gli spettatori pensassero che mostrasse la realtà attuale – ma ha utilizzato l’intelligenza artificiale per cercare di manipolare le percezioni degli elettori sugli avversari politici e per ottenere l’attenzione e la notorietà della stampa.

Ci sono diversi motivi per essere preoccupati per l’uso dei deepfake nelle campagne elettorali. In primo luogo, gli elettori potrebbero essere ingannati da tali contenuti. In più, i contenuti prodotti dall’intelligenza artificiale potrebbero essere diffusi alla vigilia delle elezioni al fine di generare falsi scandali, con un lasso di tempo così breve da rendere pressocchè impossibile procedere alla verifica dei fatti.

In secondo luogo, l’ampia diffusione di contenuti “fabbricati” può minare la fiducia degli elettori sull’ambiente informativo in generale. Se gli elettori arrivano a credere di non potersi fidare di nessuna prova digitale, diventa difficile valutare seriamente coloro che cercano di rappresentarli. In terzo luogo, i politici possono usare questo indebolimento della credibilità dell’ambiente dell’informazione per respingere le informazioni autentiche. Verso la fine delle elezioni turche, è stata pubblicata una registrazione video che mostrava immagini compromettenti di un candidato. Anche se alla fine questo candidato si è ritirato, sta di fatto che il video era falso, come lui stesso ha provato. Se gli elettori non sono davvero in grado di distinguere tra ciò che è falso e ciò che è reale, non è difficile immaginare che tali smentite diventeranno un luogo comune.

La risposta dell’industria: filigrana e etichettatura

Gran parte del dibattito su come affrontare questi problemi si concentra su come valutare la provenienza dei contenuti. L’approccio più importante riguarda la filigrana e l’etichettatura, qualcosa che le principali aziende di intelligenza artificiale, tra cui Meta, Google e OpenAI, si sono impegnate pubblicamente a implementare. Anche TikTok ha annunciato un che farà lo stesso. L’idea è che le grandi aziende di intelligenza artificiale dovrebbero codificare delle regole comuni sulla “filigrana” dei contenuti, che rendono rilevabili i contenuti prodotti o modificati dall’IA generativa, e che i media e i social media dovrebbero quindi etichettare tali contenuti come “generati dall’intelligenza artificiale”.

Un’altra idea è quella di creare tecnologie che consentano ai creatori di firmare crittograficamente i contenuti così da non consentire la loro conservazione quando vengono alterati senza autorizzazione. In tal modo, gli utenti attribuirebbero la paternità del prodotto al suo effettivo creatore. L’obiettivo è quello di consentire agli elettori di valutare meglio migliori sull’affidabilità delle informazioni.

La filigrana, l’etichettatura e la firma crittografata sono sicuramente utili, ma esistono diversi vincoli pratici. Presumibilmente, solo una piccola parte di contenuti sarà firmata crittograficamente. E, mentre le aziende di intelligenza artificiale stanno esplorando una varietà di tecnologie di filigrana, tutti gli approcci attuali possono essere aggirati da attori sofisticati. Per i modelli di testo generativo,  i testi più brevi sono più difficili da rilevare. Anche le tecniche crittografiche avanzate per il watermarking (watermark o filigrana elettronica sono tecnologie che consentono di inserire informazioni all’interno di un file, per trarre informazioni sulla sua origine e provenienza) richiedono  “poche centinaia” di token per un rilevamento ragionevole, che è ben oltre la lunghezza di un tipico Tweet. Inoltre, a causa dei numerosi approcci perseguiti, l’industria non ha concordato una serie di norme; questa mancanza di armonizzazione rende l’etichettatura più difficile per i media e le società di social media. Infine, etichettare i contenuti come generati dall’intelligenza artificiale richiede di esprimere un giudizio anche su ambiti meno precisi. Infatti, oltre ad essere utilizzati per creare contenuti ingannevoli o falsi, gli strumenti di intelligenza artificiale generativa vengono utilizzati per attività innocue, come la riduzione degli occhi rossi.

La filigrana e l’etichettatura di qualsiasi contenuto che è stato toccato da un’intelligenza artificiale rischia di essere così eccessivamente inclusivo che le etichette diventano prive di significato. Inoltre, gli effetti dell’etichettatura sul comportamento e sulla percezione umana non sono ancora ben compresi. È possibile che gli utenti rispondano alla visualizzazione di etichette che li avvisano che il contenuto è “generato dall’intelligenza artificiale” supponendo che non sia vero. Una risposta di questo tipo diventerebbe problematica se ci fossero contenuti utili e informativi generati dall’IA che vengono sistematicamente ignorati, o se gli utenti concludessero che qualsiasi contenuto non generato dall’IA debba quindi essere vero.

Ricerche recenti offrono prove utili su quali etichette potrebbero essere più efficaci e ulteriori ricerche da parte di accademici e piattaforme potrebbero aiutare a perfezionare le migliori pratiche per l’etichettatura. Senza metodi efficaci per stabilire la veridicità dei contenuti digitali, un percorso alternativo da seguire è una migliore verifica per i fornitori di contenuti. Anche se non  possiamo sapere se il contenuto è stato alterato, la verifica dell’account e la firma verificabile possono aumentare la fiducia. Se si determina che il contenuto è fuorviante o falso, essere in grado di risalire con sicurezza alla sua origine è un passo utile. Gli eventi recenti ci hanno mostrato l’impatto della verifica ingannevole dell’account. Durante le modifiche al suo programma di verifica, gli utenti di X sono stati in grado di creare account che sembravano essere ufficiali ma non lo erano affatto.

Un utente ha creato un account Eli Lilly (azienda farmaceutica) falso ma molto veritiero, che  ha annunciato la gratuità dell’insulina. Al che, le azioni dell’azienda sono scese di oltre il 4%!

Altra  preoccupazione è che gli elettori cerchino informazioni elettorali sui fatti da chatbot non affidabili. Per quanto concerne la manipolazione e microtargeting, si teme che il micro-targeting basato sull’intelligenza artificiale o i chatbot emotivamente manipolativi possano persuadere gli elettori a comportarsi in modo contrario ai loro interessi o a polarizzarsi. Da questo punto di vista, è stato tuttavia appurato che la persuasione o la manipolazione di massa degli elettori è improbabile.

I rischi della centralizzazione delle informazioni

La preoccupazione maggiore è legata alla percezione di questa manipolazione, piuttosto che a un concreto effetto diretto sui risultati. Altra questione è quella della centralizzazione delle informazioni: se gli strumenti di intelligenza artificiale generativa si concentrano in un piccolo numero di aziende tecnologiche, queste potranno avere un potere enorme sulle informazioni politiche. Una situazione in cui si porrebbero  questioni delicate di moderazione dei contenuti, pregiudizi e sfiducia.

Utilizzo positivo dell’IA generativa nelle elezioni

Veniamo ai possibili utilizzi positivi dell’IA generativa. Essi includono la sintesi dei programmi e degli eventi politici salienti, lo sviluppo di applicazioni di consulenza elettorale più accessibili, la facilitazione della comunicazione tra cittadini e legislatori.  Distillare i programmi e presentarli in un formato accessibile è una capacità dei modelli linguistici di grandi dimensioni (LLM,  algoritmo Deep learning capace di riconoscere contenuti, generarli, riassumerli, tradurli) che potrebbero migliorare l’apprendimento degli elettori.

La capacità di questi strumenti di personalizzare le informazioni in base alle conoscenze degli utenti offre ai cittadini l’opportunità di partecipare al processo legislativo in modo più trasparente ed efficiente. I VAA (domande di consulenza in materia di voto) sollecitano le posizioni degli elettori su diverse questioni e li abbinano a candidati politicamente congruenti. L’integrazione dell’IA generativa nello sviluppo di VAA potrebbe consentire agli elettori di porre semplici domande sui programmi politici e ricevere risposte in pochi secondi. Le conversazioni guidate dall’IA potrebbero aiutare a rendere l’interazione con i VAA più accessibile a uno spettro più ampio di elettori. Nell’implementazione di strumenti come i VAA, o anche quando si tratta di riassumere un programma, una domanda naturale è se gli LLM possono soffrire di pregiuduzi. Per tale tipo di problemi è utile  la generazione aumentata di recupero (RAG, retrieval-augmented generation).  L’intelligenza artificiale generativa eccelle nella creazione di risposte di testo basate su modelli linguistici di grandi dimensioni nei quali viene addestrata attraverso un numero enorme di datapoint. Il testo generato è spesso facile da leggere e fornisce risposte dettagliate che sono ampiamente applicabili alle domande (prompt). Tuttavia, le informazioni utilizzate sono solo quelle usate per addestrare l’intelligenza artificiale, spesso un LLM generalizzato. Quindi i dati del LLM potrebbero non essere aggiornati. Qui che entra in gioco la RAG, che fornisce un modo per ottimizzare la produzione di un LLM con informazioni mirate senza modificare il modello alla sua base; quelle informazioni mirate possono essere più aggiornate rispetto al LLM, ma anche più precise.  Quando un utente interagisce con un LLM, la RAG garantisce che le fonti pertinenti vengano recuperate da un database precaricato, inserite nel prompt e utilizzate per la risposta. È possibile caricare un database esterno con fonti, ad esempio piattaforme di partito, e istruire l’LLM a riepilogare solo le informazioni contenute in tali fonti. In questo modo si ottengono risultati generalmente privi di editorializzazione e che rappresentano accuratamente il materiale di partenza.  L’utilizzo di RAG è simile all’utilizzo di un motore di ricerca che recupera informazioni rilevanti e le riepiloga in modo accessibile. Questo lo rende un metodo ideale per semplificare grandi quantità di dati, che possono essere utili per gli elettori che fanno scelte in contesti politici in cui la conoscenza è limitata a causa della mancanza di copertura mediatica.

In sintesi, sebbene i casi d’uso negativi che coinvolgono l’IA generativa abbiano ricevuto una notevole attenzione da parte dei media, ci sono casi d’uso positivi che potrebbero migliorare l’impegno civico e l’istruzione. Dall’alimentazione dei chat bot per il recupero di informazioni politiche al miglioramento della comunicazione tra cittadini e legislatori, le capacità di sintesi degli LLM potrebbero essere utilizzate per migliorare i processi democratici.

Consigli per le aziende tecnologiche, i giornalisti e i politici

Incoraggiare il pubblico a utilizzare questi strumenti per rendere più accessibile la politica quotidiana può fungere da potente contrappeso alla disinformazione, sia umana che generata dall’intelligenza artificiale.

Gli esperti di Stanford e Chicago formulano a questo punto alcuni consigli per i vari attori in scena.

Per le aziende tecnologiche

  • Continuare nella pratica per filigranare ed etichettare i contenuti generati dall’intelligenza artificiale, comunicando tuttavia in modo chiaro che tali azioni non possono essere totalemnte risolutive;
  • programmare “tabletop exercices” (simulazioni di situazioni d’emergenza) per anticipare le migliori risposte alle “October surprises”: così vengono definite negli USA le emergenze dell’ultima ora per le elezioni presidenziali che, come sappiamo, si tengono a novembre. Si tratta, in questo caso, di contenuti ancora più insidiosi in quanto generati dalla IA in prossimità dell’election day, quando c’è meno tempo per opporre contromisure valide.
  • Studiare in che modo l’etichettatura del materiale generato dall’IA influisce sulla comprensione dell’informazione, sulla base delle recenti ricerche accademiche;
  • Assicurarsi che i chatbot AI indirizzino gli utenti verso informazioni autorevoli provenienti da fonti ufficiali in merito a questioni oggettivamente rilevabili, quali le modalità e i luoghi per votare;
  • monitorare l’uso di chatbot per il microtargeting e i contenuti fuorvianti destinati a scoraggiare la partecipazione, mantenendo però più alta l’attenzione sui deepfake e sull’ambiente informatico.

Per i giornalisti

  • Disincentivare la disinformazione e la manipolazione, evitando di dare copertura aggiuntiva a vicende  il cui unico interesse è legato all’uso di contenuti generati dall’intelligenza artificiale;
  • accrescere la conoscenza  dell’IA attraverso una copertura non sensazionalistica del suo ruolo nelle elezioni;
  • collaborare con la società civile per valutare la provenienza di contenuti politici virali e partecipare a simulazioni d’emergenza per considerare come coprire e valutare rapidamente le “sorprese di ottobre”.

Per partiti, politici e gruppi di sostenitori e propagandisti organizzati

  • impegnarsi pubblicamente a non utilizzare contenuti ingannevoli generati dall’intelligenza artificiale;
  • usare la tecnologia nella creazione di strumenti basati sull’intelligenza artificiale che consentano agli elettori di essere meglio informati sui candidati e sui programmi.

Per gli elettori

Considerare con scetticismo le informazioni politiche sensazionali o scandalose, soprattutto se rilasciate a ridosso del giorno delle elezioni.

Normative future e raccomandazioni finali

Infine, alcune indicazioni per provvedimenti da adottare nel futuro. Governo e grandi aziende tecnologiche dovrebbero:

  1.  limitare la centralizzazione nella generazione e nella moderazione dei contenuti in un numero limitato di piattaforme;
  2. incoraggiare una varietà di strumenti di IA generativa e coinvolgere gli utenti e gli stakeholder esterni nella definizione di barriere sui contenuti;
  3. nel normare sulla sicurezza dell’IA, mettere in primo piano l’obiettivo di evitare la concentrazione del mercato dell’IA, concentrazione rischiosa per la democrazia,  adottando per i requisiti di licenza misure che favoriscano la concorrenza

Conclusioni

In conclusione, ciò che gli esperti delle Università di Chicago e Stanford si sentono di dovere e potere raccomandare è che gli elettori, i giornalisti e tutti coloro che hanno a cuore le elezioni e la democrazia considerino le affermazioni sulle nuove tecnologie con grande scetticismo. In alcuni casi, la minaccia alle elezioni è causata dall’IA generativa stessa, come le “sorprese di ottobre” guidate da informazioni false altamente persuasive.

Le persone dovrebbero essere scettiche nei loro confronti, e dovrebbero cercare la verifica delle informazioni da fonti di cui si fidano. In altri casi, la minaccia non proviene dalla tecnologia in sé, ma dall’eccessiva fiducia riguardo al suo potere. Quando qualche azienda afferma di essere in grado di utilizzare l’IA generativa per far cambiare idea a un gran numero di elettori, è probabile che stia millantando.

Alla fine, ci sono molti contenuti fuorvianti non generati dall’intelligenza artificiale e molti da essa prodotti perfettamente accurati. Le armi per dfendersi meglio sono scetticismo, buon senso e fonti attendibili.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati