Le elezioni sono un momento molto ghiotto per i professionisti della disinformazione online, e il 2024 è un anno che presenta due prede ambite, ossia le elezioni europee a giugno e le elezioni presidenziali statunitensi a novembre.
Vediamo quali sono i mezzi di contrasto e quali i nuovi strumenti per attirare gli utenti verso le fake news.
Il Digital Service Act e il contrasto ai deepfake in vista delle europee
L’AI generativa ha fatto esplodere, da ormai un anno, la bolla della disinformazione online.
La commissione europea ha emanato il Digital Service Act (DSA) anche per contrastare il fenomeno. Non a caso, il documento si apre con una chiara dichiarazione di intenti: “Le piattaforme online e i motori di ricerca sono diventati luoghi importanti per il pubblico dibattito e per modellare l’opinione pubblica e il comportamento degli elettori. Il Regolamento (UE) 2022/2065 (“Legge sui servizi digitali”) impone obblighi alle piattaforme online di grandissime dimensioni (VLOP) e motori di ricerca online di grandi dimensioni (VLOSE), ossia effettuare valutazioni specifiche del rischio e mettere in atto misure ragionevoli, proporzionate e misure efficaci di mitigazione del rischio, per prevenire qualsiasi aspetto negativo effettivo o prevedibile sul discorso civico e sui processi elettorali”.
L’impostazione è generica, ma viene via via specificata, anche perché, diversamente, si andrebbe verso una visione orwelliana del controllo dell’informazione – rischio, peraltro, paventato all’entrata in vigore del DSA da più parti.
Le linee guida sono impostate in quattro sezioni; la prima attiene alla base legale, la seconda allo scopo delle linee guida, la terza indica in concreto le misure da adottare e la quarta fornisce indicazioni successive e conclusioni sul punto.
Nello specifico, sono molto interessanti le misure pensate con riferimento all’AI generativa.
Le misure del Digital Service Act contro il deepfake
La commissione individua ben sette linee di intervento per le piattaforme e gli operatori di grandi dimensioni e, nello specifico:
“a) Garantire che i contenuti generati dall’intelligenza artificiale e altri tipi di media sintetici e manipolati siano rilevabili, in particolare utilizzando tecniche e metodi sufficientemente affidabili, interoperabili, efficaci e robusti, come filigrane, identificazioni di metadati, metodi crittografici per dimostrare la provenienza e l’autenticità dei contenuti, metodi di registrazione, “impronte digitali” o altre tecniche, a seconda dei casi, tenendo conto delle norme esistenti. Ciò è particolarmente importante per qualsiasi contenuto di intelligenza artificiale generativa riguardante candidati, politici o partiti politici. Filigrane e metadati possono anche essere applicati a contenuti basati su filmati inizialmente autentici (come video, immagini o audio) che successivamente sono stati modificati attraverso l’uso dell’intelligenza artificiale generativa;
b) Adoperarsi per garantire che le informazioni generate dai sistemi di intelligenza artificiale si basino, per quanto possibile, su fonti affidabili nel contesto elettorale, come informazioni ufficiali provenienti dalle autorità elettorali competenti, e che eventuali citazioni o riferimenti fatti dal sistema a fonti esterne siano accurati, conformi e tali da non travisare il contenuto citato, limitando così gli effetti delle ‘allucinazioni’;
c) Avvisare gli utenti di potenziali errori nei contenuti creati dai sistemi di intelligenza artificiale generativa e suggerire loro di consultare fonti autorevoli per verificare la veridicità di tali informazioni, nonché di mettere in atto misure di salvaguardia per prevenire la creazione di contenuti falsi che potrebbero avere un forte potenziale di influenzare l’utente comportamento;
d) Condurre e documentare esercizi di red-teaming e test con particolare attenzione ai processi elettorali, sia con team interni che con esperti esterni, prima di rilasciare al pubblico i sistemi di IA generativa e seguire un approccio di rilascio scaglionato quando lo si fa per controllare meglio le conseguenze indesiderate;
e) Stabilire parametri di prestazione adeguati, anche per quanto riguarda la sicurezza e l’accuratezza fattuale delle risposte fornite alle domande sul contenuto elettorale, monitorare continuamente le prestazioni dei sistemi di intelligenza artificiale generativa e intraprendere azioni appropriate quando necessario;
f) Integrare nei sistemi di intelligenza artificiale generativa misure di salvaguardia che ne aumentino la sicurezza, come classificatori di prompt, moderazione dei contenuti e altri filtri, per rilevare e prevenire prompt che vanno contro i termini di servizio del fornitore di una VLOP o VLOSE relativi ai processi elettorali; adottare altre misure adeguate volte a prevenire l’uso improprio del sistema di IA generativa per scopi illegali, manipolativi e di disinformazione nel contesto dei processi elettorali;
g) Per i contenuti testuali, in particolare, indicare, ove possibile, negli output generati le fonti concrete delle informazioni utilizzate come dati di input o fornire altri mezzi per consentire agli utenti di verificarne l’attendibilità e contestualizzare ulteriormente le informazioni”.
Sono previste anche regole per gli influencer ed è richiesto uno stringente standard di trasparenza nelle condizioni generali di utilizzo.
Le linee guida esplicitano obblighi già inseriti a livello regolamentare, calandoli nel contesto dell’ecosistema web che deve affrontare le sfide dell’intelligenza artificiale generativa, capace di creare deepfake con volti, voci e modi di parlare di personaggi pubblici e non.
Pagine Facebook per reindirizzare gli utenti verso fake news: il nuovo schema di truffe
Il Freeman Spogli Institute for International Studies (centro di Stanford per la ricerca, l’insegnamento e l’impatto politico apartitico e interdisciplinare negli affari internazionali) ha pubblicato un interessante report sull’utilizzo di pagine social (Facebook, nello specifico), per attrarre utenti e reindirizzarli su siti contenenti fake news o portali eCommerce contenenti vere e proprie truffe.
Il sistema è interessante: vengono pubblicati nel gruppo Facebook una cinquantina di post generati dall’AI al giorno, per poi reindirizzare l’utente su siti web fuori piattaforma.
Il ruolo dei dark pattern e la loro regolamentazione
Ovviamente è un sistema che prevede l’impiego di dark patterns, ora vietati dal Digital Service Act nell’Unione europea e che, a rigore, Meta dovrebbe monitorare nell’UE; diverso il discorso negli USA, dove per ora non sono fuorilegge.
In realtà si tratta di impiegare un sistema lecito – il gruppo Facebook – per fini illeciti – la truffa finale – perché, in sé, anche il reindirizzamento su siti web è assolutamente lecito a sua volta.
È ancora una volta il Digital Service Act il protagonista della lotta UE ai contenuti ritenuti fake ed alle truffe online: applicabile in via definitiva dal 17 febbraio 2024, il DSA impatta sule vite di ciascuno di noi tanto quanto il web stesso.
Questo perché determina cosa si può “vedere” e cosa no; e questo bilanciamento è sia politico che economico, perché per consentire l’accesso a determinati contenuti, la piattaforma deve correre il rischio di sanzioni.
La scelta tra monetizzazione delle fake news e investimento nella moderazione
È il caso del braccio di ferro, mai del tutto esaurito, tra X (ossia Elon Musk) e la Commissione europea: è preferibile monetizzare tramite fake news per tutelare – almeno a parole – la libertà di espressione e rischiare sanzioni miliardarie o investire – magari, di fatto a fondo perduto – in moderazione (leggasi censura), limitando la libertà di parola e diminuendo gli introiti pubblicitari?
Il sistema del DSA è pensato per rendere antieconomico il primo metodo e per indurre le piattaforme ad adottare il secondo.
Conclusioni
In ogni caso, da qui a giugno ci sarà da divertirsi, osservando le manovre e le contromanovre di Commissione europea, piattaforme e agenzie di disinformazione.