Nel marzo 2023, un workshop ospitato da WITNESS a Nairobi, in Kenya, ha riunito persone provenienti da sei Paesi africani per discutere le implicazioni dell’intelligenza artificiale generativa e dei media sintetici sui diritti umani, il giornalismo e la disinformazione.
L’evento ha evidenziato le potenziali opportunità e le allarmanti minacce poste dai deepfake generati dall’intelligenza artificiale in Africa.
Deepfake, l’impatto sulla diffusione della disinformazione negli Stati africani
Per deepfakes si intendono tutte quelle manipolazione video altamente realistiche, mentre i “cheap fakes”, sebbene molto simili, sono più rapidi, richiedono risorse minori e spesso sono meno verosimili. I falsi a basso costo includono video estrapolati dal contesto, semplici modifiche, scambio di volti e sincronizzazione delle labbra.
I deepfake hanno suscitato un’attenzione significativa a livello globale, in quanto hanno un impatto sulla diffusione della disinformazione negli Stati africani.
Esploriamo dunque il panorama in evoluzione dei deepfakes generati dall’IA in Africa, approfondendo un caso di studio, esaminando le questioni legali e con, infine, un’esortazione ad affrontare queste sfide.
L’escalation dei deepfake in Africa
La tecnologia IA deepfake consente agli utenti di creare personaggi inventati che possono diffondere qualsiasi messaggio, anche se contrario alle rispettive reali convinzioni. L’uso della tecnologia deepfake per le campagne di disinformazione è un problema globale e il suo impatto in Africa sta crescendo con l’aumento dell’accessibilità a Internet nel continente.
Burkina Faso
A gennaio, sulle piattaforme dei social media del Burkina Faso sono iniziati a circolare video insoliti. In questi video comparivano diversi individui che sembravano appoggiare il governo militare. Tuttavia, i loro movimenti erano rigidi e il movimento delle labbra non era sincronizzato con le parole: una classica caratteristica dei deepfake.
Gabon
Il presidente Bongo si era recato fuori dal Paese per cure mediche, il che aveva fatto sorgere sospetti sul suo stato di salute. Quando alla fine è stato diffuso un video del presidente, ha sollevato dubbi per la sua natura insolita.
Il presidente della Commissione dell’Unione Africana (CUA), Moussa Faki
Dei truffatori hanno impersonato il presidente della Commissione dell’Unione Africana, Moussa Faki, creando video e registrazioni audio falsi e realistici, utilizzando la tecnologia deepfake. Hanno persino coinvolto i leader europei in videochiamate in cui ad essere presente era la raffigurazione creata dall’IA del Presidente.
Questi video sintetici, generati e manipolati da software di intelligenza artificiale, hanno sollevato preoccupazioni in Burkina Faso, Gabon, CUA e non solo.
Gli aspetti legali da tenere in considerazione
L’ascesa della tecnologia deepfake in Africa pone diverse sfide legali complesse:
Violazione della privacy dei dati
La creazione e la diffusione di deepfake può violare il diritto alla privacy degli individui, nonché compromettere gravemente il diritto alla dignità di un individuo nel caso in cui venga creato un deepfake che danneggi la sua reputazione o la sua vita privata. Si tratta di un pericolo concreto, in quanto le ricostruzioni appaiono incredibilmente verosimili e gli spettatori spesso non sono in grado di rilevare che si tratti di un falso. Il recente sondaggio di KnownBe4 in cinque Paesi africani riporta che oltre il 50% degli intervistati era a conoscenza di cosa fossero i deepfake, mentre il 48% ne era poco consapevole o non ne era sicuro, rendendo concreto il rischio che deriva dal relativo utilizzo.
Diffusione della disinformazione
I deepfakes possono minare la fiducia nelle comunicazioni ufficiali e aggravare l’instabilità politica. In alcuni casi, come si è visto in Gabon nel 2018, il sospetto sui video deepfake può portare a crisi politiche, come tentativi di colpo di stato. Garantire la sicurezza nazionale di fronte alla disinformazione indotta dai deepfake è una necessità impellente. L’indagine di KnownBe4 rivela inoltre che il 74% degli intervistati ha ammesso di aver creduto a comunicazioni via e-mail, messaggi diretti o contenuti multimediali (foto o video) che erano deepfake.
Regolamentazione e responsabilità delle aziende di IA
il quadro normativo relativo ai deepfakes in Africa è in fase di sviluppo. Sono necessarie strutture legali per individuare i responsabili della creazione e diffusione dei deepfakes. Le aziende stanno sviluppando strumenti di IA per rilevare i contenuti dalla stessa generati, ad oggi purtroppo con scarsi risultati. Ad esempio, lo strumento di rilevamento di OpenAI ha avuto un basso tasso di successo nell’identificare il testo generato dall’IA.
Ostacoli all’amministrazione della giustizia
Un articolo del 2022 descrive un altro risultato negativo della tecnologia IA-deepfake come una minaccia per il sistema giudiziario. I tribunali si affidano spesso a video e fotografie come prove, tuttavia con i deepfake anche questi materiali visivi possono essere manipolati o falsificati, con il rischio di condurre le autorità giudiziarie a decisioni errate. L’articolo fornisce esempi di casi in cui sono stati presentati in tribunale video manipolati per creare una falsa impressione di colpevolezza.
Conclusioni: l’impellente necessità di una tutela legislativa, di responsabilizzazione delle aziende di IA, nonché di un’alfabetizzazione digitale
Di fronte a un panorama dove i deepfake sono in costante evoluzione, è fondamentale concentrarsi sulla sensibilizzazione dell’opinione pubblica, sulla responsabilità delle aziende di IA e su una riforma legislativa per mitigare i rischi e sfruttare i potenziali benefici dei deepfake generati dall’IA.
Creare consapevolezza e aumentare l’alfabetizzazione per educare i cittadini
È fondamentale rafforzare l’advocacy per creare consapevolezza e aumentare l’alfabetizzazione. Occorre intensificare gli sforzi per educare il pubblico sull’esistenza e sulle implicazioni dei media sintetici. Le campagne di alfabetizzazione mediatica possono mettere gli individui in condizione di valutare criticamente le informazioni e di impegnarsi con i governi e le società civili per sviluppare politiche inclusive. È necessario condurre campagne di formazione e sensibilizzazione per educare il pubblico e i professionisti, compresi giornalisti ed esperti forensi, su come individuare i deepfakes.
Le responsabilità di aziende tecnologiche e piattaforme digitali
Le aziende tecnologiche e le piattaforme digitali devono essere ritenute responsabili dei danni che causano o non riescono a prevenire con l’utilizzo di strumenti mediatici sintetici. Sono essenziali norme che richiedano valutazioni complete sui diritti umani prima di utilizzare modelli e strumenti di IA.
Soprattutto, i governi e i politici dovrebbero stabilire leggi che regolino la creazione, la distribuzione e l’uso della tecnologia deepfake, criminalizzando le attività dannose e sanzionando i responsabili.
Conclusioni
Per concludere, è importante considerare la questione sollevata da un articolo della BBC del 2020 che sembra aver anticipato i tempi: i deepfakes sono una minaccia per la democrazia o solo un divertimento? In questo caso, concordo con l’opinione dell’autore sull’impatto dei deepfakes nei Paesi in via di sviluppo come minaccia alla democrazia, soprattutto in contesti ove sussiste una limitata alfabetizzazione digitale. La diffusione di contenuti manipolati potrebbe avere gravi conseguenze sociali, tra cui l’incitamento alla violenza.