La diffusione e lo sviluppo delle tecnologie di deepfake spianerà la strada a una diffusione incontrollata della pornografia non consensuale? Vi è sicuramente ragione di allarmarsi e pensare alle contromisure – cosa che infatti alcuni esperti di giurisprudenza stanno facendo. Ma forse, per quanto controintuitivo, è possibile che la diffusione dei deepfake finisca invece per depotenziare il fenomeno.
Per motivare il nostro ragionamento, partiamo da un fatto di cronaca che ha destato scalpore e indignazione: il caso della maestra del torinese costretta a dimettersi dall’asilo dove lavorava perché alla direttrice erano giunte foto e video intimi che la ritraevano. Gli attori della vicenda che hanno contribuito a diffondere il materiale privato sono stati condannati, ma è difficile pensare che ciò basterà a risarcire la maestra per i danni economici e morali che ha subito in questa faccenda.
È noto, poi, il caso di Tiziana Cantone, indotta al suicidio dalla pressione psicologica conseguente alla diffusione virale dei suoi video intimi. È proprio questo episodio che solleciterà la politica italiana a implementare, nella Legge 69/2019 (Codice Rosso), alcune misure specifiche per punire la diffusione illecita di materiale intimo; non un punto d’arrivo, bensì un primo passo.
Revenge porn, nuovi canali di diffusione e tecniche di contrasto
Revenge porn
Per definire questo tipo di crimini è diventata di uso comune l’etichetta “revenge porn”. Tuttavia, studiosi e attivisti concordano nel ritenere l’etichetta inappropriata: soltanto una parte delle condivisioni segue il copione del fidanzato o ex che si “vendica” di una ragazza che si è rivelata infedele o che lo ha lasciato.
Non di rado, infatti, la condivisione è dettata da altre motivazioni, che possono andare da quelli che vengono percepiti come “dispetti” tra compagni di classe adolescenti agli abusi di potere puri e semplici, spesso perpetrati nell’ambito di comunità online che affondano le radici, e a loro volta fomentano, misoginia e mascolinità tossica.
Oltre a ciò, parlare di “vendetta” suggerisce implicitamente che la vittima abbia commesso qualcosa per cui merita una punizione. Meglio quindi parlare di pornografia non consensuale o, ancora meglio, di diffusione non consensuale di immagini intime (categoria che include foto e video).
Il fenomeno visto da vicino
La pervasività del fenomeno va oltre le più fosche previsioni. Secondo il rapporto 2022 pubblicato dall’osservatorio Permesso Negato, il fenomeno riguarda “più di due milioni di italiani vittime, mentre 14 milioni di italiani hanno guardato in rete immagini di Pornografia non consensuale”.
Impressionanti anche i risultati di un ampio studio internazionale che ha coinvolto 6109 persone di età compresa tra 16 e 64 anni in Australia, Nuova Zelanda e Regno Unito: ben una persona su tre dichiara infatti che i propri materiali intimi sono stati sottratti e / o diffusi senza permesso, e / o ne è stata minacciata la diffusione. E ben una su sei confessa di aver sottratto, condiviso o minacciato di condividere materiale intimo.
La stessa ricerca conferma come il problema colpisce più duramente le categorie più fragili: le donne, ma anche disabili, appartenenti a minoranze etniche.
Di fronte a dati così preoccupanti, viene da chiedersi se non possa andare peggio di così. E la risposta di alcuni è Sì, forse può andare peggio e il peggio sta per arrivare.
Deepfake e immagini intime non consensuali
Viviamo in un’epoca in cui gli insegnanti di mezzo mondo si stanno domandando come comportarsi di fronte a compiti svolti con ChatGPT e in cui gli artisti temono la concorrenza degli algoritmi.
Un punto di svolta è stato rappresentato dallo sviluppo delle Reti generative avversarie (Gan), grazie alle quali un sito come thispersondoesnotexist.com che può produrre in pochi millisecondi immagini (apparentemente) fotografiche di volti umani difficilmente distinguibili da fotografie reali.
Ovviamente, queste tecnologie hanno investito anche la produzione di contenuti pornografici.
Nel giugno 2019 apparve in rete l’app DeepNude. Sfruttando anch’essa una Gan, l’applicazione permetteva di “svestire virtualmente” le donne – ovvero, di trasformare una fotografia di una persona (poco) vestita in un’immagine di donna nuda. Le feroci polemiche fecero sì che dopo solo tre giorni la app venne rimossa dalla rete. Ma il danno ormai era fatto, poiché diversi utenti avevano copiato il codice, che tuttora circola in rete.
Una forma di violenza
Nelle mani di chi traffica in immagini non consensuali queste tecnologie diventano “la nuova frontiera della violenza online”[1]. Chi condivide immagini e video intime senza il consenso delle persone rappresentate non dovrà infatti nemmeno più fare lo sforzo di procurarsi queste immagini: tutto ciò che occorre sarà un software di deepfake e qualche foto o video (non intimi) delle vittime, spesso di facile reperibilità online.
Ecco che gli appelli alla “castità virtuale” diventano particolarmente inefficaci, oltre a rischiare di promuovere nuovamente il victim blaming.
L’unico modo per proteggersi diventerebbe dunque quello di far sparire la propria immagine della rete: niente fotografie su Instagram né sul profilo LinkedIn (ma così chi lo cliccherà più?). Non solo: dovrete convincere i vostri amici a rimuovere quella foto di gruppo delle vacanze dove c’eravate voi… e via dicendo. Più facile a dirsi che a farsi.
Una prospettiva (prudentemente) ottimista
Stando a quanto discusso sinora, dinnanzi a noi si apre uno scenario piuttosto sinistro, sembra scontato che la crescente diffusione delle tecnologie di deepfake spianerà la strada a un intensificarsi del fenomeno della diffusione di materiali intimi. Ma se invece, come ci siamo inizialmente chiesti, il deepfake finisse per depotenziare il fenomeno?
È quanto sostiene chi scrive e Cristina Voto, ricercatrice e docente di comunicazione visiva presso l’Università di Torino, in un articolo recentemente apparso sulla rivista Synthese.
Suggestionati proprio dal caso di cronaca della maestra d’asilo discusso in apertura, durante gli anni in cui abbiamo collaborato nel progetto europeo FACETS abbiamo sostanziato l’intuizione che, laddove fino ad ora il nostro atteggiamento spontaneo nei confronti di immagini e video con le parvenze di fotografie o riprese è quello di prendere per vero ciò che rappresentano, in uno scenario dove un’immagine o un video generati artificialmente siano indistinguibili da fotografie o video reali e altrettanto (se non addirittura maggiormente) diffusi, la nostra attitudine sarebbe invece più scettica.
L’effetto contrario
Qualcosa del genere è stato già osservato da alcuni filosofi del mondo analitico. Per esempio, il professore di filosofia e informatica alla Northeastern University (Usa) Don Fallis ha notato come, in un mondo dove i video fake diventano la norma, la gente tenderà a diffidare anche dei video reali, indebolendo il valore informativo di questi ultimi[2].
Questo indebolimento, che pure per il giornalismo potrebbe rivelarsi una cattiva notizia, potrebbe invece essere un’ottima notizia nel campo della diffusione non consensuale di contenuti intimi. Vero, chiunque potrebbe facilmente contraffare e diffondere una fotografia o video che ci ritrae nudi e / o in atteggiamenti intimi, ma proprio questa facilità farebbe sì che il materiale così prodotto non risulterebbe troppo credibile.
Anzi, addirittura la facilità di contraffare siffatte immagini potrebbe indurre a non prendere per vere nemmeno le fotografie e video reali!
Due considerazioni
Il nostro argomento poggia su due assunzioni. Primo, ciò che rende le immagini intime attraenti per chi le osserva – e al contempo espone una vulnerabilità di chi è ritratto – non sono solo le proprietà estetiche dell’immagine, quanto il senso di connessione diretta che essa genera con la persona rappresentata.
Da questo punto di vista, le immagini fotografiche sono canali di trasmissione piuttosto efficienti – tanto che in un celebre saggio, il filosofo Walton ci dice che quando guardiamo le fotografie di qualcuno, noi stiamo al contempo letteralmente guardando quel qualcuno[3] . Se questo è vero, allora ricevere una fotografia di nudo nel corso di una sessione di sexting diventa meno eccitante se si scopre che è pesantemente foto ritoccata, o che addirittura ritrae un’altra persona (pensateci: che effetto vi farebbe scoprire che le commoventi poesie d’amore che vi hanno dedicato sono state realizzate da ChatGPT?).
Un mondo (che crediamo essere) pervaso da deepfake è un mondo in cui la norma diventa dubitare che le immagini siano tramiti genuini di una qualche realtà rappresentata, fino a prova contraria. O, per lo meno, questo è quanto prevede la nostra seconda assunzione. Un corollario di questa assunzione è che, negli anni a venire, per fare sexting non sarà più sufficiente mandare le proprie foto di nudo: bisognerà dotarle di “sigilli di realtà” indipendenti.
Si tratta di assunzioni corrette? Non possiamo affermarlo con certezza poiché, oltre alle intuizioni (non solo le nostre, ma anche quelle di numerosi altri studiosi), a supporto di entrambe le assunzioni non abbiamo trovato altro che evidenze indirette. Per esempio, a corroborare l’intuizione che uno stesso contenuto mediale sortisca un effetto più intenso quando creduto vero che quando creduto falso, vi sarebbe un vecchio filone di studi psicologici degli anni Settanta sul tema della violenza[4].
Mentre, a confermarci che lo scetticismo nei confronti delle immagini digitali è possibile – e anzi è già realtà – troviamo alcune interviste a giovani canadesi relative alla loro fruizione dei selfies presenti sui social network, che ci rivelano come “quando si guardano i selfie, di solito si presume l’uso di filtri e decifrare l’autenticità è parte integrante di ciò che si ricerca”. (“When looking at selfies, the use of filters was usually presumed, and deciphering authenticity is integral to what drives looking practices”)[5].
Indubbiamente sarebbe auspicabile trovare evidenze più dirette. In effetti, stiamo già escogitando dei test più diretti per corroborare o rifiutare le assunzioni che sorreggono la nostra ipotesi. Fino ad allora, ci pare ragionevole trattarla come un’ipotesi di lavoro che, pure non avendo (ancora) sufficiente evidenza per dettare l’agenda delle pratiche di contrasto al problema della diffusione non consensuale, abbia però sufficiente plausibilità per immaginarsi che tipo di pratiche si potrebbero trarre. A questo sarà dedicata la prossima e ultima sezione.
Che conclusioni trarre?
Se l’assuefazione ai deepfake potrebbe emanciparci dal potere delle immagini tout court, perché non fare come Mitridate – il leggendario re del Ponte, che a furia di assumerlo in dosi piccole e poi vieppiù meno piccole finì per rendersi immune al veleno?
Perché cioè non trarre le conseguenze logiche della nostra predizione e inondare la rete di svariati fake pornografici, accelerando così la loro inflazione? Rispondere a questa arguta domanda – che ci fu effettivamente sollevata a commento del nostro articolo dal nostro responsabile di progetto, il semiologo Massimo Leone – richiede di allargare l’orizzonte e prendere in considerazione vari corollari.
Al di là della già menzionata prudenza derivante dallo statuto ancora ipotetico della nostra predizione, un elemento da tenere in conto è che, anche quando manifestamente falsi, i deepfake possono contribuire a plasmare l’immaginario visivo di una cultura, cementando o ridiscutendo i confini di ciò che è lecito o illecito, di buono o di cattivo gusto, e via dicendo.
Un potere, questo, che certamente condividono con altre forme di rappresentazione grafica ma che verosimilmente manifestano a un grado più alto, perché anche ciò che sappiamo non essere reale potrebbe continuare a sembrarci reale, esercitando così un effetto più profondo sul nostro inconscio.
Pertanto, anche in assenza di pretese di spacciarle per fotografie reali (magari al fine di umiliare una vittima o estorcerle del denaro), elaborare un deepfake a contenuto pornografico di una persona senza il suo consenso è comunque sbagliato (anche ai sensi di numerose legislazioni), perché ci si appropria indebitamente della sua immagine per connotarla in uno scenario pornografico che potrebbe non esserle gradito. Il danno però non si estende solo alla vittima stessa, ma può “dilagare”. In particolare, rappresentare le donne in contesti pornografici può promuovere, in modo spesso subcosciente, il cosiddetto male gaze – un’abitudine visiva che tende a fare del corpo delle donne un oggetto[6].
La buona notizia è che forse, per insufflare la sfiducia nelle immagini necessaria alla ricetta da noi proposta, non c’è bisogno di utilizzare immagini pornografiche: è verosimile che lo stesso effetto sia sortito coltivando un sano scetticismo generalizzato verso tutte le immagini fotografiche o videoriprese.
Uno scetticismo che andrebbe verosimilmente coltivato tramite due canali: uno cosciente che nasce dalla consapevolezza delle possibilità tecnologiche e uno precosciente. Il primo può essere promosso attraverso un potenziamento dell’alfabetizzazione digitale che non può essere confinato al mondo scolastico ma è da estendere ai cittadini di tutte le età, mentre il canale subcosciente prevede un lavoro costante su quell’insieme di automatismi e abiti interpretativi che governano il nostro quotidiano, tramite un vero e proprio addestramento a non credere.
Si tratterebbe sicuramente di un percorso lungo e che a livello generale comporterebbe tutti i costi dello scetticismo. Per esempio, per i giornalisti diventerebbe assai più impegnativo far credere che una fotografia o un video siano reali. Ma calato nel contesto della diffusione non consensuale di materiale intimo, questa fatica ricadrebbe sulle spalle di chi traffica in immagini o video (reali o artefatte che siano), ponendo così un ostacolo all’odioso fenomeno.
Certo, anche nella migliore delle ipotesi, perché questa sfiducia possa essere coltivata ci vorranno alcuni anni. Si tratta cioè di una prospettiva di lungo periodo. Nel breve periodo è però essenziale intensificare gli sforzi per prevenire il fenomeno e tutelare le vittime.
Inoltre, i trafficanti di immagini non consensuali più determinati potrebbero comunque trovare il modo di superare o aggirare l’ostacolo, escogitando stratagemmi e raccogliendo indizi supplementari per dimostrare la realtà delle immagini fotografiche o dei video che spacciano illecitamente. E forse questo già avviene quando alla diffusione delle immagini intime si accompagna il cosiddetto doxing, il “dossieraggio” relativo alla vittima, che al danno morale delle immagini aggiunge gravi danni per la privacy e la sicurezza personale.
Varrà dunque la pena, nei prossimi anni, vigilare attentamente su questo e altri espedienti a cui chi commette questi crimini potrebbe ricorrere per compensare la perdita di “effetto realtà” delle foto e dei video.
Note
[1] Luca Bainotti e Silvia Semenzin, 2021, p. 57.
[2] Fallis 2021
[3] Walton 1984
[4] Per esempio Geen, 1975
[5] Lavrence e Cambre 2020, p. 5.
[6] Ohman 2020; Harris 2021.
Bibliografia
Bainotti, L., & Semenzin, S. (2021). Donne tutte puttane. Revenge porn e mascolinità egemone. Durango
Geen, R. G. (1975). The meaning of observed violence: real vs. fictional violence and consequent effects on aggression and emotional arousal. Journal of Research in Personality, 9(4), 270–281
Goodfellow, J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., & Bengio, J. (2014). Generative adversarial nets. Advances in neural information processing systems. https://doi.org/10.48550/arXiv.1406.2661
Fallis, D. (2021). The epistemic threat of deepfakes. Philosophy & Technology, 34(4), 623-643
Harris, K. R. (2021). Video on demand: what deepfakes do and how they harm. Synthese, 199(5-6), 13373-13391
Lavrence, C., & Cambre, C. (2020). Do I look like my selfie?”: Filters and the digital-forensic gaze. Social Media + Society https://doi.org/10.1177/2056305120955182
Öhman, C. (2020). Introducing the pervert’s dilemma: a contribution to the critique of Deepfake Pornography. Ethics and Information Technology, 22(2), 133-140
Semenzin, S., & Bainotti, L. (2020). The use of telegram for non-consensual dissemination of intimate images: gendered affordances and the construction of masculinities. Social Media + Society, 6(4), 2056305120984453
Viola, M., & Voto, C. (2023). Designed to abuse? Deepfakes and the non-consensual diffusion of intimate images. Synthese, 201(1), 1-20
Walton, K. L. (1984). Transparent pictures: On the nature of photographic realism. Critical Inquiry, 11(2), 246–277