Il rapporto tra la regolamentazione della tecnologia, specialmente dell’Intelligenza Artificiale (IA), e la lotta alle discriminazioni di genere non è mai stato così attuale come oggi, da molteplici livelli di lettura socio-politici.
Indice degli argomenti
Lotta alle discriminazioni di genere: il contesto politico e normativo europeo
Sebbene il contesto italiano abbia recentemente visto l’affossamento della proposta di legge Zan, mirata a inasprire le sanzioni contro la violenza di genere e l’omotransfobia, e la rimozione di iniziative legislative chiave dal Programma di lavoro della Commissione Europea (come la Direttiva sulla responsabilità civile per l’IA e la Direttiva sulla parità di trattamento), l’Unione Europea continua a compiere passi avanti significativi.
Questo cambio di passo della nuova Commissione Europea, segna un profondo cambio di orientamento politico. Le due proposte legislative rimosse erano, infatti, strettamente interconnesse: la Direttiva sulla responsabilità civile per l’IA mirava a stabilire un quadro giuridico per la responsabilità civile in relazione a sistemi di intelligenza artificiale, garantendo un adeguato risarcimento per i danni causati, incluse le situazioni in cui un sistema di IA perpetua o amplifica pratiche discriminatorie, anche di genere. Tale cambio di rotta sembra richiamare il quadro politico internazionale, specialmente negli Stati Uniti e in Argentina, dove si sono registrate dichiarazioni misogine e discriminatorie nei confronti delle minoranze di genere e sessuali da parte dei rispettivi Presidenti.
Nonostante queste battute d’arresto, a maggio 2024, l’UE ha adottato due direttive fondamentali per rafforzare il ruolo degli organismi per la parità:
- la Direttiva 2024/1499, che stabilisce norme per gli organismi per la parità in materia di trattamento tra le persone indipendentemente da vari fattori, tra cui razza, origine etnica, religione, disabilità, età o orientamento sessuale,
- la Direttiva 2024/1500, focalizzata sulla parità di trattamento e opportunità tra donne e uomini in materia di occupazione e impiego.
Queste direttive, che modificano normative precedenti, rappresentano un progresso importante, sebbene si inseriscano in un quadro complesso e talvolta contraddittorio, dove la spinta verso l’innovazione tecnologica deve necessariamente conciliarsi con la tutela dei diritti fondamentali e la lotta contro ogni forma di discriminazione.
Sesso, genere e identità: definizioni e complessità
Nonostante la politica, in senso ampio, sembri non volerne sempre dar conto, nel panorama sociale contemporaneo le questioni del sesso e del genere assumono una complessità e un’importanza crescente dando spazio, in primo luogo, ad importanti sfumature lessicali che agevolano il trattamento di tali questioni in modo specifico e non discriminatorio. Tra i concetti principali in tale contesto si evidenzia in primo luogo, quello di sesso come categoria biologica relativa alle caratteristiche fisiche, genetiche e anatomiche di una persona, sulla base delle quali viene generalmente assegnata l’identità di maschio, femmina o, in alcuni casi, intersex.
Le persone intersessuali, infatti, esistono e rappresentano una realtà che mette in discussione la rigidità del binarismo sessuale. Esse possono presentare caratteristiche anatomiche, cromosomiche o ormonali che non si allineano con la definizione tradizionale di “maschio” o “femmina”. La loro esistenza, insieme a quella della persone non binarie, sottolinea come il sesso biologico non sia sempre un concetto dualistico e dimostra la necessità di un approccio più rispettoso della diversità nell’assegnazione e nel riconoscimento delle identità.
Quando si parla del genere di una persona, invece, si tratta di un concetto sociale e culturale che si riferisce ai ruoli, comportamenti, aspettative e identità che una determinata società associa alle categorie di “maschile”, “femminile” o ad altre identità che esulano dal binarismo uomo/donna.
Un esempio che illustra il dualismo tra sesso e genere è rappresentato dalle persone transgender, la cui identità di genere non corrisponde al sesso assegnato alla nascita e che talvolta, nel tentativo di riconcigliare questi due aspetti, scelgono di intraprendere un percorso di transizione (ormonale e/o chirurgica). Tuttavia è importante sottolineare che non tutte le persone trans scelgono o possono accedere a interventi medici, ma la loro identità di genere è valida indipendentemente dal percorso di transizione che intraprendono.
Questo breve resoconto dei concetti fondamentali degli studi di genere, benché non esaustivo, lascia immaginare quanto sia necessario anche ripensare l’utilizzo del linguaggio, il quale dovrebbe essere non discriminatorio e volto a riconoscere la pluralità.
Il linguaggio giuridico e la discriminazione di genere
L’ambito giuridico rappresenta un contesto linguistico cruciale in cui le questioni di genere devono trovare adeguata espressione. L’analisi su vasta scala di questo linguaggio, attraverso strumenti di elaborazione del linguaggio naturale e intelligenza artificiale, anche generativa, rivela caratteristiche peculiari. Tali peculiarità derivano dalla specificità del linguaggio giuridico e dal fatto che l’evidenziazione di linguaggio discriminatorio, ove presente, possa essere ostacolata da formalismi apparentemente neutri o da fasi di revisione in cui iniziali bias possono venire celati. Inoltre, a rendere il contesto giuridico particolarmente di interesse, è l’impatto che il diritto, sia esso espresso in leggi o in fonti giurisprudenziali, esercita sui diritti delle persone.
Non a caso, negli ultimi anni, le istituzioni nazionali e internazionali, insieme alle ONG, hanno condannato l’uso di stereotipi di genere e di un linguaggio discriminatorio nella giurisprudenza italiana. Secondo queste fonti autorevoli, tali espressioni, lungi dall’essere semplicemente spiacevoli, non solo ostacolano una tutela efficace delle vittime di violenza di genere, ma minano anche i diritti umani riconosciuti e le libertà fondamentali. In aggiunta, la giurisprudenza costituzionale sulla tutela delle minoranze linguistiche chiarisce che il linguaggio si situa all’incrocio tra i principali “elementi di identità individuale e collettiva di importanza basilare”. Tale affermazione evidenzia come il linguaggio non sia solo uno strumento neutrale, ma un veicolo di potere, in grado di plasmare le dinamiche sociali e culturali e di influenzare il riconoscimento e la protezione dei diritti fondamentali.
I dati allarmanti sulla violenza di genere
La settima edizione della “Mappa dell’Intolleranza” di VOX – Osservatorio Italiano sui Diritti – ha evidenziato nel 2022 un dato allarmante: su Twitter/X, le donne sono risultate la categoria più colpita da discorsi d’odio per il settimo anno consecutivo, sollevando preoccupazioni sulla correlazione tra linguaggio d’odio online, violenza di genere e femminicidi. Questo fenomeno si inserisce in un contesto già critico: in Italia, il 31,5% delle donne tra i 16 e i 70 anni ha subito violenza fisica o sessuale nel corso della vita, e il 13,6% ha subito tali violenze da parte di partner o ex partner. La situazione non è circoscritta al contesto nazionale; a livello europeo, il 33% delle donne ha subito violenza fisica e/o sessuale a partire dai 15 anni di età, sottolineando la pervasività e la gravità del problema a livello continentale.
I dati Istat
Nel corso del 2024, l’ISTAT ha diffuso i risultati di un’indagine approfondita sulla violenza contro le donne, condotta in collaborazione con diverse istituzioni governative e associazioni del settore. I dati emersi delineano un quadro preoccupante: nel 2023, si è registrato un aumento significativo degli accessi al Pronto Soccorso (+17,3%) e dei ricoveri ospedalieri (+14,5%) per casi di violenza sulle donne rispetto all’anno precedente.
L’analisi rivela che gli autori delle violenze sono prevalentemente persone legate alla vittima da relazioni affettive, confermando la violenza domestica come la più diffusa (circa l’80% dei casi). Un dato allarmante riguarda il coinvolgimento dei figli, testimoni di violenze nel 77,6% dei casi, e la violenza subita durante la gravidanza (14,6%). La violenza psicologica emerge come la forma più pervasiva (quasi 9 casi su 10), spesso associata ad altre tipologie di abuso, mentre la violenza economica colpisce 4 donne su 10. La durata degli abusi è spesso prolungata, superando i cinque anni nel 45,3% dei casi di violenza fisica e nel 42,6% dei casi di minacce, stalking, violenza economica o psicologica.
Il 2023 ha visto anche un elevato numero di femminicidi presunti: 96 su 117 omicidi con vittime femminili. A fronte di questa situazione, si registra un incremento del 4,9% dei Centri Antiviolenza (CAV), che nel 2023 hanno raggiunto le 404 unità, offrendo un supporto fondamentale alle donne vittime di violenza.
Linguaggio discriminatorio nella giurisprudenza: i progetti di ricerca
Esistono nel panorama internazionale e nazionale diversi progetti di ricerca mirati ad analizzare, monitorare e contrastare il linguaggio discriminatorio e gli stereotipi di genere in ambito giudiziario.
ll progetto GenDJus
ll progetto GenDJus[1] (“Rights and Prejudice: Linguistic and Legal Implications of Gendered Discourses in Judicial Spaces”), per esempio, combina metodologie linguistiche e giuridiche per esaminare le costruzioni discorsive nei contesti giudiziari internazionali, europei e italiani. L’obiettivo principale è identificare pregiudizi, stereotipi e bias nei discorsi giudiziari relativi ai diritti sessuali, riproduttivi e genitoriali, con un focus sul benessere delle comunità di donne e delle persone LGBTIQ. Attraverso l’analisi di un corpus trilingue (italiano, inglese e spagnolo) di sentenze e documenti giudiziari, GenDJus mira a proporre strategie per eliminare discriminazioni linguistiche e giuridiche, promuovendo società più inclusive basate sui valori di uguaglianza e non discriminazione.
Il progetto JUSTequal: metodologia e risultati preliminari
Un progetto recentissimo che valorizza le potenzialità in quest’ambito dell’intelligenza artificiale è JUSTEqual, finanziato dal Ministero dell’Università e della Ricerca nell’ambito del progetto Giurista TOmorrow del Dipartimento di Giurisprudenza dell’Università di Torino – Programma Dipartimenti di Eccellenza 2023-2027. Il progetto, la cui responsabile scientifica è la Prof.ssa Joëlle Long, docente di Diritto di famiglia e minorile nonché coordinatrice di un insegnamento organizzato insieme a Telefono Rosa Piemonte e chiamato “Violenza maschile contro le donne: dal riconoscimento alla risposta operativa”, si propone di rilevare l’uso di un linguaggio discriminatorio e di stereotipi di genere nei provvedimenti giudiziari penali e civili relativi alla violenza maschile contro le donne integrando metodologie di ricerca giuridiche, linguistiche, informatiche e psicosociali:
- Analizzando documenti giudiziari di diritto civile di famiglia e penale relativi alla violenza di genere, al fine di identificare il linguaggio sessista e gli stereotipi di genere.
- Intervistando appartenenti alla magistratura, avvocatura e psicologia forense, per valutare le opinioni personali su ruoli di genere e linguaggio.
- Sviluppando uno Psychological Wordometer per consentire alle professioni legali di auto-valutarsi e, quindi, aumentarne la consapevolezza degli stereotipi di genere
- Creando un programma di formazione specifico (Massive Open Online Course – MOOC) per consentire alle professioni legali di gestire i bias personali e migliorare l’uso di un linguaggio inclusivo nella loro attività professionale.
Sono partner di questo progetto l’Associazione Telefono Rosa Piemonte, l’Associazione Nazionale D.i.Re – Donne in Rete contro la violenza, Magistratura Democratica, l’Osservatorio Nazionale di Diritto di Famiglia, l’Unione delle Camere Penali e l’Ordine degli Psicologi del Piemonte.
La prima fase della ricarca
Nella prima fase della ricerca, è stata costituita una banca dati (che sarà resa pubblica nei prossimi mesi) di circa 1000 provvedimenti giudiziari civili e penali che riguardano la violenza maschile contro le donne. Tale operazione è partita dall’individuazione di alcune fattispecie penali (es. stalking) e civili (es. l’addebito della separazione legale giudiziale) in cui più frequentemente ricorre la violenza maschile contro le donne e dalla scelta di considerare come arco temporale il periodo 2012-2024, così da poter valutare l’impatto della Convenzione di Istanbul (ratifica nel 2013. Si è poi proceduto alla ricerca sistematica dei provvedimenti all’interno delle principali banche date specializzate (One legale, Dejure, Giurisprudenza di merito) utilizzando alcune parole chiave. Tale ricerca ha consentito di evidenziare che, come già stigmatizzato da fonti autorevoli, la lingua è talvolta utilizzata in modo strumentale per neutralizzare la violenza ostacolandone sia il riconoscimento sia un contrasto efficace.
Emblematico è il ricorso a termini quali “conflitto” e “dissidi familiari” in situazioni di violenza. In merito poi alle conseguenze della presenza di stereotipi e di linguaggio discriminatorio, l’esame della giurisprudenza consente di toccare con mano come la lingua sia talvolta un veicolo per minare l’attendibilità della donna (in un noto caso giudiziario relativo a una violenza sessuale la donna era stata definita nella pronuncia di merito “scaltra peruviana” per arrivare ad affermare che “non è possibile escludere” che fosse stata proprio lei ad assumere la regia degli eventi) o viceversa per responsabilizzare il maltrattante (altrettanto nota è la recentissima sentenza in cui un duplice femminicidio viene ritenuto “umanamente comprensibile” alla luce dei ricorrenti e gravi conflitti familiari). Sia la Corte europea dei diritti umani sia la Corte di Cassazione hanno riconosciuto come stereotipi e linguaggio discriminatorio possano portare alla cosiddetta vittimizzazione secondaria delle donne che fanno esperienza di violenza e come tale vittimizzazione ostacoli il loro accesso alla giustizia e dunque la protezione dei loro diritti fondamentali, compreso il diritto al rispetto della vita privata, il diritto a un processo equo e a una tutela effettiva contro la violenza.
Sviluppi futuri del progetto JUSTequal
La ricerca sta ora proseguendo con la raccolta dai partner del progetto di provvedimenti giudiziari inediti che contengano, a loro avviso, esempi di linguaggio discriminatorio o viceversa di linguaggio rispettoso delle donne che fanno esperienza di violenza. Un’analisi qualitativa di questo materiale consentirà alle linguiste del team JUSTEqual di mappare le diverse strategie linguistiche utilizzate per neutralizzare la violenza o per riconoscerla. Con l’aiuto di esperti di Natural Language Processing (NLP) saranno quindi sviluppati strumenti ad hoc per analizzare in modo sistematico la banca dati giuridica creata, verificando la presenza e la ricorrenza di pattern linguistici discriminatori. L’intelligenza artificiale consentirà di individuare stereotipi di genere e linguaggio sessista nei documenti legali utilizzando, oltre ad approcci di IA generativa, tecniche come il topic modeling, la sentiment analysis e la polarity detection.
Sfide dell’intelligenza artificiale nella lotta al linguaggio discriminatorio
L’avvento dell’intelligenza artificiale introduce nuove sfide e opportunità in questo contesto. Da un lato, l’IA può essere uno strumento potente per analizzare grandi quantità di dati, identificare modelli di linguaggio discriminatorio e persino suggerire alternative più inclusive. Dall’altro, l’uso dell’IA solleva questioni cruciali relative alla privacy e al trattamento dei dati personali:
- Non diffusione: I dati sensibili relativi a persone discriminate non devono essere divulgati o utilizzati in modo improprio per non aumentare i rischi.
- Anonimizzazione e pseudo-anonimizzazione: Tecniche per rendere i dati non identificabili sono fondamentali, ma devono essere implementate in modo rigoroso per evitare la re-identificazione, anche attraverso tecniche di reverse engineering, pur mantenendo l’usabilità dei dati. Tuttavia, un’eccessiva anonimizzazione dei soggetti coinvolti, potrebbe nascondere importanti caratteristiche che contribuiscono a valutare l’entità della discriminazione.
- API esterne e LLM: L’utilizzo di servizi di terze parti per l’elaborazione del linguaggio naturale, come Large Language Models (LLMs), solleva interrogativi sulla sicurezza e la riservatezza dei dati che andrebbero in mano ad aziende perdendo in completo controllo sulle informazioni sensibili maneggiate.
- Affidabilità e responsabilità: È essenziale garantire la crittografia sicura dei dati e l’adozione di approcci di IA trasparenti, interpretabili, verificabili e con responsabilità chiare in caso di errori o abusi nel rispetto del Codice della Privacy (artt. 52, 110 bis) e del Codice di Procedura Penale (artt. 114, 734 bis).
Privacy e anonimizzazione nella ricerca giuridica
Un aspetto cruciale della ricerca, del già menzionato progetto JUSTEqual, è la protezione della privacy delle persone i cui casi giudiziari saranno analizzati. Le sentenze e gli altri provvedimenti già presenti in banche dati pubbliche sono anonimizzati alla fonte con gradi di accuratezza variabili (vi sono casi in cui sono esclusi i nomi e i cognomi ma rimangono elementi tali da rendere comunque possibile l’identificazione: si pensi all’indirizzo civico di residenza presente in alcuni provvedimenti presenti nella banca dati pubblica della Giurisprudenza di Merito finanziata con il PNRR. Il progetto però raccoglie anche, come già accennato, provvedimenti inediti forniti dai partner del progetto, che in origine contengono informazioni identificative.
Per questi ultimi, è prevista una procedura di anonimizzazione manuale, un processo delicato che mira a bilanciare la massima tutela della riservatezza con la necessità, per le ricercatrici e ricercatori, di accedere a dettagli fondamentali come il genere, l’orientamento sessuale, l’età e l’origine delle persone coinvolte. Questi elementi, infatti, sono essenziali per un’analisi completa e approfondita, soprattutto in una prospettiva intersezionale, che tenga conto di come diverse forme di discriminazione possano intrecciarsi e influenzare l’esito dei procedimenti giudiziari.
Nel corso degli anni la ricerca e l’ambiente industriale hanno posto attenzione sul tema del linguaggio di genere da molti punti di vista. L’Intelligenza Artificiale e il Trattamento del Linguaggio Naturale, o Natural Language Processing (NLP) in inglese, presentano applicazioni cruciali, ma complesse, nell’analisi e mitigazione del linguaggio di genere discriminatorio in diversi ambiti.
Nell’industria, l’IA può essere impiegata per la revisione automatica di documenti aziendali, offerte di lavoro e comunicazioni interne, identificando e correggendo bias linguistici che potrebbero perpetuare stereotipi di genere. Nella ricerca, l’IA offre strumenti per l’analisi su larga scala di corpora linguistici, consentendo di studiare l’evoluzione e la diffusione di stereotipi e pregiudizi di genere anche in concomitanza di trigger events, accadimenti che stimolano la sensibilità di chi scrive.
Tuttavia, l’utilizzo dell’IA per l’identificazione di linguaggio discriminatorio comporta numerose sfide. In primo luogo gli algoritmi di AI possono contenere a loro volta bias intrinseci nei dati su cui sono stati allenati e/o provenienti da scelte progettuali, rendendo l’intelligenza artificiale un possibile attore nel perpetrare bias linguistici. È inoltre fondamentale affrontare l’intersezionalità del linguaggio discriminatorio, ovvero la sovrapposizione e l’interazione di diverse forme di discriminazione (genere, razza, orientamento sessuale, ecc.). Il concetto di intersezionalità, introdotto da Kimberlé Crenshaw, evidenzia come le esperienze di individui appartenenti a più gruppi marginalizzati siano uniche e non riducibili alla somma delle singole discriminazioni. Pertanto, gli algoritmi di IA devono essere progettati e addestrati tenendo conto di questa complessità, per evitare di riprodurre o amplificare bias esistenti. Questo richiede l’utilizzo di dataset bilanciati e rappresentativi delle diverse identità, nonché l’adozione di metriche di valutazione che considerino l’impatto differenziale dell’IA su gruppi diversi.
Nel contesto giuridico, l’applicazione dell’IA solleva questioni di responsabilità, trasparenza e accountability. È necessario definire quadri normativi chiari che regolino l’uso dell’IA, come l’EU AI Act, per prevenire discriminazioni, garantendo al contempo la protezione dei dati personali e la libertà di espressione. L’equilibrio tra questi diritti fondamentali rappresenta una sfida complessa, che richiede un approccio multidisciplinare e un costante dialogo tra esperti di diritto, informatica e scienze sociali.
Verso un futuro più inclusivo
La convergenza tra intelligenza artificiale, linguaggio di genere e diritto apre scenari complessi e in continua evoluzione. Se da un lato l’IA offre strumenti potenzialmente utili per combattere la discriminazione, dall’altro richiede un’attenta riflessione etica e giuridica per garantire la tutela dei diritti fondamentali e la promozione di una società realmente egualitaria e inclusiva.