L’introduzione di sistemi basati sull’intelligenza artificiale (IA) nei contesti lavorativi sta rivoluzionando i processi aziendali, consentendo alle imprese di ottenere significativi vantaggi in termini di efficienza, precisione e produttività, anche nella gestione e organizzazione della propria forza lavoro.
Indice degli argomenti
Il principio di non discriminazione in ambito lavorativo
L’adozione di tali strumenti, tuttavia, pone diverse questioni critiche, e deve misurarsi necessariamente con il rispetto del principio di non discriminazione in ambito lavorativo.
Questo principio, come noto, tutela i lavoratori contro ogni forma di discriminazione, sia diretta che indiretta, basata su genere, razza o origine etnica, religione, disabilità, età, adesione ad associazioni sindacali, partecipazione a scioperi, e così via. Si tratta di una tutela che si estende a ogni fase del rapporto di lavoro, a partire dall’accesso all’occupazione, fino alla gestione del rapporto stesso, incluse le condizioni di lavoro, l’avanzamento di carriera, la retribuzione e finanche le modalità di cessazione del rapporto di lavoro.
Il problema è cruciale in quanto gli algoritmi su cui si fondano i sistemi di IA, soprattutto se appartenenti al tipo “machine learning”, si basano sull’analisi di grandi quantità di dati per apprendere e assumere decisioni. Se però i dati utilizzati per il loro addestramento o funzionamento contengono pregiudizi di natura storica, statistica o sociale, l’algoritmo potrebbe replicarli, mettendo così a rischio i diritti fondamentali dei lavoratori.
Si tratta di una criticità evidenziata anche nel nuovo Regolamento Europeo n. 2024/1689, cd. “AI Act”, che entrerà in vigore dal prossimo 2 agosto 2026. In particolare, al considerando 31 del Regolamento il legislatore Europeo sottolinea che i sistemi di IA che permettono “di attribuire un punteggio sociale alle persone fisiche possono portare a risultati discriminatori e all’esclusione di determinati gruppi” evidenziando, inoltre, come gli stessi sistemi possano “ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia”.
Le recenti pronunce giurisprudenziali in tema di IA e divieto di discriminazione
In Italia sono già diverse pronunce giurisprudenziali che hanno affrontato la problematica sotto diverse angolazioni, mettendo in luce i rischi connessi all’uso di algoritmi e sistemi decisionali nella gestione della forza lavoro.
La sentenza del Tribunale di Palermo
In particolare, il Tribunale di Palermo, con una sentenza del 17 novembre 2023, ha accertato la natura discriminatoria del sistema di valutazione di eccellenza utilizzato da una nota società di consegne a domicilio per l’assegnazione degli incarichi ai suoi corrieri.
La piattaforma utilizzata dalla società si basava, infatti, su un sistema noto come “punteggio di eccellenza” che premiava i corrieri più produttivi, ossia che effettuavano il maggior numero di consegne, e più affidabili, in quanto disponibili a lavorare assiduamente nelle fasce orarie ad alta richiesta, ossia negli orari serali o durante i giorni festivi, garantendo loro un accesso prioritario alla scelta della collocazione delle successive prestazioni.
Si veniva così a creare, però, una disparità di trattamento significativa rispetto ai lavoratori che non potevano soddisfare tali requisiti.
Risultavano, infatti, indirettamente penalizzati, i soggetti che, ad esempio, per motivi di religione non potevano svolgere l’attività lavorativa durante i giorni festivi o che, per assistere un proprio familiare, non potevano garantire la propria prestazione durante l’orario serale.
Secondo il giudizio del Tribunale, questo strumento automatizzato rappresentava quindi una discriminazione indiretta nei confronti dei lavoratori che trovandosi in situazioni di “svantaggio”, dovute a motivi personali, religiosi, familiari, anagrafici si trovavano, di fatto, a concorrere con gli altri per l’accesso alle condizioni di lavoro migliori, senza tuttavia poter invocare tali fattori.
La sentenza del Tribunale di Torino
Anche il Tribunale di Torino, con la recente sentenza n. 2287 del 19 settembre 2024, ha trattato il tema del malfunzionamento del sistema informatizzato utilizzato dal Ministero dell’Istruzione e del Merito per l’assegnazione delle supplenze tramite le Graduatorie Provinciali per le Supplenze (GPS).
Il caso specifico riguardava una docente che, nell’anno scolastico 2021/2022, aveva ricevuto un incarico con un orario ridotto a 9 ore settimanali, nonostante avesse diritto al completamento dell’orario lavorativo.
Il Tribunale ha rilevato che il sistema utilizzato dal ministero non aveva attribuito correttamente ulteriori spezzoni di orario, disponibili e destinabili alla docente secondo il suo diritto al cosiddetto completamento, favorendo invece colleghi con punteggi inferiori.
In sostanza, pur avendo diritto a ulteriori incarichi integrativi, dopo l’assegnazione del primo incarico parziale era stata ingiustamente esclusa dalla piattaforma ministeriale dall’assegnazione di ulteriori incarichi e ciò aveva favorito docenti che avevano un punteggio inferiore.
Per tale motivo il Ministero è stato condannato a risarcire il danno arrecato alla docente.
Alle medesime conclusioni era pervenuto sempre il Tribunale di Torino con la sentenza n. 743 del 12 maggio 2023.
I rischi associati all’uso di sistemi di IA nei contesti lavorativi
Le pronunce di merito esaminate evidenziano chiaramente i potenziali rischi associati all’uso di sistemi di intelligenza artificiale nei contesti lavorativi. Questi strumenti, spesso percepiti come intrinsecamente imparziali grazie alla loro natura tecnologica e non umana, possono infatti produrre risultati discriminatori o iniqui anche difficilmente individuabili dall’utilizzatore.
Libertà sindacali e al diritto di sciopero dei lavoratori
La problematica si estende anche al tema delle libertà sindacali e al diritto di sciopero dei lavoratori.
Il Tribunale di Bologna, in particolare, con l’ordinanza n. 2949/2019 ha esaminato un sistema automatizzato adottato dalla società, ancora una volta di consegna a domicilio, che penalizzava i lavoratori con una riduzione del punteggio se non rispettavano le sessioni di lavoro programmate.
Tale meccanismo, secondo il Tribunale, poiché prescindeva da qualunque valutazione sulla legittimità delle ragioni dietro a tale astensione lavorativa, finiva per sanzionare però anche forme lecite di astensione dal lavoro, come il diritto allo sciopero, determinando una retrocessione nella fascia di prenotazione e, di conseguenza, limitando le future opportunità lavorative dei riders.
Secondo il Tribunale, in particolare, tale sistema consisteva in “una discriminazione indiretta, dando applicazione ad una disposizione apparentemente neutra (la normativa contrattuale sulla cancellazione anticipata delle sessioni prenotate) che però mette una determinata categoria di lavoratori (quelli partecipanti ad iniziative sindacali di astensione dal lavoro) in una posizione di potenziale particolare svantaggio”.
Sotto altro profilo, il Tribunale di Palermo, con la sentenza n. 14491 del 03/04/2023 ha affrontato, invece, il tema della pubblicità sui criteri e modalità di funzionamento dei sistemi dei sistemi automatizzati, previste dal D. Lgs. 104/2022, c.d. “Decreto Trasparenza”.
In particolare, con tale pronuncia il Tribunale ha considerato antisindacale la mancata comunicazione da parte di un datore di lavoro ai sindacati richiedenti riguardo ai criteri utilizzati dall’algoritmo per l’assegnazione degli incarichi ai riders.
Come evitare problemi in azienda
Le pronunce analizzate mettono in luce i rischi connessi all’uso dei nuovi sistemi di intelligenza artificiale, con particolare attenzione al tema del rispetto della parità di trattamento e alla necessità di prevenire le discriminazioni che potrebbero derivare dal loro impiego nei luoghi di lavoro.
Le discriminazioni identificate risultano prevalentemente indirette, ossia non intenzionali, e sono spesso influenzate dalla tipologia di algoritmo utilizzato. Questi fattori rendono difficile per i datori di lavoro individuare preventivamente le criticità che possono comportare possibili discriminazioni, sottolineando quindi l’importanza di un approccio consapevole e responsabile nell’adozione di strumenti basati sull’intelligenza artificiale.
Sarà allora cruciale per le aziende investire tempo e risorse nell’acquisire una conoscenza approfondita degli strumenti di intelligenza artificiale e imparare a utilizzarli in modo efficace e responsabile. Questo non solo per ottenere vantaggi competitivi nel mercato, ma anche per garantire che l’adozione della tecnologia avvenga in pieno rispetto delle normative vigenti.
Per orientarsi bisogna quindi guardare all’Unione Europea e al neonato AI ACT che attribuisce specifici obblighi al deployer, ovvero, nel nostro caso, il datore di lavoro che utilizza i sistemi di IA per scopi aziendali. In particolare, gli articoli 26 e 27 del nuovo Regolamento prevedono che il deployer debba attuare tutte le misure di sorveglianza umana indicate come necessarie dal fornitore nelle istruzioni per l’uso ed effettuare, soprattutto, una valutazione d’impatto del sistema IA sui diritti fondamentali, per assicurare che il suo utilizzo sia conforme alle normative e tuteli i lavoratori.