l’analisi

Il lavoro nel disegno di legge italiano sull’IA: antipasto dell’AI Act



Indirizzo copiato

Il disegno di legge italiano sull’intelligenza artificiale mira a promuovere un uso responsabile e antropocentrico dell’AI, garantendo la tutela dei lavoratori. Disposizioni anticipatorie delle previsioni lavoristiche dell’AI Act, le quali, ad eccezione del divieto di utilizzo di sistemi a rischio giudicato eccessivo, diverranno operative non prima del 2026

Pubblicato il 7 mag 2024

Marco Biasi

Professore Associato dell’Università degli Studi di Milano – Docente di Diritto del lavoro e intelligenza artificiale



intelligenza artificiale ai act

L’intelligenza artificiale è al centro dell’agenda politica nazionale e sovranazionale, come dimostra l’imminente incontro del G7 dedicato al tema de quo.

Sul punto, da Oriente a Occidente si registrano – o, meglio, si confrontano – diversi approcci, che riflettono filosofie di fondo alquanto eterogenee.

Vi è chi si palesa al momento scettico, se non contrario, rispetto un intervento normativo ad ampio spettro, per timore di ostacolare in tal modo il progresso tecnologico o, per altro verso, di limitare, tutelando i diritti dei cittadini, il potere di controllo dell’autorità centrale[1].

Il Regolamento europeo sull’Intelligenza Artificiale (AI Act)

La recente regolazione europea si basa, invece, sul presupposto che non vi sia alcuna incompatibilità di fondo tra l’evoluzione dell’AI ed il rispetto dei diritti fondamentali delle persone: anzi, il messaggio chiave del Regolamento Europeo sull’Intelligenza Artificiale (d’ora innanzi, “AI Act”) è che la tecnologia debba fungere da mezzo a servizio dell’uomo (e non il contrario), donde il reiterato richiamo, all’interno del testo (e in altri documenti di varia natura approvati, pressoché contestualmente, al di fuori dei confini europei[2]), all’idea di un’AI antropocentrica.

Tale impostazione permea l’intero AI Act e si estende alle disposizioni che esso dedica al lavoro, a loro volta costruite attorno al concetto di rischio: da un lato, si collocano i sistemi a rischio inaccettabile (come i sistemi di riconoscimento delle emozioni sul posto di lavoro o di categorizzazione biometrica delle persone, volti a dedurre caratteristiche sensibili come la razza, le opinioni politiche, l’affiliazione sindacale, l’orientamento sessuale e il credo religioso), la cui immissione in commercio all’interno dell’Ue viene vietata; dall’altro lato, si pongono i sistemi ad alto rischio, tra i quali rientrano i software utilizzati nel campo dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo, senza dimenticare che è ad alto rischio anche un sistema che ponga in essere una profilazione di persone fisiche, ivi compresi i lavoratori. L’impiego dei sistemi ad alto rischio non è precluso in radice, ma è condizionato al rispetto di una serie obblighi che l’AI Act pone in capo, a monte, al fornitore (verifica, mappatura e istituzione di un sistema di gestione dei rischi) e, a valle, all’utilizzatore (ossia, ai nostri fini, al datore di lavoro, chiamato a garantire la trasparenza, ad attuare la sorveglianza e ad effettuare, laddove previsto, la valutazione di impatto)[3].

Per quanto la regolamentazione europea muova in una logica orizzontale (rafforzata dalla scelta dello strumento del regolamento, in luogo della direttiva), è lo stesso AI Act a precisare, secondo un modello di relazione tra le fonti dell’ordinamento euro-unitario già sperimentato con il GDPR, che al legislatore nazionale (ma anche alle parti sociali) è consentito approntare una migliore protezione dei lavoratori rispetto a quella garantita dalla cornice europea sull’AI.

Il disegno di legge italiano sull’intelligenza artificiale

Qui entra in gioco, a livello italiano, oltre all’obbligo informativo di cui all’art. 1-bis d.lgs. n. 152/1997 (del quale si dirà in breve), il disegno di legge “recante disposizioni e delega al governo in materia di intelligenza artificiale”, di recentissima approvazione da parte del Consiglio dei Ministri.

Non diversamente dall’AI Act, il d.d.l. in parola mira a promuovere “un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale”, e a garantire “la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale” (così nell’art. 1 – finalità e ambito di applicazione).

Tale linea d’azione trova riscontro nelle due disposizioni che, all’interno dell’articolato, vengono dedicate alla materia del lavoro ed in particolare nell’art. 10, ove si prevede, al primo comma, che “l’intelligenza artificiale è impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea”. Ad un primo sguardo, si può sostenere che la norma in esame, pur priva di un immediato valore precettivo, risulta comunque espressiva della consapevolezza non solo dei rischi, ma anche delle opportunità che l’AI presenta per il lavoro, tanto è vero che si parla addirittura di un “miglioramento” – e non di una mera “salvaguardia” – delle condizioni di lavoro.

Sicurezza e tutela dei dati

Altre questioni fondamentali attengono alla sicurezza ed alla tutela dei dati[4], la cui centralità emerge anche dal successivo comma 2, ove si stabilisce (o si ricorda?) che “l’utilizzo dell’intelligenza artificiale in ambito lavorativo deve essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali”.

Sempre nel comma 2, si legge che “il datore di lavoro o il committente è tenuto a informare il lavoratore dell’utilizzo dell’intelligenza artificiale nei casi e con le modalità di cui all’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152”. Quest’ultima disposizione, introdotta dal “decreto trasparenza” (d.lgs. n. 104/2002) ed in seguito emendata dal “decreto lavoro” (d.l. n. 48/2023), prevede un capillare obbligo di informativa a favore dei lavoratori (e dei loro rappresentanti) nell’ipotesi in cui i datori di lavoro (o i committenti di una prestazione coordinata e continuativa) si avvalgano di sistemi decisionali o di monitoraggio integralmente automatizzati in grado di fornire “indicazioni rilevanti” – dunque, non necessariamente vincolanti – ai fini dell’adozione delle scelte aziendali[5].

Sul punto, va sottolineato che la norma poc’anzi richiamata ha riguardo ad un’AI che adiuva e non sostituisce il decisore umano e, nella stessa prospettiva, si pone, relativamente alla definizione delle controversie (anche) lavoristiche, l’art. 14, comma 2, del d.d.l. in commento, ove si legge che “è sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”[6].

Tornando all’art. 1-bis d.lgs. n. 152/1997, si è rilevato in dottrina che esso presenta alcuni tratti distintivi rispetto alle disposizioni lavoristiche dell’AI Act, sul piano non tanto e non solo degli obblighi, quanto degli obbligati, che, nella normativa europea, sono il fornitore e l’utilizzatore (i.e. il datore di lavoro), mentre nella normativa italiana è il solo datore di lavoro o committente. Resta in ogni caso fermo l’obbligo, derivante dall’AI ACT, di utilizzare il sistema in conformità alle istruzioni e alle misure di sorveglianza umana indicate dal fornitore non pregiudica gli obblighi che gravano sul datore di lavoro o committente ai sensi del decreto trasparenza, come ricorda il comma 2 dell’art. 10 del d.d.l. in commento.

L’intelligenza artificiale nel rapporto di lavoro secondo il ddl

Il terzo e ultimo comma del medesimo art. 10 stabilisce che “l’intelligenza artificiale nell’organizzazione e nella gestione del rapporto di lavoro garantisce l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione del sesso, dell’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni politiche e delle condizioni personali, sociali ed economiche, in conformità con il diritto dell’Unione europea”. A questo proposito, va tenuto presente che, pur presentandosi in apparenza neutro ed obiettivo (in quanto automatico), un sistema decisionale di AI possa dare comunque luogo a forme di discriminazione, le quali risultano vieppiù insidiose, in quanto celate dietro l’opacità dell’algoritmo[7]. Il d.d.l. si mostra condivisibilmente attento alla questione, anche se l’inserimento di una caratteristica estranea al novero dei fattori tipici protetti dal diritto antidiscriminatorio (“le condizioni sociali ed economiche”) suscita qualche perplessità, considerata pure la genericità di tale riferimento.

Nell’insieme, l’art. 10 del d.d.l. sembra assumere una funzione sostanzialmente ricognitiva dei previgenti obblighi di matrice europea e nazionale, il che rende difficile comprendere quale possa essere lo spazio e, soprattutto, l’impatto di un futuro intervento attuativo della delega in parte qua, salvo che in funzione sostanzialmente anticipatoria (più che integrativa) delle previsioni lavoristiche dell’AI Act, le quali, ad eccezione del divieto di utilizzo di sistemi a rischio giudicato eccessivo, diverranno operative non prima del 2026.

Il ruolo dell’Osservatorio sull’IA del Ministero del Lavoro

Della supervisione del processo di adeguamento della normativa italiana a quella europea potrebbe occuparsi l’Osservatorio la cui costituzione, presso il Ministero del Lavoro e delle Politiche Sociali, è contemplata dall’art. 11 del d.d.l. in commento, che va raccordato con il successivo art. 18, ove si affida la governance dell’intelligenza artificiale in Italia all’Agenzia per l’Italia digitale (AgID) e all’Agenzia per la cybersicurezza nazionale (ACN). All’Organismo di cui all’art. 11 verrebbe assegnato il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, di monitorare l’impatto sul mercato del lavoro, di identificare i settori lavorativi maggiormente interessati dall’avvento dell’AI.

Formazione dei lavoratori e datori di lavoro in materia di IA

Significativamente, l’Osservatorio dovrebbe altresì promuovere la formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale, operando però – verrebbe da dire, ancora una volta – a spese invariate (v. comma 3 dell’art. 11): ciò finirebbe per far inevitabilmente ricadere i costi della formazione, che giustamente il d.d.l. considera centrale come antidoto alla diffusamente temuta “disoccupazione tecnologica”, sui privati, pur dovendosi dar conto del sostegno di recente offerto dal legislatore alle iniziative condivise delle parti sociali in punto di formazione (v. il Fondo Nuove Competenze)[8].

In conclusione, il d.d.l. in esame sembra porsi in linea con i principi alla base dell’AI Act, che, come rilevato in apertura, non chiude la porta ad eventuali soluzioni a livello nazionale le quali si pongano nell’ottica di un miglioramento delle protezioni garantite dal regolamento europeo.

Possibili integrazioni della disciplina europea a livello nazionale

Piuttosto, ci si potrebbe chiedere quali siano i margini per una vera e propria integrazione della disciplina europea a livello nazionale, visto il carattere sostanzialmente ricognitivo della disposizione chiave del progetto di legge nazionale, ossia dell’art. 10, che ad oggi pare assumere la precipua funzione di un messaggio di policy.

In questo senso, bisogna comunque tenere a mente che, se altrove si avverta la mancanza di una regolazione e, quindi, di un equilibrio tra il progresso tecnologico e la tutela dei diritti fondamentali (tanto è vero che sono in molti ad auspicare un cosiddetto Effetto Bruxelles sugli ordinamenti extra-europei), nel contesto europeo – ed in Italia in particolare – si corre invece il rischio che un’eccessiva e non armonizzata normazione possa, non solo mettere in difficoltà gli operatori (e, quindi, frenare l’innovazione), ma anche rendere più complesso garantire l’effettività dei diritti delle persone, per quanto formalmente e solennemente dichiarati.

Note


[1] G. Ziccardi, L’intelligenza artificiale e la regolamentazione giuridica: una relazione complessa, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Giuffrè, Milano, 2024, in corso di pubblicazione.

[2] M. Bassini, Intelligenza artificiale e diritti fondamentali: considerazioni preliminari, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Giuffrè, Milano, 2024, in corso di pubblicazione.

[3] M. Peruzzi, Intelligenza artificiale e lavoro: l’impatto dell’AI Act nella ricostruzione del sistema regolativo Ue di tutela, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Giuffrè, Milano, 2024, in corso di pubblicazione.

[4] S. Marassi, Intelligenza artificiale e sicurezza sul lavoro, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Giuffrè, Milano, 2024, in corso di pubblicazione.

[5] E. Dagnino, Il diritto interno: i sistemi decisionali e di monitoraggio (integralmente) automatizzati tra trasparenza e coinvolgimento, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Giuffrè, Milano, 2024, in corso di pubblicazione.

[6] In questo senso, a proposito della “giustizia predittiva del lavoro”, M. Biasi, Intelligenza artificiale e processo: verso un robot-giudice per le controversie lavoristiche?, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Giuffrè, Milano, 2024, in corso di pubblicazione.

[7] P. De Petris, La discriminazione algoritmica. Presupposti e rimedi, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Giuffrè, Milano, 2024, in corso di pubblicazione.

[8] F. Lamberti, Formazione, occupabilità e certificazione delle competenze (tramite blockchain): un’alternativa alla “disoccupazione tecnologica”, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Giuffrè, Milano, 2024, in corso di pubblicazione.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3