Il processo di trasformazione del mondo e del mercato del lavoro è ormai in corso da diverso tempo a causa delle frequenti innovazioni tecnologiche che hanno interessato tali ambiti; fino a pochi anni fa, tuttavia, non era immaginabile un’accelerazione così forte a causa dello sviluppo e della diffusione dei sistemi basati sull’intelligenza artificiale (IA).
L’intelligenza artificiale nel mercato del lavoro
Per comprendere la portata di tale fenomeno, basti considerare che l’IA ha già modificato i contenuti di tutte quelle mansioni che consistono in processi decisionali basati su dati (e big data) e sull’elaborazione delle informazioni, sostituendo rapidamente le attività manuali che fino a poco tempo fa richiedevano risorse aggiuntive e risultavano particolarmente dispendiose in termini di tempo ed energie. Il fatto che le macchine elaborino informazioni e dati, per trarre conclusioni o formare decisioni, spiega da sé quanto profonda possa essere questa rivoluzione.
Un recente studio del Gruppo Adecco ha rilevato che in media il 70% dei dipendenti in tutto il mondo utilizza già strumenti di IA generativa, come ChatGPT e Google Bard, sul posto di lavoro. Adecco prevede che circa 300 milioni di profili lavorativi saranno soggetti a trasformazioni a causa dell’implementazione di strumenti di IA nei prossimi anni.
L’IA nella selezione del personale: opportunità e rischi
Ma non solo. Uno degli ambiti in cui i sistemi basati sull’IA sono maggiormente diffusi è quello della selezione del personale.
L’uso dell’IA nel processo di recruiting apre la strada a grandi opportunità per le imprese alla ricerca di nuove risorse, ma anche a rischi da non sottovalutare. I sistemi di IA sono utilizzati per esaminare e valutare automaticamente curriculum, video colloqui e dati disponibili riguardanti i candidati, essendo in grado di creare un profilo dettagliato delle loro attitudini professionali e consentendo, in questo modo, di individuare i profili più adeguati alle esigenze aziendali.
La raccolta e la gestione automatizzata dei dati in fase preassuntiva risulta più rapida, accurata e incomparabilmente conveniente in tema di costi, rendendo improvvisamente obsoleti e dispendiosi i processi di reclutamento tradizionali. Una ricerca condotta dall’HR Research Institute ha rivelato che il 10% dei responsabili delle risorse umane intervistati utilizzava già nel 2019 sistemi di intelligenza artificiale, anche se le proiezioni suggerivano un aumento significativo e rapido di questa percentuale nei due anni successivi.
Protezione dei dati e compliance nel reclutamento automatizzato
Le insidie, tuttavia, sono dietro l’angolo e dimostrano quanto sia ancora fondamentale l’intervento umano. I processi di reclutamento automatizzati, infatti, devono necessariamente essere governati al fine di garantirne la compliance con la normativa vigente in materia di protezione dei dati personali e divieto di discriminazione.
Su questo e su molti altri temi è intervenuto anche il legislatore europeo con l’AIAct, approvato lo scorso 13 marzo, con la finalità di regolamentare l’uso e lo sviluppo dei sistemi basati sull’IA negli Stati dell’UE, garantendone un utilizzo etico, sicuro e responsabile che tuteli i diritti fondamentali e la sicurezza dei cittadini europei.
L’Artificial Intelligence Act: un quadro normativo per l’IA
L’AI Act trova applicazione in tutti i settori, a eccezione di quello militare, ed interessa pertanto anche l’ambito lavoristico.
Il modello introdotto dal legislatore europeo si basa sulla gestione del rischio; ciò significa essenzialmente che vengono individuati diversi sistemi di IA entro diverse categorie di rischio, a ciascuna delle quali corrisponde un diverso grado di regolamentazione.
I sistemi di IA utilizzati nel settore dell’occupazione, nella gestione dei lavoratori e nell’accesso al lavoro autonomo sono considerati ad alto rischio. Tra questi, sono inclusi tutti quei sistemi utilizzati per l’assunzione o la selezione di personale, per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati, adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti stessi, per assegnare mansioni sulla base del comportamento individuale, nonché per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro.
L’applicazione dell’AI Act nel settore dell’occupazione
Per i sistemi ad alto rischio è richiesta l’osservanza di specifici obblighi per il soggetto utilizzatore. In primo luogo, infatti, deve essere garantita la massima trasparenza, prima ancora che detti sistemi siano immessi sul mercato o messi in servizio e, dunque, sin dalla fase di progettazione (considerando n. 72; art. 50).
Inoltre, sono previsti specifici obblighi di informazione riguardanti le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA, nonché l’azione del datore di lavoro suscettibile di influenzare il comportamento e le prestazioni del sistema stesso, nel quadro dei quali sono ravvisabili rischi per la salute, per la sicurezza e per i diritti fondamentali (considerando n. 72 e n. 92; art. 26, par. 7).
Il quadro normativo oggi vigente risulta alquanto complesso, ma rappresenta un importante punto di partenza per l’individuazione degli strumenti più idonei per regolamentare l’utilizzo dell’IA e, in parallelo, salvaguardare i diritti fondamentali, la sicurezza e la protezione dei dati.
Il ruolo delle imprese nell’applicazione etica dell’IA
In questo percorso viene riconosciuto un ruolo fondamentale alle imprese, le quali sono chiamate a garantire che il progresso tecnologico sia in linea con la tutela degli interessi sia individuali che collettivi, dando priorità ad un approccio “human based” e considerando tutte le implicazioni etiche, sociali e legali connesse.