La maggior parte dei siti globali dedicati alla ricerca del lavoro utilizza l’intelligenza artificiale per abbinare le persone, in cerca di occupazione, con le “posizioni aperte” in azienda.
Il matching serve a consentire ai candidati di cogliere le opportunità professionali presenti sulle piattaforme di reclutamento online. Tuttavia, spesso gli algoritmi di Job recruiting non risultano corretti, ma soffrono di pregiudizio di genere, sfavorendo l’occupazione femminile.
Intelligenza artificiale alleata dei recruiter, ma attenti ai pregiudizi: come evitare problemi
Il gender bias scoperto su LinkedIn
Esemplare è il caso di LinkedIn che ha scoperto come gli algoritmi di “raccomandazione”, utilizzati per abbinare i candidati con le opportunità di lavoro, producevano risultati “distorti”, privilegiando candidati uomini rispetto alle donne. Infatti nelle posizioni disponibili gli uomini risultavano maggiormente presenti e più propensi a cercare nuove opportunità rispetto alle donne.
LinkedIn, dopo aver rilevato il problema, ha realizzato un nuovo programma di intelligenza artificiale per contrastare il pregiudizio di genere emerso dai risultati iniziali. Nel frattempo, alcuni dei più grandi siti di ricerca di lavoro a livello globale – tra cui CareerBuilder, ZipRecruiter e Monster – hanno deciso di adottare approcci molto diversi per affrontare sulle proprie piattaforme i pregiudizi legati al Gender Bias.
Inoltre, i siti di recruiting sfruttano spesso soluzioni proprietarie, senza rivelare come funzionano i sistemi, impedendo di fatto a chi cerca lavoro di sapere quanto siano efficaci le misure atte a prevenire effettivamente la discriminazione di genere. Fra l’altro, l’algoritmo non valuta l’esperienza professionale pregressa, bensì punta solo sulle associazioni.
L’intelligenza artificiale nelle piattaforme di selezione
L’intelligenza artificiale può determinare quali post vedere sulle piattaforme di ricerca di lavoro e decidere se trasmettere il curriculum vitae del candidato alle risorse umane dedite al reclutamento in azienda. Oggigiorno, sempre più aziende utilizzano l’intelligenza artificiale per reclutare e assumere nuovi dipendenti, fino ad impiegarla in quasi tutte le fasi del processo di assunzione. Una tendenza che si è accentuata con l’insorgere del Covid-19 che, di fatto, ha alimentato nuova domanda per queste tecnologie, oltre a quelle che supportano le interviste basate sull’intelligenza artificiale.
Le persone in cerca di lavoro devono, dunque, imparare a “farsi distinguere” sia da parte dell’algoritmo sia dei responsabili delle assunzioni. Inoltre, ad oggi permangono problemi irrisolti.
Oltre alla mancanza di informazioni chiare sul funzionamento degli algoritmi, i candidati tendono a sottovalutare l’impatto che gli algoritmi e i motori di raccomandazione generano sulle posizioni lavorative aperte. Infatti, la modalità di presentazione di un candidato viene elaborata da migliaia di macchine e server, prima ancora di giungere all’occhio umano.
L’intelligenza artificiale, al di là dei rischi e benefici in termini di attività di reclutamento, non mette al riparo dai pregiudizi. E, potenzialmente, potrebbe anche rimuovere segnali di pregiudizio espliciti nei dati, in grado di generare risultati più equi. Un esempio è la rimozione dei nomi (da cui, spesso, si può dedurre l’etnia di qualcuno o il genere) dai curriculum vitae prima che vengano utilizzati in modelli di algoritmi basati sull’intelligenza artificiale.
Il matching nel reclutamento online vs pregiudizi nell’AI
Le principali società di reclutamento online abbinano candidati qualificati con le posizioni disponibili. Molte piattaforme, per organizzare il matching tra le posizioni disponibili e i candidati, utilizzano algoritmi di “raccomandazione” che elaborano le informazioni ricevute – sia dalle organizzazioni sia da chi cerca lavoro – e redigono un elenco per ciascuno degli attori, svolgendo l’attività di search, in pochi minuti se non addirittura secondi.
Di solito i motori di matching sono ottimizzati per generare applicazioni che basano le loro “raccomandazioni” su tre categorie di dati:
- informazioni che l’utente fornisce direttamente alla piattaforma;
- dati assegnati all’utente in base a competenze, esperienze e interessi simili;
- dati comportamentali scaturiti dalla frequenza con cui un utente risponde ai messaggi o interagisce con gli annunci di lavoro.
È stato dimostrato che, nel mercato del lavoro statunitense, i nomi di candidati afroamericani vengono sistematicamente discriminati, mentre i nomi appartenenti a candidati bianchi ricevono più richieste per i colloqui. Ebbene, anche gli algoritmi appaiono soggetti allo stesso “vizio”, mettendo a rischio la diversity in azienda.
La risposta delle Big Tech per migliorare la diversity in azienda
Amazon, tra il 2014 e il 2017, per selezionare i candidati a un posto di lavoro avrebbe penalizzato parole come “donne” o i nomi dei college femminili sui curriculum vitae dei candidati.
Facebook – secondo quanto dimostrato dai ricercatori della Northeastern University, dell’Università della California e di Upturn, un gruppo di difesa d’interesse pubblico – segue gli stereotipi di genere e di razza nella pubblicazione di annunci di lavoro.
LinkedIn utilizza algoritmi che escludono il nome, l’età, il sesso e la razza di una persona, in quanto tali caratteristiche, quando prese in esame, possono contribuire a distorsioni nei processi automatizzati. Tuttavia, anche operando così, gli algoritmi del social network dei professionisti potrebbero ancora rilevare modelli comportamentali esibiti da gruppi con particolari identità di genere. Mentre gli uomini godono di maggiori probabilità di candidarsi per lavori che richiedono un’esperienza lavorativa al di là delle loro qualifiche, le donne tendono a scegliere solo professioni in cui le loro qualifiche corrispondono ai requisiti della posizione. In tal modo l’algoritmo interpreta la variazione di comportamento, adattando le “raccomandazioni” svantaggiando “inavvertitamente” le donne. Inoltre, gli uomini sono soliti ad includere più competenze nei loro curriculum, pur presentando un livello di conoscenza inferiore rispetto alle donne, e tendono ad interagire in modo più aggressivo con i reclutatori della piattaforma.
Per risolvere questi problemi, LinkedIn, a partire dal 2018, ha creato una nuova intelligenza artificiale, progettata per produrre risultati più rappresentativi, attraverso l’uso separato di un algoritmo progettato per contrastare le raccomandazioni distorte verso un particolare gruppo ed assicurare una più equa distribuzione degli utenti per genere.
Monster, invece, incorpora nelle “raccomandazioni” anche dati comportamentali senza correggere i pregiudizi (così come garantito da LinkedIn) e, per arricchire la diversity durante la selezione, affida al team di marketing il compito di assicurare la presenza di candidati di diversa provenienza fra gli utenti che si iscrivono al servizio e delega ai datori di lavoro il compito di riferire e comunicare a Monster l’effettiva approvazione o meno di un gruppo rappresentativo di candidati.
CareerBuilder ha messo in atto una politica che si concentra sull’utilizzo dei dati raccolti dal servizio per insegnare ai datori di lavoro le modalità atte ad eliminare i pregiudizi dalle loro offerte di lavoro, anche attraverso un uso ponderato di termini, all’interno dell’annuncio, per evitare che il recruiting penalizzi la candidatura di donne.
ZipRecruiter, invece, utilizza algoritmi che non tengono conto di determinate caratteristiche identificative – come i nomi – quando si classificano i candidati. Di fatto, le persone vengono classificate sulla base di altri 64 tipi di informazioni – compresi i dati geografici – ritenendo questa modalità maggiormente idonea a raggiungere un grado di valutazione basata sul merito delle persone.
Come avviene un processo di selezione basato sull’intelligenza artificiale
Secondo il World Economic Forum (WEF), l’utilizzo di strumenti di assunzione predittiva servirà sia a ridurre tempi e costi sia ad aumentare la qualità e la durata di ogni nuova assunzione. È doveroso ricordare che comprendere il ruolo degli algoritmi nel processo di assunzione può aiutare a identificare le origini dei pregiudizi.
Sourcing
In genere, l’assunzione non implica una singola decisione, bensì un processo che coinvolge numerose piccole decisioni che culminano in un’offerta di lavoro. L’obiettivo della prima fase, nota come sourcing, consiste nel generare un gruppo consistente di candidati tramite annunci pubblicitari, ricerca attiva di profili o interessanti descrizioni di posizioni lavorative disponibili. In questa fase, l’intelligenza artificiale viene utilizzata per ottimizzare la visualizzazione degli annunci di lavoro e la loro formulazione.
Screening
Successivamente, si svolge lo screening, una fase assai delicata, durante la quale può verificarsi la distorsione algoritmica che può influenzare fortemente l’accettazione o meno di una candidatura. Lo screening sfrutta algoritmi che decifrano sistematicamente la lettera di presentazione e il curriculum vitae.
Queste informazioni sono salvate nel database delle risorse umane dell’azienda e riguardano dati in termini di:
- anni di esperienza
- lingue parlate
- titoli universitari conseguiti
- Paesi in cui si è lavorato.
Gli algoritmi vengono, quindi, utilizzati per restringere automaticamente la selezione dei candidati, non in modo affermativo, ma rifiutando quelli che non si “adattano”.
La fase del colloquio online
Dopo aver superato il processo di selezione, il candidato potrebbe essere invitato a un colloquio online basato forse su algoritmi diversi per supportare la decisione finale di selezione del datore di lavoro. In questa fase, si valutano, ad esempio, i candidati in base alle parole chiave, alle espressioni facciali e ai toni che utilizzano durante le interviste video.
L’uso di algoritmi di apprendimento automatico, in ciascuno di questi passaggi, può indurre a mettere in dubbio l’equità di un sistema di reclutamento guidato dall’intelligenza artificiale.
Di fatto, gli algoritmi sono spesso addestrati a leggere formati specifici di CV, pertanto potrebbe significare che il curriculum vitae non viene valutato in maniera corretta. Ad esempio, in Giappone esiste un modello di curriculum vitae comune (Rirekisho) utilizzato da tutti i candidati. In Cina, i candidati elencano la loro esperienza lavorativa secondo una cronologia inversa.
Inoltre, esistono altre differenze culturali tra curriculum vitae americani e quelli europei: il primo è di solito lungo una pagina senza foto, mentre il secondo può spaziare da due a tre pagine, arricchito con una foto.
Il confronto fra candidature
Il curriculum vitae, dopo essere stato analizzato con successo, ovvero tradotto in dati leggibili dalla macchina, verrà esaminato da un altro algoritmo che classificherà la candidatura rispetto ad altre, in base ai dati del curriculum vitae e della lettera di presentazione inviata.
Ogni fattore – come gli anni di esperienza, le lingue, le competenze software e l’insieme di parole utilizzate e che rappresentano alcuni dei parametri utilizzati – sarà ponderato in base a ciò che si stima abbia funzionato con successo in passato.
Le decisioni di assunzione degli anni passati vengono spesso utilizzate per addestrare l’algoritmo a valutare chi ha maggiori probabilità di essere il candidato “giusto”. Ne consegue che questo approccio replica intrinsecamente gli stessi pregiudizi che erano presenti prima dell’arrivo degli strumenti di reclutamento basati sull’intelligenza artificiale: se la distribuzione per genere dei training dataset era fortemente sbilanciata, ciò può essere replicato da un algoritmo, anche se il genere non è incluso nelle informazioni fornite nei documenti di domanda.
Inoltre, forti squilibri di genere, come nel caso di Amazon, potrebbero essere correlati al tipo di studio intrapreso oppure derivare da una cattiva qualità dei dati o da set di dati molto piccoli e non diversificati, come nel caso delle aziende che non operano a livello globale e sono alla ricerca di candidati di nicchia.
Allo stesso modo, la valutazione delle interviste video condotte prima di qualsiasi interazione di persona può replicare pregiudizi che si basano sui training dataset se non sono stati accuratamente controllati rispetto a categorie come sesso, età o religione.
Conclusioni
L’analisi umana dei risultati forniti dall’intelligenza artificiale è dunque fondamentale e strategica. Inoltre, per poter contare sugli algoritmi e la corretta elaborazione dei dati, è necessario assicurarsi che nello sviluppo di algoritmi di intelligenza artificiale ci siano parità di genere e multiculturalità al fine di evitare la “discriminazione algoritmica”.
Ricordando quanto affermava il filosofo tedesco Feuerbach (“L’Uomo è ciò che mangia”) si può osare dire che l’intelligenza artificiale è “ciò che mangia”, ovvero, in gergo informatico, “garbage in, garbage out”.
Il problema risiede nella selezione dei dati: a seconda della tipologia di dati, il modello matematico interpreta il mondo con una prospettiva distorta dato che risulta alimentato da dati parziali da cui scaturiranno risposte parziali. Una parzialità che diventa inevitabile considerando il fatto che la maggioranza dei Data scientist sono maschi, giovani, bianchi e, inevitabilmente, vedono il mondo in base alle proprie esperienze e pregiudizi. La visione del mondo degli sviluppatori si riflette negli algoritmi da loro realizzati.
Ci troviamo in un momento storico in cui assistiamo alla pervasività delle macchine intelligenti. Macchine che ci affascinano per le capacità di elaborazione, ma, al tempo stesso, ci inducono a riflettere su quanto sia necessario definire lo specifico umano che ci rende diverse da esse.
È necessario, oggi più che mai, essere in grado di stabilire se l’intelligenza artificiale sia in grado di operare scelte senza commettere errori e, al contempo, verificare come la stessa intelligenza artificiale interagisca con l’uomo in modo tale da attuare un’innovazione armonica che mantenga sempre al centro l’homo sapiens a salvaguardia degli aspetti etici ed in contrapposizione alle machinae sapientes.
Un’intelligenza artificiale caratterizzata da un’enorme potenziale e da una grande capacità trasformativa può cambiare lo scenario in cui ci troviamo ad operare. Il nostro compito, come umani, consiste nel trovare la cosiddetta media res, per esempio nell’includere le varie humanitas nella creazione degli algoritmi in modo tale da rappresentare la totale “galleria umana” ed evitare società disumane.
Antidoti contro il dataismo
Stiamo assistendo ad un’evoluzione tecnologica che opera in un mondo fatto di dati che regnano sovrani (dataismo). Essi alimentano l’intelligenza artificiale che si sta sempre più insinuando in ogni ambito della nostra vita, fino a creare la coesistenza fra uomo e intelligenze artificiali.
Nel suo libro “Le macchine sapienti” Paolo Benanti, docente alla Pontificia Università Gregoriana, afferma: “In un contesto dataista non saranno più gli esami di ammissione o i colloqui di lavoro a stabilire il nostro valore, le nostre conoscenze o l’attitudine ad alcuni campi di studio o di lavoro.
I dati ci diranno chi va bene per cosa… saranno il modo in cui i sacerdoti e gli oracoli di questo nuovo culto, i server, prenderanno decisioni sulle persone e sulle loro vite”.
L’adozione di governance internazionali: il regolamento UE sull’AI
Ne consegue che lo sviluppo e la gestione dell’intelligenza artificiale e degli algoritmi richiederà sempre più un approccio politico-economico attraverso l’adozione di governance internazionali per lo sviluppo di queste tecnologie. È in quest’ottica che bisogna interpretare la promozione lo scorso 21 aprile di un regolamento sull’Intelligenza Artificiale da parte della Comunità Europea atta a salvaguardare una visione antropocentrica dello sviluppo di nuove tecnologie: un’intelligenza artificiale che non sia un fine, bensì un mezzo messo al servizio del benessere dell’uomo.