In misura sempre maggiore le aziende si affidano ai sistemi automatizzati dell’intelligenza artificiale per scremare la prima selezione del personale. Oltre a dover scrivere un CV con l’idea di colpire un essere umano (fase successiva) bisogna strutturare un résumé preliminare che superi gli standard della macchina.
È come se ci chiedessero di scrivere un curriculum capace di soddisfare l’engine di Google, SEO friendly.
Parole chiave, concisione, documentazione delle skill (quando sono state acquisite e per quanto tempo sono state impiegate) e poche perifrasi. Bisogna imparare a ragionare come gli algoritmi. Esistono alcuni software che aiutano a strutturare un perfetto curriculum, sulla base degli standard imposti dall’intelligenza artificiale, per esempio Jobscan e Vmock. Quali conseguenze ha per il mercato del lavoro automatizzare la selezione?
Intelligenza artificiale alleata dei recruiter, ma attenti ai pregiudizi: come evitare problemi
Le conseguenze dell’automazione sul mercato del lavoro
Affidare il reclutamento al machine learning è discriminatorio già nei confronti di coloro che non conoscono l’esistenza di questi processi di selezione e quindi strutturano i loro curricula pensando di colpire esseri umani. La discriminazione interviene poi nella scelta dei soggetti che applicano e nella visibilità degli annunci, similmente al fatto che due clienti diversi ottengono proposte di prezzo non sovrapponibili per la prenotazione di uno stesso hotel.
Emblematico a tal riguardo fu il caso di Amazon che, affidando il recruitment all’Intelligenza Artificiale, scartò tutti i CV in cui c’era un qualunque riferimento al genere femminile. La rete artificiale si era allenata sui vecchi curricula selezionati, imparando che le donne non erano una categoria preferibile nel settore Tech. E come dare torto all’IA? La ragione remota di questo apprendimento non era una effettiva minore competenza della donna, ma la società patriarcale. E tu come glielo traduci questo particolare all’algoritmo? E soprattutto quante false inferenze restano celate nel recruitment automatizzato prima di renderci conto che è stato discriminatorio per… anni?
Recentemente è emerso che alcuni algoritmi interpretano come un plus il fatto di conoscere la programmazione, anche se tale skill non fosse rilevante per il posto di lavoro per cui si è applicato. Allo stesso modo alcuni algoritmi scartano quei curricula in cui per un lasso di tempo si è stati inattivi, al di là del fatto che l’inoccupazione possa essere giustificata da una malattia, dalla preparazione a un concorso, dall’assistenza a un parente.
Sembra che più si è familiari con gli algoritmi più si hanno chance di assunzione e questo al di là delle reali competenze legate al lavoro. Chi si occupa di algoritmi di recruitment suggerisce di applicare comunque, anche se le caratteristiche non combaciano totalmente con le richieste del posto. “Lascia alla macchina il compito di decidere se sei ok, non all’essere umano che è in te” sembra essere la regola implicita del sistema. Questo consiglio riflette un comportamento tipico dei soggetti maschili. L’uomo tende a elencare un numero maggiore di esperienze rispetto alle donne ed è solito inviare richieste di assunzione anche quando la posizione non corrisponde totalmente alle proprie caratteristiche. Non è che l’algoritmo deduce il genere maschile da queste tendenze comportamentali, preferendo i candidati che esibiscono tali caratteristiche personologiche? Non è che il suggerimento dei programmatori di applicare anche laddove la corrispondenza con l’annuncio non è al 100% tradisce il fatto che l’algoritmo incorpora questo genere di bias, consigliando un modo per ingannare la rete?
Allenarsi a essere visti dall’IA
Per avere successo nel mondo del lavoro non basta più acquisire esperienze e formazione, occorre allenarsi a essere visti dall’IA, a essere giudicati adatti secondo gli standard della macchina. In effetti è lei che ci assumerà. L’umano tenderà sempre più a escludersi in questa fase, diventando però sempre più rilevante a monte: nell’analisi del rischio degli algoritmi.
Recentemente, per ragioni pandemiche, Boris Johnson decise di affidare la valutazione degli studenti all’intelligenza artificiale, eliminando il classico test di maturità. Il giudizio automatizzato finiva per premiare gli studenti benestanti e generalmente abbassava il voto medio rispetto alle valutazioni espresse dagli insegnanti durante le maturità passate. Questi fatti portarono il governo inglese a dismettere questo sistema valutativo che finiva per penalizzare gli alunni nell’accesso universitario.
La possibilità che anche gli algoritmi di recruiting includano bias è più che realistica: un loro impiego nel settore comporta quasi sempre un rischio troppo alto, anche comparato ai benefici effettivi dell’IA. Il lavoro è un diritto universale e lasciare che la macchina implementi errori sistematici nei processi di reclutamento è come se proponesse una sorta di divisione sociale per nascita, dove alcuni possono a prescindere, per caratteristiche che prescindono dal lavoro.
Alcuni esempi di sistemi automatizzati che le aziende usano invece dei recruiter umani
Vediamo ora alcuni esempi di sistemi automatizzati che le aziende impiegano in luogo ai recruiter umani.
HireVue offre una piattaforma video per effettuare i colloqui di lavoro in modo automatizzato. Attraverso l’intelligenza artificiale si semplificherebbero i processi di valutazione dei candidati prevedendo la loro probabilità di successo. Il Machine Learning analizza le risposte dei singoli in un’intervista video registrata, valutando quelle verbali e, in taluni casi, i movimenti facciali, con tutto quello che ne deriva.
HireVue afferma che lo strumento utilizzato da circa cento clienti, tra cui Hilton e Unilever, è molto più efficace rispetto ai recruiter umani a predire le prestazioni lavorative dei candidati.
Piattaforme come Arya si spingono oltre. In questo caso la rete artificiale utilizza in modo incrociato i dati disponibili nel database interno di un’azienda, le bacheche pubbliche di lavoro, social network come Facebook e LinkedIn e altri profili online. Arya afferma di essere persino in grado di prevedere se è probabile che un dipendente lasci il suo vecchio lavoro e ne prenda uno nuovo; questo sulla base dei dati che colleziona sui candidati, come le promozioni, il movimento compiuto tra i ruoli e i settori in precedenza, i dati sul ruolo che ricoprirà, come il grado di adattamento richiesto ai lavoratori e l’industria più in generale.
Cosa ne è della privacy del soggetto se il nostro futuro sarà sempre più in mano a sistemi simili, in grado di valutarci sui post di pancia condivisi magari nell’adolescenza? Siamo certi che il NLP comprenderà l’ironia e tutta la parte di pragmatica del linguaggio che mettiamo in atto costantemente nelle nostre conversazioni? Dovremo esistere online con il terrore di non essere fraintesi anche dai recruiter automatizzati?
Un altro uso dell’intelligenza artificiale nella selezione del lavoro è la valutazione cognitiva e della personalità. Pymetrics vende sorte di test cognitivi alle aziende, così che i candidati quando applicano a una posizione vengano valutati anche per dati attentivi. A volte è richiesto di premere la barra spaziatrice ogni volta che compare un cerchio rosso, discriminando la comparsa di quelli verdi. Pymetrics afferma sul suo sito web che il sistema sa abbinare i candidati ai lavori in modo molto preciso sulla base delle risposte cognitive ottenute nel gioco. Chi videogioca da tutta la vita agli arcade penso sia avvantaggiato in questo genere di selezioni.
Conclusioni
Insomma, attraverso l’intelligenza artificiale ogni rèsumè è sicuramente preso in considerazione. Ma come?
Molti di questi strumenti di intelligenza artificiale affermano di seguire la regola dei quattro quinti, un procedimento statistico usato per valutare l’impatto avverso del sistema di recruiting. La regola viene utilizzata per confrontare il tasso di selezione dei gruppi demografici e indagare se i criteri di selezione potrebbero aver avuto un risultato negativo su una minoranza o un gruppo protetto. Se la percentuale totale degli assunti di una minoranza sociale diviso quella del gruppo dominante per cento è inferiore all’80% allora si può pensare ci sia un impatto negativo dell’algoritmo su quella minoranza.
Tuttavia il fatto che da questo test non si evinca un impatto non vuol dire che non lo abbia. Magari è l’assenza di impatto, l’impatto. Così come allenare una rete neurale inserendo solo le classi rilevanti per il lavoro, escludendo quelle che potrebbero dare luogo a discriminazioni, come il sesso, il genere, l’aspetto fisico, la provenienza, non mi dà garanzie che non occorrano comunque correlazioni pregiudizievoli. Tra l’input e l’output, lo strato nascosto è un mistero nel machine learning. Infatti si è visto come l’intelligenza artificiale colga come negativi periodi di inattività descritti nel CV. Sostenere che la macchina predice solo sulla base di standard oggettivi è un’illusione. Anche le macchine decidono di istinto, su correlazioni inconsce: il nostro di inconscio, perché la macchina è sempre a-cosciente.