Il mondo delle risorse umane – dalla fase selettiva del lavoratore in poi – è sempre più “interessato” dalle potenzialità delle tecnologie basate sull’intelligenza artificiale (si pensi alle assunzioni e alle promozioni).
Ma l’applicazione dell’intelligenza artificiale che pure offre la prospettiva di liberarsi delle decisioni prese da esseri umani (e relativi pregiudizi), troppo spesso finisce per riflettere e rafforzare involontariamente questi pregiudizi (o bias), nonostante la sua “presunta” obiettività.
E quando i pregiudizi di tale tecnologia colpiscono persone con disabilità, la gravità della situazione aumenta e, quindi, le problematiche andranno affrontate con maggior efficacia.
Assunzioni tramite intelligenza artificiale: vantaggi e rischi
I pregiudizi dell’intelligenza artificiale che colpiscono i disabili
Proprio in tema di disabilità, negli Stati Uniti è stata recentemente varata una guida[1] che affronta i pregiudizi dell’intelligenza artificiale, applicata al settore delle risorse umane, che colpiscono i disabili. La guida, varata dall’agenzia federale U.S. Equal Employment Opportunity Commission (EEOC) e dal Dipartimento di Giustizia di Washington D.C. fa parte di un’iniziativa più ampia volta a garantire che l’intelligenza artificiale ed altri strumenti di ultima generazione, utilizzati nelle assunzioni e in altre decisioni relative al mondo del lavoro, siano conformi alle leggi federali statunitensi in materia di diritti civili.
Come citato in premessa, sempre più aziende, in tutto il mondo, utilizzano tecnologie basate sull’intelligenza artificiale nel campo delle risorse umane. Ne sono un esempio gli strumenti che selezionano le candidature o i curriculum in base a determinate parole chiave, i software per le videointerviste che valutano le espressioni facciali e i modelli di linguaggio, nonché i software che assegnano un punteggio di idoneità al lavoro in base a personalità, attitudini e competenze del candidato.
L’Americans with Disabilities Act e le possibili violazioni dell’IA
Tornando al delicato tema dell’impatto tecnologico sui candidati e lavoratori affetti da disabilità, negli USA l’Americans with Disabilities Act of 1990 (abbreviato in “ADA”) previene da più di trent’anni le discriminazioni dei lavoratori disabili operanti presso aziende con quindici o più dipendenti. Tra le altre cose, l’ADA richiede ai datori di lavoro di fornire “sistemazioni” ragionevoli alle persone con disabilità, anche durante il processo di candidatura, a meno che ciò non crei un’eccessiva difficoltà per l’azienda.
E va da sé che un sistema di selezione del personale basato sull’intelligenza artificiale può violare l’ADA se esclude impropriamente un individuo sulla base di una disabilità, indipendentemente dal fatto che il datore di lavoro intenda o meno ottenere questo risultato. I datori di lavoro devono fornire ai candidati o ai dipendenti una sistemazione ragionevole, se necessario, in modo che la tecnologia basata sull’intelligenza artificiale possa valutarli in modo equo e accurato, al pari del personale non affetto da disabilità.
Ad esempio, se un test basato al computer richiede ai candidati di scrivere un saggio, il datore di lavoro potrebbe dover offrire un software di riconoscimento vocale ai candidati ipovedenti. In secondo luogo, “lato privacy”, anche la tecnologia che richiede il trattamento di dati sanitari (es. patologie di cui il lavoratore disabile è affetto) può essere soggetta all’ambito di applicazione dell’ADA.
Ad esempio, sono particolarmente problematiche le richieste di informazioni relative alle decisioni di assunzione che possono riguardare l’acquisizione di informazioni sulla salute fisica o mentale del candidato.
Infine, le tecnologie basate sull’intelligenza artificiale potrebbero violare l’ADA escludendo i candidati con disabilità che potrebbero svolgere il lavoro con o senza una ragionevole sistemazione. Ad esempio, le tecnologie di assunzione che prevedono le prestazioni future confrontando i candidati con gli attuali dipendenti di successo possono involontariamente escludere candidati pienamente qualificati affetti da disabilità (cosa che può accadere anche con candidati inseriti tra le categorie protette).
Cosa devono fare i datori di lavoro
Indipendentemente dal fatto o meno che le tecnologie utilizzate nel campo delle risorse umane siano basate o meno sull’intelligenza artificiale, i datori di lavoro devono assicurarsi di non escludere le persone affette da disabilità in violazione di legge. I datori di lavoro devono sviluppare e selezionare i soli strumenti che misurino le capacità o le qualifiche realmente necessarie per il lavoro, anche per le persone che hanno diritto a una sistemazione ragionevole sul posto di lavoro (come coloro che sono affetti da disabilità). Un datore di lavoro può tutelarsi ricorrendo a esperti nel campo delle disabilità durante l’intero processo di selezione e reclutamento dei lavoratori, ricordando che solo la diversità di background tra coloro che sviluppano e revisionano la tecnologia in esame “protegge” dai pregiudizi.
Un datore di lavoro può essere sempre e comunque responsabile se il processo di valutazione dello strumento viola la legge.
Cosa prevede la guida EEOC
La Guida dell’EEOC suggerisce di rivolgersi al fornitore della tecnologia per garantire di prendere le opportune precauzioni contro la discriminazione dei soggetti affetti da disabilità.
I sistemi di intelligenza artificiale sono spesso costituiti da più componenti creati da persone o aziende diverse. Per comprendere realmente il rischio posto dal prodotto di uno sviluppatore può essere necessario fare un controllo di tutta la componentistica acquistata. I contratti di fornitura, inoltre, dovrebbero assegnare chiaramente le responsabilità per la valutazione e la riduzione del rischio, mentre gli acquirenti (datori di lavoro) dovrebbero accertarsi dei processi di gestione del rischio del fornitore.
L’EEOC afferma che la tecnologia in esame dovrebbe indicare chiaramente che sono disponibili soluzioni ragionevoli per le persone con disabilità, fornire istruzioni chiare in tal senso e garantire che tali soluzioni non diminuiscano le opportunità del candidato. L’agenzia federale statunitense in esame suggerisce, inoltre che, prima della valutazione, il datore di lavoro debba fornire informazioni complete sulla tecnologia impiegata, comprese le caratteristiche che tale tecnologia è destinata a misurare, i metodi di misurazione e i fattori che possono influenzare la valutazione.
IA e disabilità, cresce la marea normativa
La Guida dell’EEOC fa parte di una “marea crescente” di normative globali che cercano di disciplinare l’utilizzo dell’intelligenza artificiale in vari settori. L’agenzia governativa statunitense Federal Trade Commission sta pianificando una regolamentazione[2] per frenare l’assenza di sicurezza, gli abusi in materia di protezione dei dati personali e garantire che le decisioni prese dagli algoritmi non comportino discriminazioni, mentre la “Casa Bianca” sta – addirittura – pensando ad una “Carta dei diritti dell’Intelligenza Artificiale”[3].
A livello statale USA, invece, l’Illinois richiede ai datori di lavoro che utilizzano l’intelligenza artificiale per il controllo dei colloqui video di informare i candidati e di ottenere il loro consenso a tale trattamento, mentre la città di New York ha recentemente approvato una propria legge che impone agli strumenti automatizzati di decisione sull’impiego di sottoporsi ad una annuale verifica dei pregiudizi da parte di un soggetto terzo ed indipendente.
Conclusioni
Ovviamente l’utilizzo dell’intelligenza artificiale nel settore delle risorse umane è soggetto, in varie parti del mondo, a leggi sulla protezione dei dati personali, comprese quelle che regolano il processo decisionale automatizzato, la raccolta di dati biometrici nonché l’utilizzo di tecnologie di riconoscimento facciale. L’Unione Europea, com’è risaputo, dal 2018 è impegnata su questo fronte e si avvia sempre più verso una regolamentazione del settore[4]. Il Regno Unito, invece, sta varando un piano di regolamentazione della materia che dovrebbe vedere la luce entro il 2022[5]. Vedremo nei prossimi mesi come evolverà la materia[6].
Note
- The Americans with Disabilities Act and the Use of Software, Algorithms, and Artificial Intelligence to Assess Job Applicants and Employees. U.S. Equal Employment Opportunity Commission. https://www.eeoc.gov/laws/guidance/americans-disabilities-act-and-use-software-algorithms-and-artificial-intelligence ↑
- Trade Regulation Rule on Commercial Surveillance. Office of Information and Regulatory Affairs. https://www.reginfo.gov/public/do/eAgendaViewRule?pubId=202110&RIN=3084-AB69 ↑
- ICYMI: WIRED (Opinion): Americans Need a Bill of Rights for an AI-Powered World. The White House. https://www.whitehouse.gov/ostp/news-updates/2021/10/22/icymi-wired-opinion-americans-need-a-bill-of-rights-for-an-ai-powered-world/ ↑
- A European approach to artificial intelligence. Shaping Europe’s digital future. https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence ↑
- New UK initiative to shape global standards for Artificial Intelligence. GOV.UK. https://www.gov.uk/government/news/new-uk-initiative-to-shape-global-standards-for-artificial-intelligence ↑
- Avoiding ADA Violations When Using AI Employment Technology. Bloomberg Law. https://news.bloomberglaw.com/daily-labor-report/avoiding-ada-violations-when-using-ai-employment-technology ↑