Quello di incentivare l’uso di sistemi di intelligenza artificiale nei processi decisionali della PA è uno degli obiettivi del Governo guidato da mario Draghi – fin da subito caratterizzato da un approccio teso a rendere più efficiente la pubblica amministrazione – e i concorsi pubblici di recente banditi potrebbero essere una delle prime occasioni per applicarli in modo sistematico.
La digitalizzazione dei concorsi pubblici e l’uso dell’IA nella selezione
Il Recovery Plan prevede la realizzazione di un piano organico straordinario di assunzioni di personale destinato al rafforzamento dell’amministrazione pubblica che sarà chiamata ad attuare tutte le riforme del PNRR.
Vale la pena notare che negli ultimi anni la PA ha subito un continuo impoverimento delle competenze e invecchiamento del personale assunto. Basti pensare che solo il 18% dei dipendenti ha meno di 45 anni.
È in questo contesto che si inserisce la proposta del ministro per la Semplificazione Renato Brunetta, per la digitalizzazione dei concorsi pubblici e per l’introduzione di sistemi di intelligenza artificiale nei processi di selezione e assunzione di personale. Nello specifico, le intenzioni sono state annunciate nel corso della presentazione del piano per assumere 2.800 tecnici per il Sud.
Il primo aprile è stata presentata un’interrogazione parlamentare proprio per comprendere qual è il ruolo che si vuole affidare agli algoritmi nel processo di assunzione dei nuovi funzionari.
A proporla è stato il deputato Alessandro Fusacchia, coordinatore dell’intergruppo parlamentare sull’IA e promotore della nuova componente parlamentare Facciamo Eco, per capire “in cosa consista esattamente il ricorso all’intelligenza artificiale”. Pur trattandosi di un tema estremamente attuale e importante, infatti, Brunetta ha solo accennato l’intenzione di usare la tecnologia nelle procedure di selezione dei candidati. Quando si parla di intelligenza artificiale, spesso si usano toni semplicistici. La realtà, però, è più complessa, e non è certo sufficiente comprare un software per farla funzionare.
Assunzioni tramite intelligenza artificiale: vantaggi e rischi
GDPR e aspetti legali
Il primo e più importante aspetto da considerare, prima di progettare l’uso di strumenti di intelligenza artificiale, è la normativa per la protezione dei dati.
Il Regolamento Generale sulla Protezione dei Dati (GDPR) è oggi l’unico strumento legale che in qualche modo prevede delle tutele per i diritti fondamentali delle persone nell’applicazione dell’intelligenza artificiale.
Come richiamato anche durante l’interrogazione parlamentare, è fondamentale assicurare il rispetto dell’articolo 22 del GDPR, che disciplina i processi decisionali automatizzati (come l’intelligenza artificiale) da cui derivano conseguenze giuridiche o analoghe per le persone fisiche.
La pre-selezione dei curricula per scremare i potenziali partecipanti al concorso pubblico, effettuata tramite algoritmi di machine learning, è certamente un processo decisionale automatizzato da cui derivano conseguenze giuridiche per le persone. Lo stesso potrebbe dirsi poi del processo di valutazione degli elaborati con l’ausilio di strumenti di machine learning.
Il GDPR prevede due diversi livelli di tutela verso i processi decisionali automatizzati.
Il primo, è il diritto delle persone di non essere sottoposte a decisioni basate unicamente su processo decisionale automatizzato che produca effetti giuridici. Questo significa che nessuno può essere sottoposto in modo arbitrario a decisioni completamente automatizzate.
Il secondo livello di tutela prevede delle eccezioni a questo diritto generalizzato, nel caso in cui la decisione automatizzata sia necessaria per la conclusione di un contratto con il soggetto interessato, o sia autorizzata dal diritto dell’Unione Europea o dello Stato membro, o ancora si basi sul consenso esplicito del soggetto interessato.
Nel caso della pubblica amministrazione, bisogna fin da subito escludere l’ipotesi di chiedere il consenso del candidato, poiché come precisato anche dalla normativa stessa è fondamentale assicurare la libertà di espressione del consenso, che viene meno quando esiste uno squilibrio evidente tra soggetto interessato e titolare del trattamento – come nel caso della pubblica amministrazione. Questo rende pertanto improbabile che il consenso possa essere espresso liberamente.
Alla pari del consenso bisogna anche escludere la fattispecie della “necessità di concludere un contratto”, in quanto l’interpretazione prevalente di questa eccezione è particolarmente restrittiva, e la valutazione di necessità non può semplicemente rispecchiare una preferenza o scelta arbitraria del titolare del trattamento (la pubblica amministrazione).
Ciò che rimane, è quindi una legge che possa disciplinare questo trattamento di dati.
Non è sufficiente però autorizzare il trattamento con un atto normativo. A prescindere dalla tipologia di eccezione, il titolare del trattamento deve infatti prevedere misure adeguate a tutela dei diritti, delle libertà, e dei legittimi interessi delle persone. Questo significa che per poter assoggettare le persone a decisioni automatizzate con effetti giuridici, come nel caso dei concorsi pubblici, è prima necessario valutare i rischi per i diritti e libertà delle persone, e adottare misure adeguate per prevenirli.
Il GDPR già prevede alcune misure minime per la tutela dei diritti delle persone sottoposte a processo decisionale automatizzato, tra cui: il diritto di ottenere spiegazioni sulla logica del trattamento automatizzato, il diritto di ottenere informazioni specifiche sul trattamento, e il diritto di contestare la decisione automatizzata.
A questo, devono aggiungersi tutte le misure ulteriori per garantire che i dataset usati per allenare gli algoritmi di machine learning siano esatti e adeguati al contesto. La pubblica amministrazione dovrebbe verificare la definizione di tutti i parametri necessari per minimizzare il rischio di errori ed effetti discriminatori nei confronti delle persone sulla base della loro etnia, convinzioni personali, status, stato di salute, orientamento sessuale o altre caratteristiche personali.
La questione dei dati usati per allenare gli algoritmi di machine learning è particolarmente rilevante e preoccupante in Italia, considerando che c’è un grave problema sistemico che riguarda proprio il tema degli open data. Il funzionamento corretto di questi modelli non potrebbe infatti essere garantito senza avere assoluta trasparenza sui dataset usati. D’altronde, il processo democratico fonda le sue radici nella trasparenza dei processi decisionali e nel contraddittorio. È chiaro che se i dati sono le informazioni con cui vengono prese decisioni pubbliche (automatizzate), allora questi devono essere pubblici e accessibili, per garantire assoluta trasparenza e diminuire il rischio di discriminazioni ed errori.
Ai già attuali requisiti previsti dal GDPR, dovranno aggiungersi poi i requisiti previsti dal prossimo Regolamento europeo sull’intelligenza artificiale, la cui proposta è prevista per il 21 aprile. Il Regolamento sarà fondato sul ‘White Paper on AI’ del 19 febbraio 2020, ed avrà un grande impatto su ogni applicazione dell’intelligenza artificiale.
Nelle parole della Presidente della Commissione Europea Ursula Von der Leyen, lo scopo del Regolamento sarà promuovere un’intelligenza artificiale trasparente e affidabile, con grande attenzione per i diritti fondamentali delle persone, soprattutto nelle applicazioni ad elevato rischio – come potrebbero essere i concorsi pubblici.
Essendo questo il quadro giuridico in cui dovrà operare la pubblica amministrazione, sembra chiaro che l’introduzione dell’intelligenza artificiale non possa essere frettolosa, come invece sembra nelle intenzioni del Governo – ma anzi dovranno essere previste specifiche tutele, misure di garanzia e programmi di verifica periodica, per tutelare i diritti fondamentali dei cittadini e per garantire il funzionamento democratico dei processi decisionali.
Intelligenza artificiale alla sfida etica: come evitare l’effetto boomerang
Intelligenza artificiale, recruiting e bias
Oltre ai vincoli giuridici posti dall’ordinamento europeo, sono molte altre le questioni che necessitano attenzione quando si considera il ricorso a strumenti di intelligenza artificiale in ambiti che coinvolgono così direttamente le persone.
Negli ultimi anni, molte ricerche nello studio etico delle tecnologie e dell’IA – un campo di studi ancora molto inesplorato nel nostro Paese – si sono focalizzate sul recruiting e l’automazione nell’ambito dei processi di selezione dei candidati. Questo perché cresce continuamente il numero di grandi aziende, soprattutto statunitensi, che decidono di utilizzare la tecnologia per snellire la lettura dei curriculum o addirittura per decidere chi assumere.
Un caso particolarmente noto e spesso menzionato come esempio negativo è quello di Amazon, che nel 2015 utilizzava un sistema di machine-learning per preselezionare i candidati “ideali” basandosi sui curricula ricevuti nei 10 anni precedenti. L’algoritmo, dopo aver imparato su quei dati, ha deciso di escludere le candidature femminili, dato che Amazon non aveva mai assunto negli anni precedenti delle donne in quei ruoli. L’obiettivo era quello di affidargli 100 curricula, vederne tornare 5 e assumere quelle persone. Il software, quindi, avrebbe potuto contribuire ad alimentare un loop discriminatorio che considera le donne non adatte a certe posizioni. Anche se il modello è stato poi ritirato, procedure simili sono ampiamente utilizzate da altre aziende in tutto il mondo. Il problema non è nuovo: fidarsi eccessivamente della macchina, pensando che possa agire in totale autonomia.
Più recentemente, nel contesto europeo, è stato studiato il funzionamento di un software proposto da una start-up di Monaco, utilizzato da alcune aziende per analizzare i tratti della personalità di candidati e candidate basandosi su brevi video di presentazione. Lo studio ha analizzato accuratamente i dati a disposizione, mostrando come la promessa aziendale di restituire un’analisi priva di influenze e preferenze personali dei reclutatori non possa affatto essere confermata. In quel caso, l’IA proposta dalla startup tedesca e sempre più diffusa tra le aziende sembrava essere molto influenzata dalle apparenze: bastava aggiungere un paio di occhiali da vista, un velo in testa, o un quadro sullo sfondo per modificare la personalità attribuita ai candidati.
Questi, insieme a molti altri esempi, ci dimostrano come la presenza e la responsabilità umane nel processo affidato all’algoritmo siano essenziali. Davanti alla necessità assolutamente condivisibile di rinnovare la PA e renderla finalmente un organo funzionante, è chiaro che la possibilità di automatizzare le procedure risulti accattivante. Una soluzione tecnologica da sola, però, non basta:
È necessario però ribadire che se si punterà esclusivamente a una maggiore efficienza e produttività, le potenziali discriminazioni e violazioni potranno emergere in ogni momento.
Selezione personale con l’intelligenza artificiale: sviluppi e rischi futuri
Conclusioni
Se non si punta fin da subito al rispetto dei diritti e dell’inclusività, l’automazione delle procedure inevitabilmente riprodurrà discriminazioni su ampia scala. Riguardo alla valutazione delle competenze e dei titoli nell’ambito della PA, ad esempio, non è chiaro come Brunetta intenda pesare le competenze trasversali e verticali.
Abbiamo chiesto un commento ad Alessandro Fusacchia, secondo cui “assegnare un ruolo così importante alla valutazione automatizzata dei titoli in tutte le fasi della selezione penalizza tanti giovani che erano pronti a mettersi in gioco”. Se le cose saranno gestite in questo modo, l’intelligenza artificiale escluderà a priori molte persone solo perchè giovani, non importa quanto preparate, finendo per confermare uno scenario a cui siamo già abituati da troppi anni.
A cosa serve avvalersi della tecnologia, se il suo utilizzo non produce alcun cambiamento? “Per questi concorsi”, continua Fusacchia, “non si può eliminare il contatto diretto tra chi seleziona e chi è selezionato, né ridurre tutta la selezione a test per quanto perfezionati e a titoli valutati attraverso algoritmi. Il Vademecum che abbiamo elaborato con ForumPA, Forum Disuguaglianze Diversità e Movimenta dimostra che è possibile conciliare la velocità con l’uso di strumenti di selezione più adeguati, lasciando alle commissioni una responsabile discrezionalità nella selezione dopo una verifica che, specie per le posizioni più qualificate, deve dare un peso non secondario anche alle competenze psico-attitudinali, alle capacità organizzative, e – importantissime – alle motivazioni”.
PA digitale, Mochi (FPA): “È ora di puntare in alto. Sulle persone”