L’assegnazione delle supplenze dalle graduatorie provinciali è stata davvero compromessa dall’algoritmo?
Il problema che ha coinvolto le nomine dalle Gps è più complesso di così.
Gli errori (presunti) dell’algoritmo per le supplenze 2022
Il sindacato Gilda degli Insegnanti già nei primi giorni di agosto – al momento della pubblicazione delle graduatorie provinciali per le supplenze – puntava il dito contro un sistema informatico che avrebbe dovuto agevolare il processo di selezione invece ha finito per penalizzare i docenti senza un motivo apparente.
Diversi i problemi riscontrati: punteggi errati, assegnazioni di cattedre inesistenti, incarichi in scuole lontane quando invece si avrebbero le carte in regola per una sede più vicina, docenti scavalcati da altri con punteggio inferiore. Insomma, il caos.
Per vederci più chiaro, il sindacato ha fatto quindi richiesta di accesso gli atti per conoscere il software, e dunque l’algoritmo, che ha gestito la procedura informatizzata delle nomine da Gps e chiede di tornare alle convocazioni in presenza.
Supplenze 2022, colpa è solo dell’algoritmo gps?
Ma è davvero tutta colpa del software? E, anche quando questo venisse visionato, sarebbe possibile giungere a una risoluzione della controversia?
“Con la richiesta di accesso agli atti vogliamo conoscere e analizzare l’algoritmo che ha regolato la procedura informatizzata delle nomine da Gps e appurare se, come supponiamo, ci siano stati sbagli nella formulazione del codice sorgente e, dunque, del software”, ha dichiarato ad agendadigitale.eu Rino Di Meglio, coordinatore nazionale della Gilda degli Insegnanti.
“Gli errori commessi dall’algoritmo nell’assegnazione delle supplenze ledono i diritti di graduatoria, facendo sì che in molti casi chi ha punteggi più elevati finisca per prendere supplenze e sedi più disagiate. Inoltre, la procedura vìola il diritto al completamento di cattedra che, a quanto pare, non è contemplato nell’algoritmo”, ha aggiunto, augurandosi che la “richiesta di accesso agli atti venga accolta in tempi rapidi, così da poter esaminare l’algoritmo, identificarne le falle e aiutare chi è stato danneggiato a tutelarsi”.
Ministero dell’istruzione: confronto con le parti
Dal ministero dell’istruzione ci fanno sapere che la documentazione verrà fornita, come è giusto che sia, ma nella convinzione che il sistema abbia funzionato proprio come avrebbe dovuto. Non si spiegherebbe, altrimenti, come mai i casi di malfunzionamento non si siano verificati su tutto il territorio nazionale, visto che il software utilizzato è il medesimo.
L’algoritmo, ci informano sempre dal Ministero dell’Istruzione, si limita a implementare quanto previsto da un decreto ministeriale concertato anche con le rappresentanze sindacali e rispetta i criteri per i quali è stato realizzato e sulla base dei quali è stato testato.
Il confronto tra le parti, dopo un primo incontro di giovedì 5 ottobre proseguirà giovedì 13 con un “focus sulle GPS che abbraccerà tutti gli aspetti relativi al funzionamento delle graduatorie provinciali delle supplenze: tempistica, compilazione, errori ricorrenti, regole che governano la gestione delle supplenze”, informa quindi la FLC CGIL in una nota.
Algoritmo e supplenze, il precedente del 2015
Il caso richiama alla mente i problemi legati al programma informatico che gestì i trasferimenti per l’anno scolastico 2015-16. Al momento della pubblicazione dei provvedimenti di mobilità, si sollevarono moltissime proteste: circa 7000 ricorsi, di cui 2000 terminati con una conciliazione. Anche in quel caso la Gilda degli insegnanti chiede al Ministero di poter visionare il software. dalla perizia emerse più di qualche problema.
Ma, mentre quella era una procedura completamente automatizzata, nel caso attuale il software dipende dalle valutazioni compiute dagli uffici territoriali forniti dagli aspiranti docenti al momento della pubblicazione della domanda.
Si tratta, per altro, del software già utilizzato nel 2021 per le precedenti GPS, con qualche piccolo aggiustamento e lo scorso anno non si sono verificati problemi tanto vistosi.
“Quando nel 2016, ai tempi della ‘Buona Scuola’, percorremmo questa stessa strada per fare chiarezza sull’algoritmo utilizzato nelle operazioni di mobilità dei docenti, che pure provocò gravissimi danni, riuscimmo a ottenere giustizia per chi aveva presentato ricorso. Non possiamo affermare aprioristicamente che, in alcuni casi, non siano stati commessi errori nella fase di compilazione delle domande. Poiché, però, si tratta di un problema riguardante tutta l’Italia, e non circoscritto soltanto ad alcune zone, è lecito pensare che la falla possa essere a monte e ascrivibile principalmente a chi ha realizzato l’algoritmo”, sottolinea ancora Di Meglio.
È possibile, dunque, che ci sia un concorso di colpa: e cioè che alcuni uffici non abbiano ben validato i titoli degli insegnanti.
O forse, ribaltando del tutto il punto di vista, il software ha funzionato meglio rispetto al 2015 proprio perché in questo caso c’è stata la supervisione a monte, degli uffici territoriali?
Bisogna “scoprire le carte” per saperlo, conclude Di Meglio.
Decisioni prese dagli algoritmi e tutela della persona
La questione, come sempre accade quando di mezzo ci sono gli algoritmi è complessa, ma non a caso la normativa europea ha messo importanti paletti già col Gdpr, che all’articolo 22 recita testualmente: “L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.
E il posto di lavoro, sappiamo tutti quanta importanza abbia nella vita di una persona.
E anche l’AI ACT pone l’accento sulla necessità che per i sistemi AI classificati come “ad alto rischio”, che non sono vietati di default, vi siano degli adeguati paletti, tra i quali un piano di gestione del rischio, una certificazione di conformità, un piano di gestione dei dati, la supervisione umana.
Artificial Intelligence Act: l’UE regola l’AI ma dimentica di proteggere la mente
La lista dei sistemi AI ad alto rischio nell’AIA comprende il riconoscimento facciale; l’AI usata in infrastrutture critiche, ma anche – appunto – in contesti educativi, occupazionali o di emergenza e la Commissione si riserva di aggiornare questa lista sulla base della gravità e della probabilità di impatto dei sistemi AI presenti e futuri sui diritti fondamentali.
Algoritmi e scuola, i pregiudizi che penalizzano gli studenti
Un altro caso che ha fatto scalpore, e che ci indica chiaramente quanto infelice possa essere l’abbinamento tra la scuola e gli algoritmi è successo nel pieno della pandemia da covid nel Regno Unito, quando, nell’impossibilità un esame finale a causa dell’emergenza sanitaria, le autorità scolastiche fecero ricorso ad un algoritmo per calcolare il voto finale.
Voto che per il 40% circa degli studenti è stato più basso rispetto alle valutazioni iniziali degli insegnanti e che in molti casi avrebbe precluso l’accesso all’Università. Ma la sorpresa più amara è stata lo scoprire che quello partorito era a tutti gli effetti un risultato classista: l’algoritmo aveva infatti “punito” coloro che erano partiti da votazioni più basse, quindi, sostanzialmente, chi provenendo da una situazione svantaggiata, con impegno maggiore degli altri, era riuscito a recuperare il terreno.
C’è da dire che le vibranti proteste hanno finito per costringere il governo britannico a ritirare il sistema: ma si possono, sempre, alzare le barricate contro un software?
L’open source è la soluzione?
A monte, come indica il professor Salmeri, proprio per evitare simili querelle – o quanto meno per ridimensionarle – si potrebbe fare in modo che “tutto il software usato nella pubblica amministrazione sia open source e venga pubblicato in un’apposita piattaforma pubblica, in forma non offuscata, almeno tre mesi prima del suo effettivo utilizzo: i cittadini (in questo caso: gli insegnanti, e gli studenti!) hanno il diritto di conoscere “in anticipo” quali sono esattamente i criteri con i quali viene deciso il loro futuro. E un programma informatico altro non è che una forma simbolica e univoca di descrivere questi criteri”.
“Sulla base di altre vicende (come quella del database dell’INPS di un po’ di tempo fa) in genere le responsabilità sono distribuite, ma difficilmente si trovano nell’ultimo anello della catena, il programmatore”, aggiunge Salmeri.
Ma di certo, prima di invocare il ripristino alle convocazioni in presenza, sarebbe forse opportuno anche realizzare, come pare si stia già pensando, un sistema informatico più efficiente, in grado di assicurare un incontro più immediato tra la domanda e l’offerta di cattedre, per far sì che già al momento del caricamento della domanda un docente abbia anche la possibilità di scegliere tra le sedi in cui ha maggior possibilità di trovare posto.
Un punto questo, che sarà fra le richieste che la FLC CGIL presenterà all’incontro del 13 ottobre. “L’inserimento dei posti disponibili è il punto cruciale delle operazioni informatizzate, senza un efficientamento di questo passaggio l’informatizzazione risulta monca. Per questo bisogna velocizzare l’inserimento delle cattedre disponibili in organico di diritto (che residuano dopo le immissioni in ruolo e sono frutto di rinunce non comunicate) e l’inserimento e controllo dei posti disponibili in organico di fatto a cura delle scuole con un software efficiente e semplice. A questo si collega l’esigenza di formazione del personale delle scuole e degli Uffici territoriali”.
Insomma, guardare avanti sulla strada dell’innovazione e della formazione e non tornare indietro a modalità di selezione che al loro interno annidano proprio quei fenomeni, anche corruttivi, che un uso accorto e trasparente dei sistemi informatici potrebbe andare a scardinare.