L’intervenuto sblocco, il primo gennaio 2024, del cosiddetto “pacchetto digitale” previsto dal nuovo codice dei contratti pubblici, di cui al d.lgs n.36 del 2023, costituisce un passo importante verso la complessiva attuazione del sistema nazionale di e-procurement previsto anche dal PNRR.
In questo scenario, è interessante approfondire i temi previsti all’articolo 30 del nuovo codice, dove trovano, spazio innovativi riferimenti alla “decisione algoritmica” ed alla “non discriminazione algoritmica” che meritano senz’altro attenzione.
Digitalizzazione nel nuovo Codice appalti
Il pacchetto digitale del nuovo codice è un tassello del più generale processo evolutivo che da tempo il nostro Paese è chiamato a percorrere, di cui è da ultimo testimonianza il decreto legge n.19, del 2 marzo 2024, che oltre riconfermare (art. 20),la necessità di attuare la dematerializzazione documentale per le attività delle pubbliche amministrazioni, introduce (art. 21) il Sistema di portafoglio digitale italiano, definito IT-Wallet, mediante modifica del Codice dell’Amministrazione Digitale introdotto dal d.lgs. n.82 del 2005 (CAD).
Restando nel più ristretto contesto che qui ci occupa, non v’è dubbio che tra i profili di particolare innovazione non c’è solo quello, di per sé importantissimo ma meno culturalmente dirompente, dell’obbligo di utilizzare piattaforme digitali “dialoganti”, tra loro e con la Banca dati Nazionale dell’Anac, a copertura dell’intero processo realizzativo dei contratti pubblici, bensì la comparsa del riferimento alla figura degli algoritmi.
Gli algoritmi e le procedure di gara
Il tema dell’uso degli algoritmi, che beninteso ha portata generale, risulta esser stato fin qui indagato soprattutto dal punto di vista dell’applicazione alle attività degli organi giurisdizionali, peraltro non solo per quelle più semplici e ripetitive basate su ridotte e predefinite opzioni di scelta, come ad esempio l’esame filtro per la verifica dei presupposti per il valido ricorso all’organo giurisdizionale, la prospettiva che si intende qui affrontare è diversa, e riguarda la fase precedente l’esercizio della giurisdizione, ovvero l’adozione del provvedimento amministrativo rispetto al quale, semmai dopo, affrontare il problema della decisione algoritmica in termini di sentenza.
Decisioni algoritmiche nel nuovo Codice appalti
Le decisioni algoritmiche, definite dall’articolo 30 del Codice come decisioni assunte mediante automazione, vanno adottate anzitutto rispettando i principi di conoscibilità e comprensibilità per i quali ogni operatore economico ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino e a ricevere informazioni significative sulla logica allo scopo utilizzata.
Il principio di non esclusività
Rileva, inoltre, il principio di non esclusività, per il quale deve sempre esistere, nel processo decisionale, un contributo umano capace di controllare, validare ovvero smentire la decisione automatizzata.
La non discriminazione algoritmica
Chiude il cerchio ciò che lo stesso Codice identifica come non discriminazione algoritmica, ovvero la previsione per cui il titolare del potere esercitato tramite tale strumento deve sempre mettere in atto misure tecniche e organizzative adeguate al fine di impedire effetti discriminatori nei confronti – nel caso che qui occorre – degli operatori economici.
Orbene, se questo è il quadro di riferimento che ritroviamo nel comma 4 dell’articolo 30, occorre a questo punto domandarsi a chi, e con quali garanzie per il sistema, spetti il compito di definire i predetti algoritmi.
La domanda si pone in relazione al fatto che l’algoritmo, nel suo concreto operare, non dovrebbe far altro che applicare la legge, ciò che rinvia alla necessità che la sua costruzione risulti conforme alla legge stessa.
Algoritmi e appalti, un caso pratico
Un esempio può rendere chiaro il problema.
Premesso che anche in base alla relazione che accompagna il nuovo codice dei contratti pubblici, il riferimento che qui vien fatto è all’uso di algoritmi non di apprendimento, quindi alla forma più basica di intelligenza artificiale, tra le numerose questioni che possono essere risolte rapidamente con il loro utilizzo vi è senz’altro la gestione della procedura di individuazione delle offerte cosiddette anomale, che avviene grazie all’utilizzo di medie aritmetiche, e conseguente automatica esclusione delle stesse.
I parametri allo scopo previsti non sono sempre, soprattutto di recente, solo di natura matematica: si pensi alla nuova ipotesi fissata alla lettera C) dell’allegato II.2, del Codice, definita “sconto di riferimento”, che introduce nel calcolo della media una componente randomica, identificata, volta per volta, in base ad una serie di parametri di riferimento (percentili della distribuzione dei ribassi di aggiudicazione) basati sullo storico di gare associate a conduzione dei lavori non patologiche, cioè che non hanno registrato aumenti dei costi di esecuzione eccedenti il 25% e tempi di esecuzione eccedenti il 200%; ciò ferma restando la possibilità per la stazione appaltante di discostarsi dai valori di riferimento indicati, motivando la scelta in base all’esigenza di selezionare un’offerta con caratteristiche di prezzo-qualità congrue rispetto ai bisogni della stazione appaltante stessa.
Applicare tali parametri significa operare scelte discrezionali che implicano conoscenza della legge e sua corretta applicazione.
In altri termini l’algoritmo va sempre costruito con competenze che devono allo stesso tempo ed in modo coordinato e congiunto essere tanto tecnico informatiche che giuridico amministrative, posto che, in estrema sintesi, l’algoritmo non fa che applicare la legge.
L’interpretazione delle norme
In tal senso, e nella misura in cui lo strumento rende più difficilmente accessibili ed individuabili i processi decisionali che portano ad assumere questa o quella determinazione finale, occorrerebbe aver sempre la massima garanzia che tali processi siano definiti da parte di chi, per legge, e ben prima dell’esercizio dei poteri giurisdizionali, è competente ad esprimersi (il MIT ?, l’Anac ?) sulla corretta interpretazione delle vigenti norme.
D’altro canto sino ad un certo punto il singolo RUP o la singola amministrazione sembrano in grado di entrare nel merito dell’algoritmo da altri predisposto e messo loro a disposizione semmai correggendone i limiti o rendendo conforme l’esito della sua applicazione alle rispettive esigenze o alla legge laddove non correttamente calata all’interno dell’algoritmo stesso. In tal senso condivisibile è l’affermazione secondo la quale l’amministrazione utilizza un algoritmo costruito da altri e quasi mai si pone il problema di “entrarci dentro”.
La stessa Relazione che accompagna il Codice prevede peraltro che la decisione assunta all’esito di un processo automatizzato debba considerarsi imputabile alla stazione appaltante.
Ne deriva che fintantoché la costruzione di un algoritmo, in ipotesi non conforme a legge (rectius alla sua corretta applicazione), non venga sottoposta alla verifica dell’organo giurisdizionale che, all’esito del giudizio, dovesse constatare l’illegittimità del provvedimento assunto su tali basi, l’algoritmo potrebbe operare all’infinito generando la convinzione della sua legittimità nonostante l’osservanza degli evocati principi di conoscibilità e comprensibilità.
La necessità di verifiche preventive
La questione sembra destinata a divenire ancor più rilevante laddove, come ancora leggiamo nella Relazione che accompagna il nuovo Codice, non può escludersi che, a breve, la disponibilità di grandi quantità di dati possa consentire l’addestramento di algoritmi di apprendimento, da applicare alle procedure di gara più complesse.
Appare quindi inevitabile pensare ad una forma di verifica preventiva ufficiale di tali algoritmi onde evitare la presenza sul mercato di sistemi sviluppati senza opportune attestazioni ufficiali.
Ne, ancora una volta, appare sufficiente la previsione di cui al comma 4 dell’articolo 30 a tenore della quale le stazioni appaltanti e gli enti concedenti adottano ogni misura tecnica e organizzativa atta a garantire che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori, nonché a impedire effetti discriminatori nei confronti di persone fisiche sulla base della nazionalità, dell’origine etnica, delle opinioni politiche, della religione, delle convinzioni personali, dell’appartenenza sindacale, dei caratteri somatici, dello status genetico, dello stato di salute, del genere o dell’orientamento sessuale.
Il contenuto di tale previsione sembra,infatti, confermare l’esistenza del problema.
Conclusione
Trattasi di uno dei tanti problemi legati alla gestione della transizione digitale, un processo evolutivo indispensabile ed ineludibile che ci vede impegnati nel contesto comunitario che da altrettanto tempo lo sollecita per evitare la marginalizzazione delle nostre economie a rischio di essere travolte da chi, ad oggi è più avanti. In tal senso iniziative quali l’IT-Wallet, se effettivamente portate a compimento in modo utile ed efficace lasciano ben sperar