E’ forse il caso di tornare nuovamente a parlare di quella parte della Legge di stabilità 2016 compresa fra i commi 501 e 520, laddove si definiscono le “nuove” modalità di procurement della PA e sanità italiana per quanto riguarda l’acquisizione di beni e servizi riconducibili all’informatica e alla connettività.
Commi dove la sigla “Consip” ritorna con frequenza impressionante, tanto da non lasciare spazio a dubbi interpretativi: risulta del tutto evidente che la centrale acquisti di Via Isonzo sarà sempre più al centro dell’intera galassia degli acquisti di beni e servizi della PA e comprare al di fuori del suo ambito (e/o di quello afferente alle centrali regionali di committenza) diventerà un’impresa ardua e costellata da papiri di motivazioni a prova di Corte dei Conti.
Premessa: l’idea è ottima. Ridurre molto più che drasticamente il numero delle stazioni appaltanti è un dovere ancora prima che una linea di indirizzo, così come lo è la ricerca di masse critiche d’acquisto capaci di intervenire in modo significativo sui prezzi di cessione di beni e servizi.
Rispetto alla spesa informatica, tutto fila perfettamente liscio sino a quando parliamo di forniture di prodotti standard e/o di servizi ad essi correlati: tutto laddove funziona la moltiplicazione “quantità per prezzo unitario”.
Funziona tutto molto meno bene quando siamo di fronte a progetti più o meno complessi, dove prima ancora di moltiplicare quantià per prezzo è necessario identificare, formalizzare e quantificare la soluzione a un problema.
Se andiamo ad analizzare un anno medio di acquisti informatici della PA italiana (comprendendo anche la sanità), ci possiamo rendere conto che almeno il 30-35 per cento della spesa complessiva è rappresentato da investimenti relativi a progetti, ed un altro buon 20-25% è relativo a spese ricorrenti relative alla gestione (manutenzione e assistenza) di progetti pregressi.
Possiamo sicuramente rilevare che questa frammentazione progettuale rappresenta un “grosso problema”, ma in ogni caso questa è la situazione data e molto difficilmente mutabile nell’immediato o anche solo nel breve periodo.
Possiamo immaginare di dar vita ad un’azione di medio periodo finalizzata a “uccidere” la cultura del progetto a qualunque costo, dello sviluppo custom “perchè abbiamo esigenze differenti”, e così via. In modo da arrivare – nel giro di pochi anni – a un fabbisogno prevalentemente costituito da “mattoncini standard” misurabili a prezzo unitario per quantità.
A quel punto, il modello ipotizzato dal legislatore funziona perfettamente.
Ma solo a quel punto.
Nel frattempo Consip e le centrali regionali d’acquisto rischiano di impazzire correndo dietro a una domanda assai poco standardizzata e ad un’offerta desiderosa di far emergere le “peculiarità”, le “sfumature”, le caratteristiche più o meno uniche rispetto ai competitor.
Così come rischiano di proliferare le richieste di deroga alla norma.
E’ molto probabile quindi che questo 2016 non sia destinato a produrre risparmi significativi nella spesa informatica della PA, se non nell’eventualità più drammatica: quella che afferisce allo scenario dell’immobilismo. Per paura di sbagliare, o peggio ancora per paura del combinato disposto AVCP / Corte dei Conti, nessuno compra più niente che non sia “prezzo unitario per quantità” acquistabile sul marketplace Consip o attraverso le centrali regionali.
Scenario terribile e decisamente lungi dal diventare realtà, almeno così tutti quanti speriamo.
Nel frattempo, continuiamo in tanti a non capire come mai l’informatica venga vista dal legislatore come un giocattolo costoso e non come un driver per il riefficientamento della pubblica amministrazione. Ed è questo, a ben vedere, il vero problema rispetto al quale fatichiamo a trovare la soluzione.