Processi di machine learning e di intelligenza artificiale applicati nella lotta all’evasione: con queste premesse, è comprensibile lo scalpore suscitato nei mesi passati dalle notizie trapelate sul software VeRA – è l’acronimo di “verifica dei rapporti finanziari” – in uso all’Agenzia delle Entrate.
L’idea di incrociare le banche dati gestite dagli enti di controllo non è nuova, lo strumento lo è molto. Ma quanto ne sappiamo con precisione? Gli articoli del luglio scorso non vanno oltre indicazioni di massima, a volte allarmanti sul piano privacy, spesso non del tutto verificabili, di qui la necessità di fare un punto oggi, cercando di comprendere che cosa si desume con certezza da fonti ufficiali.
Vera, l’AI al servizio dell’Agenzia delle entrate: come funziona l’algoritmo anti evasione
Per la verità, dai due titolari del trattamento, ossia Agenzia delle Entrata e Guardia di Finanzia, le informazioni sono pochissime. Il documento più pertinente, la circolare AdE n. 21/E del 20 giugno 2022 – indirizzi operativi e linee guida per il 2022 sulla prevenzione e contrasto all’evasione fiscale ecc. – si limita ad accennare ai commi 681–686 dell’articolo 1 della legge 27 dicembre 2019, n. 160, dunque a estremi ben noti, e a menzionare, quasi di sfuggita, l’“utilizzo integrato delle informazioni comunicate dagli operatori finanziari all’Archivio dei rapporti finanziari e degli altri elementi presenti in Anagrafe tributaria”. È un elegante understatement per descrivere un sistema di controllo che in realtà ha un perimetro enorme e notevoli ambizioni di sofisticatezza, come vedremo tra breve.
Il parere del Garante privacy su Vera
La porta su questo sistema la apre in realtà il Garante sulla protezione dei dati personali, confermandoci ancora una volta che molte delle verifiche di conformità, e anche molta parte del contenzioso, si giocheranno sul GDPR. Ne va presa nota.
In particolare, sono reperibili due provvedimenti dell’Autorità: il parere del 22 dicembre 2021 sullo schema di decreto attuativo del MEF, decreto uscito poi il 28 giugno 2022 con fisionomia non poco trasformata dall’interazione con il Garante, e l’assai recente (per data di pubblicazione sul sito) provvedimento 30 luglio 2022. Quest’ultimo tecnicamente è una consultazione preventiva ex art. 36 GDPR sulla valutazione d’impatto (DPIA) condotta dall’Agenzia delle Entrate.
Come tale, apre ampie finestre su quella che finora appariva come una blackbox. Vediamone alcuni passaggi. Considerato taglio e limiti di estensione di questo articolo, ci si soffermerà solo su un campione di punti, tra i molti possibili. Disclaimer: nessuno dei provvedimenti del Garante menziona “Ve.R.A.”, ma le denominazioni non contano, conta il trattamento.
Le banche dati che nutrono i dataset
Apprendiamo appunto dalla consultazione preventiva che le banche dati di cui è previsto l’utilizzo per la creazione dei dataset di analisi e di controllo sono quelle relative a: “dati anagrafici, dichiarativi, accertamenti e controlli, spesometro, fatture elettroniche (cc.dd. “dati fattura” e “dati fattura integrati”), corrispettivi telematici, Intrastat, IndexVies, bollette doganali, esiti contabili, registro, catasto, osservatorio mercato immobiliare, versamenti F24 e F23, Anagrafe nazionale popolazione residente, Bureau van Dijk (BVD), motorizzazione, scambi internazionali (DAC1, DAC2, FATCA e CRS), rendicontazione dati nazionali paese per paese (CbCR – DAC4), monitoraggio fiscale, esterometro, depositi fiscali (costituzione garanzia per l’estrazione di carburanti), depositi IVA (dichiarazione sostitutiva dei requisiti di affidabilità, prestazione della garanzia), deroga alla limitazione all’uso del contante, canone TV, visto di conformità e professionisti abilitati, associazioni e società sportive, registri pubblici CCIAA compresi i dati dei bilanci, cooperative, rinnovo patenti, banca dati equidi (BDE), dati INPS (aziende e contributi artigiani e commercianti), proprietà di beni mobili (dati PRA/ACI/MCTC e beni in godimento ai soci); bonifici per detrazioni, dati dai Comuni (smaltimento rifiuti, DIA edilizia), contratti di locazione breve, comunicazioni compagnie assicurative (premi e contratti e dati dei sinistri), contributi previdenza complementare, contributi previdenziali (riscatto laurea per gli inoccupati), dati delle circoscrizioni aeroportuali, dati delle società di calcio, dati delle strutture sanitarie private, esenzione da imposizione di interessi, premi e obbligazioni e titoli similari, utenze (gas, elettriche, idriche e telefoniche), interessi passivi sui mutui, monitoraggio fiscale intermediari, noleggio occasionale di imbarcazioni e navi da diporto, ordini professionali enti e uffici, pubbliche amministrazioni e enti pubblici (dati sul contratto di appalto), registro elettronico degli indirizzi, ristrutturazione edilizia e risparmio energetico su parti comuni condominiali, uffici marittimi e motorizzazione civile/nautica, uffici pubblici (licenze, autorizzazioni e concessioni di aree demaniali marittime), demanio marittimo (elenco soggetti titolari di concessioni demaniali), vendita a distanza di beni”.
A tali fonti va aggiunto l’Archivio dei rapporti finanziari, che comprende: “i dati contabili (saldo alla data di fine anno precedente e alla data di fine anno, importo totale degli accrediti e degli addebiti effettuati nell’anno, e giacenza media) di oltre trenta tipologie di rapporti finanziari (es. conti corrente, carte di credito, di debito, prepagate, aziendali e non, conti deposito titoli, certificati di deposito e buoni fruttiferi, cassette di sicurezza, fondi pensione, finanziamenti, acquisto e vendita di oro e metalli preziosi, operazioni extra conto)”.
Fermiamoci un attimo per alcune considerazioni. Il GDPR, e a monte le regole fondanti del sistema giuridico dell’Unione europea – e di quello nazionale –, impongono di effettuare un test di proporzionalità, ragionevolezza e necessità prima di sommare fonti a fonti, è lecito dunque interrogarsi laicamente se ciò sia stato fatto, quantomeno nel contesto della DPIA. Il distillato di queste regole è, nel GDPR, il principio di minimizzazione. Ogni trattamento ultroneo semplicemente non è consentito: se puoi farlo con meno dati, devi farlo con meno dati. Il primo obiettivo sembra perciò quello di cercare di comprendere se questo esteso elenco di banche dati contenga tutti elementi necessari oppure no, e come si coordinino tra loro le varie fonti, con quali logiche e priorità.
In effetti, la lista citata, pari per estensione forse solo a quella delle navi dei Greci nell’Iliade, dischiude, a meno di paletti, limiti, regole precise, una lettura estremamente dettagliata della vita privata e della sfera personale del contribuente, lo mette a nudo. Vero che quantomeno il decreto MEF del 28 giugno 2022 ha escluso all’art. 3, comma 2 i dati sensibili, tuttavia già così è tantissimo in termini informativi. Non deve trarsi da queste considerazioni la supposta automatica contrarietà all’ordinamento giuridico dell’uso di una serie così ampia di archivi informativi, ma certo il tema della proporzionalità, ragionevolezza e necessità va posto in termini netti.
La comprensibilità delle categorie di dati e delle implicazioni
Ora, a proposito appunto dell’art. 3 del decreto MEF, nel parere del dicembre 2021 il Garante aveva messo ben in guardia dal fermarsi a una descrizione di massima delle categorie dei dati trattati. La formulazione della norma è stata poi alquanto ampliata nel testo del d.m. uscito a fine giugno in Gazzetta ufficiale, ma il livello definitorio appare sempre attestato su una descrizione per macro-tipologie.
È qui necessario notare che il legislatore nazionale nel 2019 ha scelto di azionare la disciplina in deroga ammessa dal GDPR, facendo spuntare dal cilindro una lettera f-bis) all’art. 2-undecies, primo comma cod. priv.. Ora, l’art. 23, par. 2, lett. b) GDPR, ossia la norma soprastante a quella nazionale in tema di limitazione di diritti, pone espressamente l’obbligo di chiarire quali siano categorie di dati personali oggetto di limitazione. Non farlo in una maniera esauriente e chiara impinge sulla conformità del trattamento.
Il problema è sostanziale: dalla descrizione che leggiamo oggi all’art. 3 del decreto ministeriale, l’interessato non riesce francamente a comprendere – almeno non in concreto – quali categorie di dati siano davvero trattate, è un punto che ad avviso di chi scrive salta all’occhio se appena si guarda al lunghissimo elenco di banche dati più sopra trascritto. In un contesto come quello di cui parliamo, menzionare la banca dati di estrazione dell’informazione appare determinante e integra, a parere di chi scrive, il concetto stesso di “categoria” di dato. Comprendere esattamente le categorie di dati (e di banche dati) trattate vuol dire essere messi in grado di apprezzarne le implicazioni.
Anche a voler essere più flessibili e individuare una formulazione “mediana”, che permetta maggiore gioco ai titolari del trattamento, resta la considerazione che l’attuale art. 3, comma 2 del decreto MEF appare francamente lontano da standard di precisione desiderabili. Sul punto, l’art. 23 GDPR è esplicito nel porre la necessità di “garantire un trattamento corretto e trasparente nei confronti dell’interessato”.
Il nodo della trasparenza dei processi
La migliore definizione della normativa sulla protezione dei dati personali è quella di una disciplina sulla trasparenza dei processi. Può sembrare singolare, perché nella percezione comune il concetto di “trasparenza” è avvertito in opposizione rispetto a quello di tutela della sfera privata. Non è così, almeno non lo è rispetto alle operazioni logiche sui dati: il GDPR offre all’interessato molteplici strumenti per garantire, in maniera effettiva e non teorica, la consapevolezza dei processi, e dunque innanzitutto la loro leggibilità.
Consideriamo ora che il trattamento di cui parliamo è connotato da rischio elevato per i diritti e le libertà. Non è un punto controverso: lo ribadisce in vari passaggi il Garante, emerge dalla piana applicazione dei parametri individuati nelle linee linee guida europee sulla DPIA, e soprattutto è riconosciuto dallo stesso legislatore. Sono espressamente i commi 684 e 686 dell’art. 1 L. 160/2019 a imporre l’obbligo di DPIA. Quest’ultima è infatti un incombente innescato dalla probabilità di rischio elevato per i diritti e le libertà. Davvero quindi questo non è un punto controverso.
Bene, tanto più è necessaria la trasparenza, dal lato dell’interessato, ossia di chi subisce il trattamento, quanto più è intenso il rischio per i suoi diritti e le sue libertà. Trasparenza vuol dire innanzitutto pubblicare la DPIA e le eventuali ulteriori analisi sviluppate dall’ente pubblico. La pubblicazione, non è secondario notarlo, è raccomandata nelle linee guida europee come “prassi particolarmente buona”, soprattutto per gli enti pubblici. Deve dedursene che il celarla costituisce, di converso, prassi particolarmente non buona.
Sfortunatamente è questa l’impostazione seguita dall’Agenzia delle Entrate, e ciò inevitabilmente finisce per rafforzare nell’interprete, spiace dirlo, l’impressione che venga in considerazione una blackbox. Il Garante, non a caso, è giunto, con decisione inconsueta, a imporre all’Agenzia di pubblicare quantomeno un estratto della DPIA.
Sarà interessante comprendere se attraverso l’accesso per iniziativa privata ai documenti amministrativi si potrà recuperare l’integralità del documento.
A ben vedere, è una questione culturale prima ancora che giuridica: non stiamo parlando di un brevetto o di segreti industriali, stiamo parlando dei processi, della logica, delle garanzie che un soggetto pubblico applica all’intelligenza sui dati, nel contesto di un trattamento dichiaratamente a spiccato rischio. Nulla dovrebbe essere più trasparente di questo. Il rispetto delle regole si ottiene assicurando per prima cosa la chiarezza sulle regole.
Ad ogni buon conto, i due provvedimenti del Garante, ma soprattutto l’ultimo, ossia la consultazione preventiva ex art. 36 GDPR, consentono al lettore di aprire già ora alcuni squarci significativi sui contenuti della DPIA, quantomeno a un livello panoramico.
L’intervento umano nei processi decisionali automatizzati
Come è noto, un elemento chiave evocato dall’art. 22 GDPR, ossia dalle decisioni a impatto rilevante derivanti da processi interamente automatizzati, è la presenza o no di un intervento umano significativo. È appunto l’intervento umano significativo, dunque non meramente formale, a depotenziare il pericolo insito degli automatismi decisionali, ancorché l’art. 22 permetta a dire il vero ampie deroghe al diritto nazionale.
Dall’esame dei provvedimenti pubblicati dal Garante, risulta evidente come l’Autorità abbia concentrato il proprio intervento nel disinnescare il più possibile automatismi computazionali, rimodellando parti dei processi. Ci sono invero passaggi assai pregevoli nel parere del 30 luglio 2022, nei quali l’Autorità, richiamando il formante giurisprudenziale del Consiglio di Stato sulle decisioni algoritmiche, e in particolare le sentenze della Sez. VI, numero 2270/2019, 8472/2019, 8473/2019, 8474/2019, 881/2020, 1206/2021, pone in evidenza i tre principi di conoscibilità, non esclusività e non discriminazione.
In tema di trasparenza, vale la pena menzionare soprattutto il primo, perché assicura il diritto dell’interessato ad avere informazioni significative sulla logica utilizzata, in modo da poterla comprendere. Il diritto alla comprensione della logica va considerato peraltro, anche al di là di menzioni specifiche, un diritto immanente al GDPR, perché non è semplicemente possibile il controllo dell’interessato sui propri dati, ossia la radice stessa del regolamento europeo, senza comprensione della logica del trattamento.
La parte più rilevante di questa materia riguarda infatti non tanto, o non solo, le informazioni in sé, ma soprattutto quello che con le informazioni si fa, ossia i processi su di esse e pertanto la logica. Insomma, davvero non si può pensare di rendere opaco all’interessato proprio il punto di maggiore rilievo. Occorrerà da qui in avanti comprendere se saranno effettivamente garantiti e in quale misura i principi ricordati, specialmente in un contesto di machine learning.
Conclusioni
Va detto senza equivoci: l’obiettivo di contrasto all’evasione non è solo meritorio, costituisce interesse pubblico primario. Anche in termini etici e di coesione sociale: non è tollerabile che alla “cassa comune” attinta da tutti contribuiscano solo alcuni, spesso paradossalmente le fasce di popolazione più vulnerabili e meno attrezzate a servirsi di strumenti di aggiramento.
Il punto è tuttavia se un obiettivo fondamentale per lo Stato possa essere conseguito con ogni possibile mezzo di controllo sul cittadino o se ciò non corrisponda, quasi alla lettera, alla definizione stessa di distopia. Anche il sistema di credito sociale cinese è mosso da obiettivi commendevoli, tuttavia la visibilità pressoché totale della persona che ne sta alla base appare inaccettabile se guardata dal nostro spicchio di mondo. Stesse considerazioni possono farsi per i tentativi di imitazione del sistema di credito sociale – leggasi: tessere a punti del cittadino virtuoso – portate avanti recentemente da amministrazioni locali in Italia, sulla base del terribile malinteso per cui un ente si ritiene autorizzato a fare dei dati personali di cui dispone l’utilizzo più opportuno.
Tornando all’applicativo della Agenzia delle Entrate, vanno apprezzati, e ci si augura che il grande pubblico lo faccia, i moltissimi correttivi introdotti dal Garante al progetto iniziale. È inoltre assai notevole il richiamo dell’Autorità ai criteri di pseudonimizzazione dei dati. Va qui ricordato che i dati pseudonimizzati non sono anonimizzati, restano cioè personali, ancorché si siano adottate tecniche di offuscamento, di qui l’importanza di comprendere tali tecniche e la loro efficacia.
Su Ve.R.A., o comunque sarà denominato il trattamento anti-evasione che ci occupa, può scriversi moltissimo. I profili di incertezza sono davvero ancora numerosi, uno tra tutti è l’effettiva coerenza giuridica della limitazione dei diritti, anche in termini di durata. Ne è colpito anche il diritto di accesso ai dati-personali, che è un diritto-pilastro. Il tema, in altre parole, è destinato a numerosi ulteriori approfondimenti ed è suscettibile di evolvere in contenzioso su una serie prevedibile di profili. C’è solo da auspicare che l’obiettivo, davvero imprescindibile, di contrastare l’evasione fiscale possa essere raggiunto attraverso uno strumento di analisi del rischio di evasione ulteriormente affinato, modellato e reso giuridicamente solido dall’esposizione agli “agenti atmosferici” del mondo del diritto: obiezioni, verifiche, test di conformità, accessi, richieste di chiarimenti.