Il regolamento europeo, la carta proposta dal parlamento francese, il piano nazionale strategico: il quadro normativo sull’Intelligenza Artificiale è in evoluzione. Il presente contributo mira a delineare gli interventi più significativi, senza dimenticare le pronunce giurisprudenziali e gli esempi pratici su IA e giustizia.
Regolamento Ue sull’intelligenza artificiale: tre nodi aperti
Sophia, Ross e gli altri: l’evoluzione dei robot umanoidi
La costante e progressiva evoluzione dell’intelligenza artificiale, della robotica e della rete ha rivoluzionato il modo di pensare, di intrattenere relazioni sociali, economiche e professionali, contribuendo a stravolgere l’adempimento delle più semplici attività quotidiane, fino a considerare la possibilità che sofisticate apparecchiature tecniche ed informatiche siano in grado di sostituire l’operato degli esseri umani in molteplici settori, anche sostanzialmente differenti tra loro, quali quello sanitario o quello dell’informazione, solo per citare quelli che, recentemente, hanno costituito oggetto di maggiore dibattito.
A questo proposito, appare ormai evidente che le macchine più evolute e sviluppate tecnicamente siano in grado, non solo di elaborare informazioni fornite dall’esterno ed eseguire istruzioni precostituite, ma, soprattutto, di captare nozioni precise mediante l’interazione con il mondo reale – virtuale e con il mondo reale – naturale.
A titolo esemplificativo, è possibile menzionare il robot umanoide Sophia[1], il cui appellativo deriva dal greco antico e significa “saggezza”. Si tratta, verosimilmente, di una scelta non casuale, ma finalizzata ad introdurre su scala planetaria un essere empatico, in grado di contribuire positivamente alla realizzazione di attività reali e concrete ed afferenti all’istruzione e alla medicina. Creato nel 2015 dalla Hanson Robotics, in collaborazione con Google Alphabet Inc., Sophia è in grado di sostenere una conversazione, al pari di qualsiasi essere umano, rispondendo a domande specifiche, accompagnate da circa sessanta espressioni facciali molto somiglianti a quelle di una persona. Non solo, il robot umanoide è salito alla ribalta, nei primi mesi del 2021, per essere riuscito a creare – grazie ad una rete neurale, un complesso sistema di computer che imita i meccanismi di apprendimento del cervello umano – il proprio autoritratto, battuto all’asta, negli Stati Uniti, alla cifra astronomica di quasi settecentomila dollari.
Significativa conquista sul campo dell’intelligenza artificiale è stata registrata, inoltre, dal settore legale, con Ross[2], il primo robot avvocato – la cui progettazione è stata avviata nel 2014, mentre il debutto risale al 2016 – concesso in licenza d’uso ad una delle principali aziende legali americane, Baker&Hostetler, con la finalità di gestire i processi per bancarotta. Si tratta di un robot il cui funzionamento è basato sulle tecnologie di “Watson,” il computer cognitivo Ibm, programmato per leggere, comprendere e rielaborare il linguaggio giuridico, avanzare ipotesi, realizzare ricerche su precedenti analoghi a quello oggetto del caso di specie e delineare responsi, immagazzinando quanto appreso dallo studio di fattispecie più risalenti nel tempo.
Ross, difatti, presenta l’abilità di monitorare il panorama giurisprudenziale con l’obiettivo di notificare eventuali nuovi verdetti che possano interessare il caso oggetto di analisi, avvertendo, dunque, il legale impegnato su tale fronte, alla stregua di un “collega”. Ciò conduce a riflettere sul piano della qualificazione giuridica dell’operato di tali “apparecchi”, che potrebbero non essere più considerati alla stregua di meri oggetti, con importanti conseguenze correlate alle loro azioni, sul piano prettamente giuridico.
Il regolamento europeo IA: approccio e richiamo al GDPR
Lo scorso 21 aprile la Commissione Europea ha emanato la proposta di “Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’unione[3]”, prevedendo, al pari di quanto già delineato dal GDPR, un’impostazione basata sulla valutazione del rischio (risk based approach).
La normativa in materia di protezione dei dati personali prevede la redazione di una DPIA (art. 35) e, al fine di calcolare la severità della violazione, l’utilizzo di una metodologia prevista dall’Enisa – European Union Agency for Network and Information Security: “Recommendations for a methodology of the assessment of severity of personal data breaches”, espressamente richiamata dalla WP 250 “Guidelines on Personal data breach notification under Regulation 2016/679[4]” .
Invece nella proposta in esame la Commissione ha preferito una visione statica dei livelli di rischio – inaccettabile, alto e basso o minimo – determinati specificamente, unitamente alle conseguenze derivanti dalle tipologie di trattamento poste in essere. Ad onore del vero, si tratta, in parte, degli stessi trattamenti che, ai sensi dell’art. 35 del GDPR, verrebbero sottoposti a DPIA, dunque, probabilmente ammessi qualora la valutazione d’impatto avesse esito positivo. Ma è diversa la ragione giustificatrice nonché la funzione di quanto previsto dalle due fonti e non è questa la sede idonea ad approfondire l’argomento.
Per quel che concerne i profili di responsabilità derivanti dalle elaborazioni effettuate dai sistemi di intelligenza artificiale, la proposta, pur non affrontando direttamente questa tematica, delinea una distribuzione della responsabilità sui soggetti a vario titolo coinvolti (l’autore del programma, l’utente, il produttore o il venditore) con un evidente richiamo al GDPR, all’articolo 10, nella parte in cui attribuisce ai fornitori di tali sistemi l’obbligo di predisporre “garanzie appropriate per i diritti e le libertà fondamentali delle persone diritti e delle libertà delle persone fisiche, comprese le limitazioni tecniche al riutilizzo e l’uso di misure all’avanguardia per la sicurezza e la tutela della vita privata, quali la pseudonimizzazione o la crittografia quando l’anonimizzazione può incidere significativamente sullo scopo perseguito”.
IA e giustizia predittiva: quid iuris?
L’ambito che più di tutti risente dell’evolversi delle tecnologie che prevedono l’impiego di meccanismi di intelligenza artificiale è quello della “giustizia predittiva” con una meccanizzazione delle procedure che consente di snellire e, al tempo stesso, velocizzare determinate attività direttamente correlate al settore della giustizia. Vengono, difatti, introdotti dei sistemi tecnologicamente avanzati, la cui precipua caratteristica è l’assenza di discrezionalità; ciò li rende capaci di svolgere in tempi di gran lunga minori, e con un alto livello di precisione, le operazioni che richiederebbero l’intervento umano.
Si tratta, in buona sostanza, di sistemi basati su algoritmi improntati all’analisi di database documentali che contengono sentenze, provvedimenti, leggi e contributi dottrinali, che vengono elaborati attraverso la simulazione del ragionamento umano senza però che questo venga integralmente sostituito, altrimenti le variabili da inserire nell’algoritmo sarebbero estremamente elevate e il margine di errore aumenterebbe in maniera esponenziale.
Nel quadro giuridico europeo, il Paese che ha dimostrato di accogliere in maniera più pronta ed efficace le sfide lanciate dalla giustizia predittiva è la Francia, dove è sempre più alto il numero delle start-up ad offrire questa tipologia di soluzioni al fine di oleare la macchina della giustizia civile.
Peraltro, lo scorso 15 gennaio è stata presentata al Parlamento francese la proposta di legge costituzionale n. 2585 relativa alla “Charte de l’intelligence artificielle et des algorithmes[5]”, che riconosce ufficialmente, sul piano costituzionale, l’applicazione dei meccanismi di Intelligenza Artificiale, quale presupposto essenziale di una moderna società digitale, basata sul rispetto dell’uguaglianza, della solidarietà e della non discriminazione. La Carta, infatti, si pone l’obiettivo di regolamentare qualsiasi “sistema che consiste in un’entità fisica (ad esempio un robot) o virtuale (ad esempio un algoritmo) e che utilizza l’intelligenza artificiale. La nozione di intelligenza artificiale è qui intesa come un algoritmo in evoluzione nella sua struttura”; e ancora: tale sistema “è privo di personalità giuridica e quindi incapace di essere titolare di diritti soggettivi. Tuttavia, gli obblighi derivanti dalla personalità giuridica ricadono sulla persona giuridica o fisica che ospita o distribuisce detto sistema, divenendone di fatto il legale rappresentante”. “Qualsiasi sistema è inizialmente concepito per soddisfare la piena effettiva applicazione degli articoli della Dichiarazione universale dei diritti dell’uomo del 10 dicembre 1948”: pertanto, si rafforza l’apertura verso l’innovazione condotta dall’impiego di meccanismi automatizzati senza, tuttavia, perdere di vista la fondamentale tutela dei diritti fondamentali, in linea con la prospettiva antropocentrica disegnata dalla produzione normativa dell’Unione Europea.
IA e giustizia: l’esperienza italiana nella giurisprudenza del Consiglio di Stato
Anche l’Italia ha fatto registrare significativi passi avanti sul piano della giustizia predittiva e dell’intelligenza artificiale. Emblematica la decisione del Consiglio di Stato, Sez. VI, 8.4.2019, n. 2270[6], con la quale sono stati definiti i criteri e le modalità di utilizzo degli algoritmi nelle procedure decisionali della PA.
Nel caso di specie, i giudici di Palazzo Spada erano stati chiamati a decidere sul ricorso presentato da un corpo docenti che lamentava la violazione del principio di trasparenza e di meritocrazia nell’assegnazione degli incarichi a tempo indeterminato. Il meccanismo algoritmico non avrebbe preso in considerazione le necessità e le preferenze espresse dai docenti, elaborando provvedimenti sprovvisti di motivazione, senza che vi fosse la possibilità di individuare un soggetto responsabile di valutare le singole esigenze dei docenti, con conseguente lesione dei diritti degli interessati e dei principi sottesi al buon andamento della pubblica amministrazione.
Nell’affrontare la fattispecie, il Consiglio di Stato ha precisato che “l’utilizzo di una procedura informatica che conduca direttamente alla decisione finale non deve essere stigmatizzata, ma anzi, in linea di massima, incoraggiata: essa comporta infatti numerosi vantaggi quali, ad esempio, la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità, l’esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario (essere umano) e la conseguente maggior garanzia di imparzialità della decisione automatizzata”; dunque, l’impiego delle automazioni risulterebbe conforme ai principi di efficienza ed economicità dell’azione amministrativa.
Tuttavia, l’uso di procedure robotizzate non può rappresentare motivo di elusione dei princìpi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa. Il Consiglio di Stato, difatti, conclude affermando che “il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico”. Tale conoscibilità deve essere garantita durante l’intero processo decisionale, al fine di “verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione”.
Inoltre, occorre che la regola algoritmica sia sottoposta alla cognizione del giudice amministrativo, quale diretta declinazione del diritto di difesa del cittadino, il quale deve poter conoscere le modalità (anche se automatizzate) con cui è stata in concreto assunta una decisione destinata a ripercuotersi sulla sua sfera giuridica.
Particolarmente interessante anche la recentissima pronuncia con cui gli stessi giudici di Palazzo Spada[7] hanno chiarito la nozione di algoritmo, nel contesto di una procedura nazionale di gara per la fornitura di pacemaker di alta fascia, dissentendo rispetto a quanto sostenuto dal TAR Lombardia. Il Consiglio di Stato ha affermato che “non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato”. Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a diminuire considerevolmente l’intervento umano. In casi del genere, l’algoritmo contempla meccanismi di machine learning, creando un sistema che non si limita solo ad applicare le regole software e i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico.
Cosa prevede il nuovo programma nazionale strategico di Intelligenza Artificiale
Da ultimo, non certo per importanza, il Governo, unitamente al Ministero dello Sviluppo Economico, dell’Università e della Ricerca e per l’innovazione tecnologica e la Transizione Digitale, ha pubblicato sul proprio sito istituzionale – lo scorso 24 novembre – il Programma Strategico per l’Intelligenza Artificiale (I.A) 2022-2024[8].
Lo scopo del disegno, nato dalla collaborazione dei membri del gruppo di lavoro sulla Strategia Nazionale per l’Intelligenza Artificiale, è quello di rafforzare le competenze nel settore dell’I.A, aumentare i finanziamenti per la ricerca avanzata e incentivare l’utilizzo dell’I.A in tutti i settori socio-economici.
Sei gli obiettivi individuati all’interno del piano e concernenti il rafforzamento della ricerca di frontiera nell’I.A., al fine di incentivare un approccio multidisciplinare tra la ricerca e le politiche industriali; la riduzione della frammentazione nella ricerca sull’I.A. attraverso la promozione di collaborazioni di rete; lo sviluppo e l’adozione di un’I.A. antropocentrica e affidabile per la progettazione di sistemi intelligenti conformi alle norme in vigore; la crescita dell’innovazione basata sull’I.A. e lo sviluppo delle tecnologie di I.A facendo ricorso a sistema di promozione industriale anche per le PMI; lo sviluppo di politiche e servizi basati sull’I.A. nel settore pubblico; la promozione dell’I.A. in tutti i settori dell’innovazione con lo scopo di incentivare l’operato dei ricercatori della materia.
Sono stati, inoltre, previsti cinque principi guida del programma strategico che si sostanziano nella coordinazione a livello europeo, nella visione del Paese quale polo globale di ricerca e innovazione dell’I.A., in un’ottica antropocentrica, affidabile e sostenibile, con l’investimento in aziende leader nella ricerca, nello sviluppo e nell’innovazione di IA; infine le Pubbliche Amministrazioni Italiane governeranno l’I.A. con l’I.A, nel senso che “il governo si è impegnato a governare l’intelligenza artificiale per attenuarne i potenziali rischi, con particolare riferimento alla salvaguardia dei diritti umani e a un’IA che rispetti i principi etici fondanti della Repubblica. D’altra parte, il governo migliorerà i propri processi interni e le politiche grazie ad un uso responsabile dei dati e della tecnologia IA”.
Un’iniziativa che appare fuori di dubbio apprezzabile, perché rende l’idea di un piano di attività che si pone l’obiettivo di dare spazio a tecnologie in grado di migliorare molti aspetti della vita sociale ed economica del Paese, ma che espone il fianco ad alcune riflessioni di natura critica: l’impianto delineato, infatti, trascura uno degli aspetti forse più rilevante, quello della sensibilizzazione degli utenti e dei cittadini rispetto all’impiego di tecniche e meccanismi che, ai più, possono risultare complicate da comprendere ed utilizzare proattivamente, al punto che il rimedio rischia di risultare peggiore del male. Senza considerare l’aspetto riguardante il finanziamento dei progetti descritti all’interno del piano. Occorre, difatti, comprendere quali saranno, concretamente, le risorse destinate all’implementazione delle attività elencate.
È vero che, all’interno del piano, vengono menzionati alcuni fondi già previsti dal PNRR – che, ricordiamo, copre il periodo temporale fino al 2026 – ma non è chiaro se e fino a che punto essi verranno concretamente impiegati.
IA e giustizia: un quadro in evoluzione
Il quadro normativo appare ancora lontano da un soddisfacente completamento. In questo senso, un valido supporto è stato finora garantito dalle pronunce giurisprudenziali e dall’impegno profuso dalle istituzioni in merito all’implementazione dell’uso di tali forme tecnologiche.
Si discute spesso dell’ipotesi che, in un futuro non troppo lontano, sarà possibile prevedere, con un livello di precisione pressoché vicino alla perfezione, l’esito di un procedimento giudiziario, iniziando, probabilmente dai processi di modesta entità.
Si tratta, ad onore del vero, di un orizzonte temuto da buona parte degli addetti ai lavori, che considerano negativamente il termine “giudice robot”. Del resto, suonano sempre particolarmente attuali e significative le parole di Piero Calamandrei: “Vogliamo dei giudici con l’anima, giudici che sappiano portare con vigile impegno umano il grande peso di questa immane responsabilità che è il rendere giustizia”.
Non rimane che attendere gli ulteriori sviluppi di un settore in costante evoluzione, tenendo presente che un alto livello di efficacia ed efficienza dei sistemi giudiziari è requisito imprescindibile per uno Stato di diritto.
_______________________
Note
- https://www.hansonrobotics.com/sophia/ ↑
- https://www.rossintelligence.com/case-studies ↑
- https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0006.02/DOC_1&format=PDF ↑
- Disponibile al seguente url: https://ec.europa.eu/newsroom/article29/items/612052. Tale metodologia utilizza tre diversi criteri quantitativi: a) la criticità dei dati coinvolti; b) il grado di facilità nell’individuazione dell’identità degli individui; c) le specifiche circostanze della violazione classificate secondo perdita di riservatezza, integrità e disponibilità dei dati, con una formula sintetizzabile in: a x b + c ↑
- https://www.assemblee-nationale.fr/dyn/15/dossiers/charte_intelligence_artificielle_algorithmes ↑
- https://www.medialaws.eu/wp-content/uploads/2019/11/Consiglio-di-Stato-sez.-VI-8-aprile-2019-n.-2270.pdf ↑
- Sentenza della sezione III, n. 7891 del 25.11.2021, disponibile al seguente url: https://www.eius.it/giurisprudenza/2021/655 ↑
- https://assets.innovazione.gov.it/1637777289-programma-strategico-iaweb.pdf ↑