Si può punire l’intelligenza artificiale? Si può chiederle i danni?
Siamo ancora all’anno zero su tale profilo, e non perché non siamo “intelligenti” o acculturati giuridicamente. Ma perché è la risposta più difficile ai tanti, troppi quesiti che la nuova tecnologia impone.
Ci si interroga circa la possibilità che il mondo digitale, in cui operano, a vario titolo, diversi soggetti, possa restare senza apposita disciplina. Se ne serva una ad hoc o vi si debbano applicare i codici già in uso.
L’intelligenza artificiale e la questione della responsabilità legale
Parlando dell’Italia, non dimentichiamoci che il nostro civil law impone precisi canoni comportamentali alle persone fisiche e a quelle giuridiche. Ma, per l’appunto, l’AI non è nulla di questo.
È un tertium genus? È un prodotto “transgenico”?
Secondo la definizione fornita nella Comunicazione della Commissione europea del 2018 (Communication Artificial Intelligence for Europe), l’AI si riferisce a sistemi che mostrano un comportamento intelligente, che sanno analizzare il loro ambiente e agire – con un certo grado di autonomia – per raggiungere obiettivi specifici.
In altre parole, l’intelligenza artificiale consiste nell’abilità di una macchina di mostrare capacità umane quali l’apprendimento, il ragionamento, la creatività e la pianificazione: si tratta, quindi, di sistemi intelligenti, in grado di adattare il loro comportamento sulla base degli effetti delle azioni precedentemente impostate.
Quindi, data anche la definizione dell’AI Act, nulla di “umano” o “personificabile”.
Come di recente riaffermato da Federico Faggin, “nemmeno la forma più evoluta di intelligenza artificiale potrà mai sostituire l’uomo”.
Il contributo dell’IA nel sistema giuridico
Allora, siamo tranquilli (i più) dal punto di vista “etico”; ma, sovente, l’etica non va col diritto. E qui la divaricazione c’è, anche se una IA non etica può più facilmente deviare dai suoi schemi “in bonis” (la presunzione di innocenza vale anche per le macchine!) e, quindi, arrecare danni alle persone, sia fisici che strutturali.
Il diritto, la giurisprudenza, le investigazioni, possono certamente giovarsi di sistemi elaborativi e investigativi, di IA forti e deboli: basti pensare ai nuovi software informatici, agli algoritmi predittivi sull’esito delle controversie, all’utilizzo da parte delle forze di polizia e della difesa.
Si rende necessario, però, rivedere – o, addirittura, reinventare – il rapporto tra AI e diritto penale e civile: occorre ribadire che le qualità umane non potranno mai essere totalmente sostituite dalla tecnologia, visti anche i rischi che il sistema di giustizia (penale soprattutto) dovrà affrontare, ma si auspica il mantenimento di un modello che persegua l’obiettivo primario di una “giustizia giusta”, non rinunciando all’apporto del progresso tecnologico.
Il ddl governativo che si appresta a essere approvato dal Parlamento va in questa direzione, almeno in quest’ultimo senso, poiché prescrive che l’uso dell’AI in giustizia debba lasciare sempre al Giudice la cosiddetta “ardua sentenza”.
L’IA e il sistema penale: opportunità e rischi
L’IA potrebbe entrare nel sistema penale in svariati ambiti, quali il policing, il profiling e il sentencing, corroborando (e lasciandosi guidare) da investigatori e giudici.
In primo luogo, si pensi al miglioramento della cosiddetta law enforcement, con la possibilità di “mappare” il rischio criminale, al fine di ridurre la commissione di reati prevedibili e di individuare con maggior precisione i responsabili dei crimini.
In secondo luogo, in sede giudiziale, si ragiona sulla maggior precisione delle valutazioni mediante algoritmi predittivi; si tratta di strumenti che analizzano un numero elevato di dati del passato e individuano delle ricorrenze.Si pensi alla pericolosità di un soggetto condannato, che rileva: a)per il rischio di recidiva; b) per l’applicazione o la revisione di una misura di sicurezza; c)per la commisurazione della pena secondo gli indici individuati dal codice penale, e molto altro.
Il problema della trasparenza dei dati nell’IA
Ovviamente, qui più che altrove la selezione dei dati di immissione ed alimentazione degli LLMM dovrà essere “chirurgica” e nient’affatto massiva e incontrollata (e incontrollabile). La trasparenza del dato è, a mio avviso, l’unico vero problema ancora da smarcare nel ragionamento sull’opportunità dell’AI come supporto all’essere umano.
L’algoritmo si affianca ed integra la legge, in qualche modo: qui non si scherza.
È chiaro che tali problematiche non devono causare una chiusura totale verso il progresso, poiché è indubbio l’apporto positivo dell’AI nell’ordinamento penale e civile del nostro Paese, soprattutto in un momento storico, che in verità dura da troppo tempo, di crisi della giustizia in termini di risorse umane e tecnologiche.
Non bisogna poi dimenticare che nel web operano strutture di qualsiasi genere, e che l’utilizzo sempre più ampio dell’IA da parte della criminalità organizzata e terroristica è un dato incontrovertibile.
Ma dobbiamo inventarci, ed esportare a livello europeo, un modello di imputazione della responsabilità degli eventi che vedono il contributo causale dei sistemi di intelligenza artificiale, segnatamente generativa.
La responsabilità per danno in caso di malfunzionamento dell’IA
Dal punto di vista civilistico, probabilmente il sistema della responsabilità per danno da prodotto, della tutela del consumatore, dei marchi e brevetti, possono ritenersi più facilmente esportabili in campo IA.
Al contrario, la natura “intelligente” dei nuovi prodotti comporta difficoltà peculiari nell’attribuire la responsabilità – sia colposa che dolosa – per un danno verificatosi.
L’utilizzatore umano, va detto chiaramente, ha sempre la possibilità materiale di intervenire al fine di correggere eventuali malfunzionamenti della macchina. Ci si sta chiedendo però – e, secondo me, non è proprio necessario – se sia opportuno o meno che l’ordinamento imponga un simile obbligo di sorveglianza. Ciò soprattutto pensando, da parte dei soggetti interessati, legittimamente, alla produzione e all’utilizzo di sistemi di AI, al fatto che si vanificherebbe così la gran parte dei vantaggi connessi al carattere “intelligente” delle tecnologie.
Ma la “scuola protezionistica” che sembra potersi evincere dall’AI Act e dalla regolamentazione italiana parrebbe quella preferibile da seguire. Si pensi solo un attimo e, a titolo marcatamente esemplificativo, ai danni alla persona, alla salute, all’ambiente.
Alla luce di quanto detto, l’implementazione di nuove tecnologie dovrebbe essere unita: allo sviluppo culturale e informativo di tutti gli attori del sistema; alla messa a disposizione di risorse dedicate adeguate; alla protezione dei dati grezzi derivanti dal monitoraggio condotto; al coordinamento di tutti gli attori della catena della sorveglianza fino alla persecuzione dei reati e all’utilizzo di protocolli condivisi.
L’attribuzione della responsabilità per crimini online e l’IA
Ma non meno trascurabile, anche se lo si accenna per ultimo, è il problema della cosiddetta “attribuzione” della responsabilità per crimini online, o reati comuni commessi mediante strumenti informatici di qualsiasi tipo.
Qui è l’intera UE che deve farsi carico di inasprire i criteri legali e armonizzare gli standard di prova per l’attribuzione. L’Unità Cibernetica Comune dell’UE dovrebbe, con le altre, essere rafforzata per migliorare lo scambio di informazioni forensi e coordinare in modo più efficace la politica di attribuzione. Infine, gli Stati membri dell’UE e i loro partner alleati dovrebbero coordinare meglio il segnale politico di condanna dei cyberattacchi.
Le sfide future dell’IA nella giustizia
In questo senso sembra essersi mosso il recentissimo G7 della Cyber, anche se, va detto, nell’ambito dell’intelligence si potrebbe continuare a scontare quello che è un limite connaturato alla stessa difesa: quello della riservatezza e protezione nazionale degli interessi.
Se l’UE vuole imporre sanzioni informatiche legittime, deve prima determinare l’origine (attribuzione) degli attacchi informatici in modo attento e ragionevole.