Intelligenza artificiale

Se l’IA fosse colpevole di un reato: i nodi del diritto penale



Indirizzo copiato

Riuscire a capire se l’IA può rappresentare un pericolo per il suo creatore e, in caso affermativo, se può essere considerata legalmente responsabile delle sue azioni. E inoltre, stabilire se le leggi attuali sono adeguate a gestire i crimini commessi da un’entità di IA. Le domande da porsi di fronte al progredire della tecnologia

Pubblicato il 8 nov 2023

Vincenzo Lusa

Fellow Jurisprudence of American Academy of Forensic Sciences -USA. Università Sapienza in Roma



IA intelligenza artificiale ai generativa e copyright

L’IA può essere considerata un pericolo per il suo creatore? Se tale quesito dovesse trovare una risposta affermativa, allora, l’IA potrebbe assurgere al ruolo di un soggetto attivo di reato alla stregua di quello umano e quindi divenire tout court sanzionabile; tutto ciò ovviamente nell’eventualità le leggi penali fossero infrante dalla suddetta intelligenza artificiale.

Una seconda questione, legata alla precedente, è finalizzata a conoscere se le attuali norme del Codice Penale siano davvero in grado di supportare la previsione di un crimine da parte di una IA e la conseguente punibilità di tale inedito agente di reato. In altri termini se il plesso normativo penale odierno risulti adeguato a tale nefaste previsioni delittuose nate in seno a un’intelligenza cibernetica.

Crimini dell’IA: le tre ipotesi

Le ipotesi che si possono configurare a nostro avviso sono essenzialmente tre.

La prima (1) vede l’IA posta direttamente sotto il controllo dell’operatore e che detto operatore se ne possa servire per fini illeciti.

La seconda (2) afferisce invece all’eventualità di un uso colposo da parte dell’utilizzatore: ovverosia per negligenza, imprudenza o imperizia secondo i canoni del concetto di colpa in ambito penalistico. Quanto espresso che comporterebbe di per sé una violazione delle norme cautelari da parte del soggetto umano che controlla l’IA.

Infine, residua al nostro esame l’ultima e più suggestiva possibilità (3) che concerne l’eventualità che l’IA prenda piena autocoscienza rectius: divenga consapevole di sé, del proprio esistere e del proprio agire in senso omnicomprensivo, intellettivo e sensoriale.

In quest’ultima ipotesi occorre sempre distinguere se tale intelligenza sia sotto controllo umano (nel senso civilistico del termine come rapporto diretto tra datore di lavoro e dipendente) e quindi riconducibile, nel sopra esposto caso, al numero (1) oppure l’IA sia completamente avulsa da ogni controllo dell’uomo auspicando, in tale ipotesi, che essa persegua finalità benefiche. Nella denegata ultima supposizione l’IA, totalmente autocosciente, perseguirebbe i propri fini di natura criminale.

Quest’ultimo caso è il più temuto, tanto da essere considerato una vera e propria catastrofe, così come concepita dallo scienziato e scrittore Isaac Asimov nel suo famoso testo: ”Catastrofi a scelta” e successivo oggetto di rivisitazione a cura della narrativa fantascientifica (cioè della “Scienza-fantastica”).

Circa poi quest’ultimo punto, basti pensare celebri romanzi come “Neuromantedi W. Gibson, dove s’ipotizza l’esistenza di una IA autocosciente che infesta la rete globale o l’ultimo grande successo cinematografico di “Mission impossible dead reckoning” dove una IA, sempre del tutto autocosciente e creata per fini bellici, sfuggendo al controllo umano si prefigge un programma criminoso, perseguendo i suoi biechi fini e agendo in tal modo unitamente alla criminalità organizzata umana. Queste ultime stimolanti supposizioni non appaiono del tutto peregrine se si considerano alcuni appelli di eminenti scienziati come Geoff Hinton o Gary Marcus, tanto per citarne alcuni, che paventano i danni incalcolabili che una IA estremante sofisticata potrebbe arrecare ai suoi creatori.

L’AI Act europeo

Come è noto, il Parlamento europeo, in data 14 giugno 2023, ha dato il via libera all’Artificial Intelligence Act, che regolerà l’Intelligenza Artificiale nel rispetto dei diritti e dei valori dell’Unione Europea. Il nominato atto è destinato a entrate in vigore nel comparto temporale intercorrente tra il 2024 e il 2025 e in sintesi si tratta di una regolamentazione pertinente all’IA. Circa poi la paventata ipotesi di cui al nostro numero (3) si è scritto a livello europeo che i sistemi di IA possono essere valutati a “rischio inaccettabile”, nell’eventualità essi possano rappresentare una minaccia per gli individui; ovvero: “chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone” o ancora la: “manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici, la classificazione sociale e sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale”. In riferimento a quanto appena esposto, si parla ancora di un “elevato rischio” ed esso è associabile a un “rischio significativo” di danno alla salute individuale o alla sicurezza e quindi: “risultato della combinazione della sua gravità, intensità, probabilità di accadimento e durata dei suoi effetti e la capacità di colpire un individuo, una pluralità di persone o un particolare gruppo di persone”. A quanto appena scritto possiamo anche aggiungere come traccia di ricordo la Proposta di Regolamento del Parlamento Europeo, in data 21 aprile 2021, che si prefisse di stigmatizzare i canoni di correttezza e sicurezza dell’IA frazionandola come: “rischio intollerabile” e “alto rischio”, quest’ultima consentita sebbene nell’osservanza dei requisiti indispensabili per assicurare la sicurezza dell’impiego della stessa IA. Si cita inoltre, a proposito del plesso normativo europeo, la Risoluzione del Parlamento europeo del 6 ottobre 2021, dal titolo: “L’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale”. Chi qui scrive, circa l’esposto ultimo punto, ha già enucleato in questa rivista le attività di risk assessment tools per assicurare criminali alla giustizia o prevenire reati.

Il progetto Usa “Predpol”

Ricordiamo a questo proposito che negli Stati Uniti esiste il progetto “Predpol” (attuato nello stato di New York, stato di Atlanta e stato della Georgia). Detti programmi si basano sull’utilizzo di algoritmi matematici in grado di prevedere l’evento criminale tramite un software che è in grado di raccogliere informazioni dai casellari giudiziari e che li incrocia con i dati provenienti dalle comunicazioni di servizio della polizia locale. In Europa, e più precisamente in Germania è utilizzato il Precobs (Pre Crime Observation System) che agendo similarmente a un criminal profiling mette in sistema tra loro luoghi della città, orari e tipologia di crimine, alla ricerca di schemi tra loro similari, potendo così intervenire prima che l’avvenimento criminale si concretizzi. Sempre in ambito predittivo si cita ancora la ricerca della psichiatra americana Dorothy Otnow incentrata sulla raccolta di dati psicologici, neurologici e familiari tra i teen-agers e tesa a dimostrare chi, tra i ragazzi giunti in età adulta, porterebbe divenire un omicida, prevenendo in tal modo le sue azioni.

La teoria della Otnow si fonda su uno studio intrapreso presso istituti correzionali in USA dove si è constatato che il 75% teen-ager, autori di omicidio, presentavano tratti comuni tra loro come aver subito un danno celebrale o aver perpetrato maltrattamenti nei confronti degli animali o tratti psicotici personali. Questi dati possono essere gestiti tramite un algoritmo intelligente in grado di palesare i futuri autori di gesti omicidiari.

Si può parlare di colpevolezza robotica?

Ma per quanto invece attiene il focus di questo lavoro ovvero l’eventualità che l’IA possa assurgere a strumento ovvero divenire autonoma autrice di un reato così in ossequio ai parametri da noi esposti ai punti: (1), (2) e (3)? Si pensi per esempio a quanto accaduto nei mesi recenti estivi del 2023 in California, ove la California Public Utilities Commission ha approvato il servizio di taxi senza conducente della società Waymo consentendo in tal modo di ottenere corse di autovetture senza autista ventiquattrore ore su ventiquattrore. Cosa accadrebbe al conducente virtuale dell’auto pubblica nel caso provocasse a terzi lesioni colpose in conseguenza di reato stradale (?), sino a arrivare all’ipotesi di omicidio stradale commesso dalla IA deputata alla guida del taxi. Si può parlare di colpevolezza robotica? Si possono applicare in concetti di dolo o colpa a una IA? E che dire poi dell’imputabilità (ovvero imputare qualcosa a qualcuno) come concezione giuridica connessa alla capacità di intendere e di volere di natura mentale? E quali sanzioni poi applicare all’esito di un processo penale che veda IA del tutto autocosciente giudicata colpevole dei reati a lei ascritti? Come andrebbe rivisitata, nelle suddette eventualità la nostra Costituzione? Dal punto vista del giuslavorista del diritto civile, non appare percorribile applicare a una IA del tutto autocosciente, come quella sopra messa in evidenza al punto (3), il classico rapporto datore di lavoro-dipendente nel senso classico che esso assume all’interno del Diritto del Lavoro ove si stigmatizzano obblighi e doveri da addursi a entrambe le parti e in particolare al datore di lavoro nei confronti del suo subordinato come ad esempio: le ferie, retribuzione o il diritto da parte del lavoratore di iscriversi a un sindacato.

Forse in un futuro una IA autocosciente potrebbe addirittura divenire socia del datore umano di lavoro. Ma qui si schiudono panorami non percorribili in questa sede.

Il concetto di moralità e di libero arbitrio

A ogni buon conto, negli altri enucleati casi, ovverosia IA pan-senziente, di cui al punto (3), andrebbe certo affrontato il concetto di moralità e di libero arbitrio da porsi in capo alla stessa IA. Tali importanti temi devono essere preliminarmente affrontati partendo da un esame della nostra Costituzione ove all’art. 27 si legge che la responsabilità penale è sempre personale, deducendosi da tale asserto che il singolo essere umano risponde dei fatti delittuosi da lui commessi. Di conseguenza, solo gli esseri umani possono essere tratti a giudizio per causa di reato. In effetti, sino all’anno 2001, si diceva che solo gli essere umani sono in grado di delinquere e infatti: “societas delinquere non potest”. Tuttavia, tale asserto giuridico fu scardinato a seguito dell’entrata in vigore del D.Lgs. 231/2001 e tale statuizione giuridica sancì per la prima volta che gli enti, anche privi di personalità giuridica, escluso lo Stato, potevano essere chiamati a rispondere dei reati attuati dai loro amministratori, dirigenti e funzionari se tali crimini erano perpetrati nell’interesse dell’ente stesso.

Ma vi è di più, giacché la Cassazione penale ha statuito nel corpo di una propria sentenza che non soltanto una persona fisica possa rivestire la qualifica di persona offesa (quindi non più persona strettamente in senso biologico) dal reato, ma anche un’entità giuridica o di fatto, come una fondazione, un’associazione o altro sodalizio, anche di natura religiosa, essendo concettualmente identificabile un onore o un decoro collettivo, quale bene morale di tutti gli associati o membri, considerati come unitaria entità, capace di percepire l’offesa (Sez. 5, n. 12744 del 07/10/1998, Faraon, Rv. 213415). Esistendo quindi agli atti, tali illustri precedenti giuridici, va da se che il successivo e ipotizzabile asserto giuridico potrebbe essere: “machina delinquere potest” attesi gli incredibili progressi compiuti in campo informatico (si dice infatti che se le automobili avessero conseguito la stessa evoluzione tecnologica che i computer hanno raggiunto, oggi una Rolls- Royce costerebbe poche migliaia di euro e userebbe acqua a livello energetico).

Posta quindi come possibile la condizione che vede una IA in grado di criminare, dobbiamo necessariamente ricondurci alla casistica introdotta in esordio a questo lavoro ovvero: (1) che l’IA sia direttamente sotto il controllo dell’operatore e che detto operatore se ne possa servire per fini illeciti quindi con dolo. La seconda (2) afferisce invece all’eventualità di un uso colposo da parte dell’utilizzatore: ovverosia per negligenza, imprudenza o imperizia secondo i canoni del concetto di colpa in ambito penalistico. Nel caso (1) ci potrebbe soccorrere il concetto penalistico di autore mediato, ex art. 48 codice penale, dove in sintesi si recita che un altro essere umano, non punibile, possa essere utilizzato rectius: manipolato da un’altra persona come strumento per eseguire un reato. In altri termini, si tutela una persona vittima di un inganno altrui, che quindi non potrà essere chiamata a rispondere del reato commesso da un terzo.

Se l’IA fosse utilizzata nelle suddette modalità, ebbene va da se il soggetto umano risponderebbe del reato avendo agito con dolo. Andrebbe pertratto introdotta nella narrativa del richiamato articolo 48 c.p. il concetto di IA che possa divenire strumento da parte di un soggetto umano per eseguire un reato. Nel caso (2), ovvero utilizzazione con malgoverno di un IA sotto l’egida della colpa per imprudenza, negligenza o imperizia da parte dell’utilizzatore umano e cioè art. 43 c.p. (estratto) “Il delitto….omissis…è colposo, o contro l’intenzione, quando l’evento, anche se preveduto, non è voluto dall’agente e si verifica a causa di negligenza o imprudenza o imperizia, ovvero per inosservanza di leggi, regolamenti, ordini o discipline” il soggetto umano, in tale cennata evenienza, risponderebbe dell’evento colposo.

Più suggestivo e maligno è invece il punto (3) della casistica da noi coniata, che introduce uno scenario ove un’IA prende piena consapevolezza di sé, del proprio esistere e del proprio agire in senso omnicomprensivo, intellettivo e sensoriale e che l’IA sia in questo caso completamente avulsa da ogni controllo dell’uomo perseguendo così propri fini di natura criminale e divenendo pertanto dominus del web. In questo ipotesi, la IA utilizzerebbe a tale scopo strumenti meccanici e informatici sino a giungere all’eliminazione di eventuali ostacoli umani.

Questo drammatico scenario condurrebbe inevitabilmente il legislatore alla modifica della Costituzione introducendo l’IA tra i soggetti destinatari della Costituzione stessa. In effetti, l’attento lettore di norme, tanto per fare un esempio, ben conosce le potenzialità semantiche insite nell’articolo 575 del codice penale ove si recita che: “Chiunque cagiona la morte di un uomo è punito con la reclusione non inferiore ad anni ventuno”. A ben ragionare, quel “chiunque” include un ampio ventaglio di possibilità circa l’autore del fatto-reato e, ragionando in punta di diritto, si potrebbe allora supporre per esempio che, se un alieno altamente evoluto giungesse sulla Terra e uccidesse un uomo, ebbene esso sarebbe soggetto (e quindi imputabile) alla legge nazionale italiana per il reato di omicidio volontario ex art, 575 c.p. Viceversa, se un uomo uccidesse il suddetto alieno ebbene, costui sarebbe immune da pena atteso il fatto che la vittima non sarebbe in questo caso un essere umano quindi un sapiens in senso biologico ed evoluzionistico atteso il fato che la norma parla esclusivamente dell’uccisione di un uomo.

Il principio di “determinatezza” del Diritto Penale

Quanto appena espresso sarebbe quindi in linea con il principio di “determinatezza” del Diritto Penale che implica da parte del legislatore la formulazione chiara e precisa delle norme penali, come appunto si legge nell’articolo 575 c.p. quando si narra che “chiunque cagiona la morte di uomo è punito…”. Il ricordato principio di “determinatezza” peraltro richiama l’art 14 delle Disposizioni sulla legge in generale al codice civile ove, nel suddetto articolo 14, si recita in effetti che: ”Le leggi penali non si applicano oltre i casi e i tempi in esse considerati”. Discende da quanto appena esposto che se l’IA di cui al punto (3) divenisse in futuro capace di sopprimere un essere umano, ebbene essa sarebbe punibile divenendo soggetta alla legge penale. L’articolo 575 c.p. in questa eventualità subirebbe ben poche trasformazioni divenendo immediatamente applicabile al caso in esame.

Sanzioni da infliggere a un’IA pan-senziente

Del resto occorrerebbe parlare anche di sanzioni da infliggere all’IA ad esempio: sospensione dai funzionamenti (si legga interdizione ai compiti assegnati), sino alla soppressione della stessa IA, poiché si rammenta che la pena di morte è stata abrogata per gli esseri umani ma non per soggetti di natura informatica. All’origine di questi sofismi giuridici occorrerebbe rivisitare e ovviamente riformulare alcuni articoli del codice penale; ovvero:

Art. 85

Capacità d’intendere e di volere.

“Nessuno può essere punito per un fatto preveduto dalla legge come reato, se, al momento in cui lo ha commesso non era imputabile.
È imputabile chi ha la capacità d’intendere e di volere”.

Art. 88

Vizio totale di mente.

“Non è imputabile chi, nel momento in cui ha commesso il fatto, era, per infermità, in tale stato di mente da escludere la capacità d’intendere o di volere”.

Art. 203

Pericolosità sociale.

“Agli effetti della legge penale, è socialmente pericolosa la persona, anche se non imputabile o non punibile……quando è probabile che commetta nuovi fatti preveduti dalla legge come reati”.

I richiamati articoli oggi sono applicabili esclusivamente a un soggetto umano ma quid iuris nel caso di un’IA riconducibile al punto (3) da noi formulato? Il problema giuridico risiederebbe allora nel concetto di “mente”, in questo caso certo artificiale, ma si rammenti stiamo parlando di un’IA che ha assunto piena consapevolezza di sé, del proprio esistere e del proprio agire in senso omnicomprensivo, intellettivo e sensoriale e allora ne conseguirebbe che anch’essa potrebbe annoverare a se una capacità di “intendere” e di “volere” e nel caso disfunzionasse. Ebbene in tale nefasta eventualità essa ricadrebbe nel genus delle patologie di natura mentale anche se ovviamente non di marca biologica bensì informatica. Ancora, in caso di reiterazione di reati da parte dell’IA, tali nefaste azioni sarebbero allora riconducibili al sopra richiamato articolo 203 del codice penale ovvero al concetto di pericolosità sociale, sempre che l’IA pan-senziente sia considerata alla stregua di una persona. In effetti, il fulcro di questa meditazione risiede nel definire giuridicamente cosa effettivamente sia un’IA pan-senziente, come quella declinata al nostro punto (3).

Il grande criminologo Enrico Ferri, negli anni conclusivi dell’800, definì reato tutto ciò che contrasta con la morale di un popolo. Allora e inevitabilmente, si dovrebbe abbandonare, almeno momentaneamente, il campo giuridico per addentrarsi in quello filosofico e in particolar modo etico e morale, giacché la vera questione, prodromica a ogni dissertazione giuridica come quella da noi appena compiuta, deve formularsi nei seguenti termini: l’IA pan-senziente annovera a se una moralità di tipologia umana? In questo interrogativo risiede probabilmente il futuro Diritto penale che in questa sede abbiamo affrontato.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3