L’intelligenza artificiale (AI) rappresenta indubbiamente una delle principali sfide con cui la nostra società è oggi chiamata a confrontarsi. Essa ha dato vita a un’autentica rivoluzione che ha pervaso ogni ambito della nostra quotidianità imponendoci di fare i conti con una realtà straordinaria e, al contempo, complessa.
Intelligenza artificiale, l’Europa si scontra sulle regole: ecco i nodi
L’intelligenza artificiale: una sfida interdisciplinare
Una rivoluzione che, da un lato, pone la sfida di pensare in modo profondamente innovativo alla realtà, ormai anche virtuale, sulla quale occorre incidere; dall’altro lato, sollecita gli attori istituzionali a elaborare, prima possibile, nuove regole per governare un mondo che sino a pochi anni orsono era immaginabile solo nelle opere di fantascienza. Basti pensare, quanto ai modelli economici, ai radicali cambiamenti degli schemi commerciali generati dalla distribuzione attraverso piattaforme digitali, nonché al crescente successo di siffatti approcci al tempo della pandemia.
Per non parlare dei profondi cambiamenti determinati nei contesti lavorativi dallo smart working o di quelli che si registrano nell’attività didattica, che ha visto l’ingresso delle nuove tecnologie. Tutte innovazioni che hanno comportato indubbi vantaggi in termini di espansione degli affari, di possibile creazione di spazi temporali da riservare alle esigenze familiari, di orizzonti più ampi per coltivare l’idea di una alfabetizzazione diffusa a tutte le categorie sociali.
I problemi etici, sociali e giuridici
Non mancano tuttavia problemi etici, sociali e giuridici. Penso ai rischi di concentrazione nel settore distribuzione, alla difficoltà di misurare correttamente l’efficienza delle prestazioni lavorative da remoto, alla accentuazione delle disuguaglianze digitali dovute alle condizioni personali, economiche e sociali.
Penso inoltre alle delicate questioni etiche che solleva l’impiego dell’AI, anche se realizzato per scopi leciti. Una delle questioni di partenza riguarda per l’appunto la scelta etica alla base di alcune interazioni e applicazioni, in un contesto che è ancora carente o addirittura privo di regole.
Oggi, cioè, spetta all’etica il difficile compito di fungere da prima barriera, in un terreno in cui l’apparato di regole giuridiche appare insufficiente e spesso non corrispondente alle concrete esigenze di tutela.
Proprio la complessità di questo fenomeno e il suo carattere interdisciplinare –vengono infatti in rilievo profili tecnologici, etici, normativi, economici, filosofici, giuridici – hanno costituito la spinta propulsiva verso l’ideazione di un volume – “Intelligenza artificiale. Politica, economia, diritto, tecnologia” – che raccoglie le riflessioni di un gruppo di studiosi, provenienti da diverse aree scientifiche, ma accomunati dalla volontà di individuare un fil rouge tra aspetti definitori, etici, giuridici, comparatistici nell’universo dell’AI.
È solo, infatti, attraverso lo scambio di saperi che sarà possibile collocare nel giusto posto i tasselli di questo mosaico e, di conseguenza, costruire un sistema di regole adeguato ed efficace, così da cogliere appieno le opportunità che questa nuova scienza ci offre, evitando che il rapporto uomo-macchina si trasformi in un “vaso di Pandora”.
Se non saremo capaci di raccogliere questa sfida correremo il rischio che questa eccezionale chance di crescita si trasformi invece in una discesa verso quel buio delle coscienze, della democrazia, dei valori, che Yuval Noah Harari ha acutamente definito come l’incubo del XXI secolo.
Accogliendo con piacere questa sfida, abbiamo dunque scelto di dedicare al prisma dell’AI un volume che analizza le sue poliedriche sfaccettature, a partire dai suoi riflessi filosofici e politici (che sono stati esaminati da Paolo Benanti e Sebastiano Maffettone), economici (questi, oggetto dello studio congiunto di Stefano Manzocchi e Livio Romano) e tecnologici (indagati da Giuseppe Italiano e Livio Romano) fino ai profili di carattere giuridico-penalistico di cui mi sono occupata personalmente, per poi concludere con una compiuta panoramica sullo stato dell’arte della normativa in materia (condotta da Antonio Malaschini).
I profili filosofici e politici
Quanto agli aspetti filosofico-politici dell’AI, la questione alla base dell’indagine compiuta da Paolo Benanti e Sebastiano Maffettone guarda a come il digitale intercetti e sia in tensione con il modo democratico di gestire il potere.
Per fornire risposta a tale interrogativo, la prima parte del saggio si concentra sulla lettura cibernetica dell’informazione e sulla sua interazione con l’essere umano nel senso di controllo di un sistema. In questo contesto, si assiste infatti allo spostamento del controllo umano verso la macchina, come ben esemplifica il caso dei droni senza guida umana utilizzati in guerra. E quando un simile fenomeno ha rilievo politico allora il significato e il valore della democrazia vengono messi in discussione.
Come è possibile conciliare tutto ciò con lo sfondo liberale e democratico che è connaturato al nostro modo di affrontare il problema dell’ordine sociale in termini di filosofia politica? La liberal-democrazia – in filosofia politica, secondo il pensiero degli Autori – prevede la complementarità di un processo – etico e top-down – di giustificazione, con uno empirico di legittimazione in cui si tiene conto della natura del consenso. La crisi contemporanea della democrazia è essenzialmente crisi di legittimazione e può essere – secondo molti – affrontata con il supporto degli strumenti digitali.
L’idea degli Autori è che le nuove tecnologie possano non solo fornire nuova legittimazione al sistema, ma anche mettere in pericolo la democrazia. In questa prospettiva, il problema verte sull’opportunità e sulla possibilità di estendere questi concetti attraverso l’impiego di un contratto sociale digitale e, quindi, tramite una legittimazione elettronica.
L’empowerment pubblico digitale, i big data e l’AI sfidano l’idea stessa di governo: il modo in cui gli incentivi politici, sociali ed economici, gli interessi e le idee vengono compresi, negoziati e contestati.
Questa nuova realtà produce un cambiamento profondo della sfera pubblica, creandosi una nuova piattaforma discorsiva che permette di relazionarsi interpersonalmente senza ricorrere alle grandi organizzazioni mediatiche. Gli effetti potenzialmente utili per la democrazia sono evidenti: si acquisirebbe una rinnovata capacità di ascoltare la voce del popolo recuperando così legittimazione. Ad ogni modo, sono state avanzate molte obiezioni a una simile visione e, ad avviso degli Autori, il rischio più grave connesso all’impiego della Ict in politica è comunque quello legato alla possibilità di una sistematica manipolazione delle preferenze del cittadino-elettore.
Per poter parlare di innovazione come di un bene, e per poterla orientare al bene comune, abbiamo bisogno di una qualifica che sia in grado di descrivere come e quali caratteristiche del progresso contribuiscono al bene dei singoli e della società. Per questo gli Autori propongono di adottare la categoria della sostenibilità digitale[1].
L’uomo al centro della riflessione
Parlare di sostenibilità digitale significa mettere, non la capacità tecnica, bensì l’uomo al centro della riflessione e come fine che qualifica il progresso. Abbiamo bisogno di un fondamento algoretico della democrazia digitale.
Utilizzare eticamente la tecnologia digitale oggi, rispettare l’ecologia umana, significa cercare di trasformare l’innovazione in un mondo digitale sostenibile. Significa indirizzare la tecnologia verso e per lo sviluppo umano, e non semplicemente cercare un progresso fine a sé stesso. In termini pratici, ciò vuol dire anche adottare strumenti legali ed educazionali adeguati alla complessità del problema, tra cui le forme di regolamentazione dell’Unione europea che limitano la libertà di operare dei sistemi digitali. Ma, forse, più di ogni altra cosa contano politiche mirate per l’education, atte a formare tutti dal punto di vista delle competenze digitali e soprattutto dirette a ridurre il c.d. digital divide.
Perché ci sia libertà, abbiamo bisogno che la coscienza e le coscienze interroghino la tecnica orientando il suo sviluppo verso il bene comune.
I profili economici
Nell’ambito dell’ampia ricerca sui riflessi dell’AI sull’economia, condotta da Stefano Manzocchi e Livio Romano, un focus di particolare interesse è dedicato ai rischi di una crescita economica inferiore alle aspettative. Sebbene secondo uno degli studi più completi[2], realizzato dalla società PwC e ripreso anche dal servizio studi del Parlamento europeo, il progresso tecnologico nel campo dell’AI e la sua successiva adozione su larga scala potrebbe generare una crescita aggiuntiva di quasi 16 triliardi di dollari nel corso di questo decennio, equivalenti a un’accelerazione del 14% del PIL globale al 2030 rispetto allo scenario base, non è scontato che questi benefici potenziali si materializzino.
Una prima causa del problema si identifica nella difficoltà di penetrazione effettiva di queste tecnologie all’interno delle imprese, nonostante la loro disponibilità sul mercato. In altre parole, l’uso pervasivo delle Ict, contrariamente alle attese iniziali, ha caratterizzato solo una parte (minoritaria) delle imprese globali che ne hanno tratto enormi benefici in termini di maggiore performance, mentre la maggioranza delle stesse, da cui dipende il dato aggregato della dinamica della produttività, è rimasta arretrata digitalmente[3]. Ciò è anzitutto riconducibile a quella che, nella letteratura economica, viene definita la mancanza di “capacità di assorbimento” delle tecnologie, ovverosia l’assenza di adeguate conoscenze complementari – sia di natura tecnica, sia manageriale – rispetto alle innovazioni tecnologiche incorporate nei macchinari o codificate nei software che risultano necessarie affinché i benefici potenziali derivanti dall’adozione delle tecnologie all’interno delle organizzazioni si traducano in benefici reali. In secondo luogo, la questione è strettamente connessa al disallineamento tra i benefici privati percepiti dalle imprese che investono in innovazione tecnologica e i benefici che ne derivano per la collettività.
Un secondo ostacolo al raggiungimento delle aspettative di crescita economica viene individuato in quella situazione denominata “del vincitore prende tutto”, ossia nella quale l’impresa che è riuscita ad affermarsi per prima con una tecnologia (o più spesso con una applicazione tecnologica) superiore rispetto ai concorrenti finisce per diventare il dominus del mercato, definendo le regole di funzionamento dello stesso e la sua evoluzione nel tempo[4].
Infine, occorre altresì considerare come il processo di distruzione creativa che scaturisce dalla diffusione su larga scala delle innovazioni tecnologiche, e in particolare di quelle legate all’automazione dei processi produttivi, non riguardi solo le imprese ma incida direttamente anche sul lavoro, e il suo contributo al processo di generazione del valore all’interno dell’economia.
Il rischio per il futuro di una crescita economica al di sotto del potenziale appare duplice. In primo luogo, se il processo di diffusione delle tecnologie di AI dovesse spiazzare in un breve lasso di tempo un numero elevato di lavoratori, ciò determinerebbe alti costi di riconversione delle mansioni precedentemente svolte ai nuovi fabbisogni produttivi, in ragione di una caduta dell’occupabilità della forza lavoro. Il secondo fattore di rischio per la crescita potrebbe provenire da una carenza della domanda di consumi, capace a sua volta di stimolare un aumento degli investimenti che dia il via a un processo endogeno di sviluppo.
In definitiva, affinché il processo di distruzione creatrice di posti di lavoro derivante dalla diffusione dei sistemi di automazione intelligente sia in grado di avviare questo processo virtuoso di crescita è opportuno che gli aumenti di produttività – su base aziendale o territoriale – si traducano in aumenti dei salari, e che a loro volta i maggiori salari si riflettano in maggiori consumi, stimolando così aumenti significativi della produzione (e degli investimenti) necessari a soddisfarli.
I profili tecnologici
Il capitolo dedicato agli aspetti di carattere tecnologico dell’AI – a firma di Giuseppe Italiano ed Enrico Prati – dopo aver chiarito cosa non rientra nella definizione di questa nuova scienza e averne ripercorso la storia, offre una accurata illustrazione del machine learning (apprendimento delle macchine), la quale costituisce un passaggio preliminare ineludibile per approcciarsi correttamente allo studio della materia.
Esso corrisponde all’AI declinata a scopi di carattere circoscritto e, nelle sue declinazioni, è l’oggetto della quasi totalità delle applicazioni esistenti ad oggi.
L’intelligenza artificiale sarà indipendente dall’uomo: quali sfide normative
Gli elementi costitutivi di un sistema di AI e del suo apprendimento
Gli elementi costitutivi di un sistema di AI e del suo apprendimento sono in primo luogo un insieme di dati, da impiegarsi per l’addestramento, che possono essere in numero finito e già classificati, oppure ancora in numero finito, senza però che essi siano stati ripartiti in accordo a una qualche classificazione. Infine, i dati usati per l’addestramento possono essere costituiti da un flusso costante in ingresso che deriva da un ambiente che muta nel tempo e che potrebbe anche essere illimitato.
Il secondo costituente di un sistema di AI è una memoria che immagazzina ciò che di saliente si trova nei dati. I dati sono immessi nella memoria secondo quanto stabilito dal terzo elemento nell’ordine di questo elenco, cioè un sistema di codifica dell’informazione.
Il quarto elemento è il programma che implementa un algoritmo, il cui scopo è di sintetizzare i dati in ingresso estraendo solo ciò che conta e di aggiornare la memoria. L’algoritmo è in genere progettato da esseri umani e risponde alle esigenze di un obiettivo preciso che si intende conseguire, facendolo nel modo migliore possibile. Un algoritmo è di sua natura teleologico, nel senso che prevede necessariamente che qualcuno a monte ne abbia stabilito un fine.
Il machine learning si può specificare principalmente in base a come sono codificati i dati forniti durante l’apprendimento (il terzo elemento) e in base al metodo di apprendimento che impiega l’algoritmo (il quarto elemento).
Il sistema di AI fin qui descritto potrebbe essere considerato completo, senza la necessità di ulteriori fasi. Tuttavia, in certi casi si presuppone che una volta giunti al termine di un addestramento soddisfacente, questo sistema sia anche messo in azione e applicato. In realtà il fatto che la determinazione dell’AI sia anche attuata è un passaggio successivo, che può essere all’occorrenza reso automatico, se il suo costruttore non la integra intenzionalmente di una componente che potremmo chiamare esecutiva. In altre parole, si rende necessario l’esercizio di una volontà precisa da parte del costruttore del sistema affinché la risultanza del calcolo ottenuto da un algoritmo di AI diventi anche esecutivo e abbia implicazioni nel mondo reale.
Mentre la codifica interviene come terzo costituente di un sistema di AI, il metodo di apprendimento riguarda la parte algoritmica, che rappresenta il quarto costituente. Sono conosciuti tre metodi di apprendimento, a prescindere da come si effettua la codifica dell’informazione: da un lato, il metodo di apprendimento supervisionato e non supervisionato che sono impiegati in genere rispettivamente per la classificazione e per il clustering o raggruppamento di dati, la profilazione e la ricostruzione di dati; dall’altro, l’apprendimento per rinforzo, che serve per identificare mosse e strategie relativamente a un ambiente di cui non esiste un modello noto, risolvendo quindi problemi di anticipazione e ottimizzazione.
Le principali sfide poste dai nuovi algoritmi
Quali dunque le principali sfide poste da questi nuovi algoritmi?
Un primo aspetto riguarda il loro deficit di trasparenza poiché, specie se utilizzano tecniche di deep learning, gli algoritmi sono difficilmente scrutinabili. Inoltre, essi costruiscono i loro modelli su grandi quantità di dati del passato, circostanza questa che può rafforzare bias e discriminazioni, oltre che porre problemi di privacy alla luce della mole di dati processati.
Emergono poi gli aspetti etici degli algoritmi, poiché man mano che questi assumono decisioni importanti, diviene cruciale poter spiegare agli utenti perché è stata presa una certa decisione, e ciò si scontra con la descritta, intrinseca opacità di questi tools.
Tutti i problemi evidenziati, insomma, sono molto complicati e, alla luce del loro carattere interdisciplinare, esigono sempre più una stretta collaborazione tra esperti provenienti da settori eterogenei, che devono confrontarsi e lavorare insieme per poter cogliere i benefici dell’AI minimizzandone i rischi.
I profili giuridico-penalistici
L’analisi delle implicazioni tra AI e sistema penale rappresenta un tema di primario rilievo nel dibattito scientifico contemporaneo, che pone l’interprete di fronte a una molteplicità di interrogativi di difficile soluzione.
Tre sono, a mio parere, i principali ambiti di interferenza tra le applicazioni di questa scienza e il diritto penale che necessitano di una attenta analisi da parte del giurista – prima ancora che del legislatore – alla ricerca di un bilanciamento tra le opportunità di progresso dell’AI e il suo corretto utilizzo.
Intelligenza artificiale per la Giustizia, ecco i peggiori rischi da evitare
L’AI come strumento di prevenzione della criminalità: vantaggi e rischi
Il primo riguarda l’uso dell’AI come strumento di prevenzione della criminalità e nasce dallo sviluppo di innovativi software che, grazie allo sfruttamento del patrimonio informativo offerto dai big data, sono in grado di fornire con estrema velocità ed elevati livelli di affidabilità degli output che, a seconda del contesto e delle finalità per cui sono impiegati, sono utili per le attività di valutazione e gestione del rischio-reato nei contesti aziendali ovvero, nel versante pubblico, per le attività di law enforcement.
Con riferimento al settore privato, sono stati implementati dei tool che, processando migliaia di dati interni ed esterni all’azienda, riescono a individuare red flag di potenziali vicende illecite[5]; tuttavia, data la versatilità dei software, l’ente potrebbe avvalersene per identificare le aree maggiormente a rischio-reato in un’ottica ex post di aggiornamento del modello adottato oppure potrebbe inserire tali strumenti all’interno delle procedure di risk detecting in esso contenute, utilizzando l’algoritmo per rilevare eventuali condotte illecite ex ante.
Non possiamo però ignorare alcuni dei principali aspetti problematici che si celano dietro l’impiego di questi tool.
Innanzi tutto, l’affidamento agli algoritmi della rilevazione di condotte illecite potrebbe porre problemi di compatibilità con il criterio di imputazione soggettiva dell’illecito all’ente – la colpa di organizzazione – che, ogniqualvolta la commissione del reato presupposto dipenda dalla omessa o erronea segnalazione da parte del software, finirebbe per trasformarsi in una sorta di culpa in eligendo della società, per essersi dotata di un tool inadeguato ovvero per aver delegato a esso la compliance. Qui difetterebbero invero quelle carenze organizzative che fondano il rimprovero dell’ente, in quanto questi si limiterebbe a adottare un software prodotto da altri.
Per altro verso, affiorano criticità rispetto alla disciplina in tema di controllo dei lavoratori nonché al loro diritto alla privacy, che potrebbe essere seriamente compromesso per effetto dell’attività di sorveglianza generalizzata che l’analisi algoritmica di ingenti quantità di dati aziendali comporterebbe. La questione sembra tuttavia ridimensionarsi in settori – come quello dell’environmental criminal compliance[6] – in cui i dati oggetto di analisi algoritmica abbiano carattere prettamente oggettivo.
I software di predictive policing
Altrettante problematiche si pongono relativamente ai software di predictive policing[7] – non più confinati all’esperienza statunitense – che, grazie all’incrocio di diversi data storage, coadiuvano gli agenti di polizia nella formulazione di previsioni circa l’individuazione di luoghi sospetti o l’elaborazione di profili criminali individuali di persone a rischio.
Anche in questo settore, oltre a criticità intrinseche al funzionamento del software, viene in rilievo la possibile lesione di alcuni diritti fondamentali dell’individuo, tra cui spicca la privacy. Emergono inoltre le potenzialità discriminatorie tipiche degli algoritmi laddove gli indici di pericolosità siano viziati da bias riguardanti, ad esempio, l’etnia del soggetto o l’ambiente sociale da cui esso proviene, ritenuto “a rischio”. E sul punto le chances per gettare luce sul loro funzionamento sono assai limitate, poiché i software, oltre a rappresentare spesso delle black boxes per gli stessi programmatori, appartengono ad aziende private che si trincerano dietro al segreto industriale. Permane poi alla base degli algoritmi un problema di accountability, potendo accadere che questi, a causa di un difetto di funzionamento, elaborino una previsione di rischio errata. Occorre infine chiedersi se, ed eventualmente, a quali condizioni le risultanze dei software in questione possano essere utilizzate nel procedimento penale.
È su questi aspetti che deve oggi focalizzarsi l’attenzione dell’interprete, atteso che mancano sui diversi aspetti indicazioni normative.
L’AI nel processo penale
Il secondo ambito di indagine si inserisce nel terreno del processo penale e ha ad oggetto l’affidamento agli algoritmi di valutazioni prognostiche, tradizionalmente rimesse al giudice, sul tasso di pericolosità o sullo specifico rischio di recidiva di un individuo.
Sul punto, l’esperienza statunitense con il leading case Loomis ci disvela le complesse questioni connesse all’impiego di algorithmic tool[8].
Persiste anzitutto la potenzialità discriminatoria degli algoritmi, essendo emerso come sovente essi attribuiscano a determinate classi di soggetti un tasso di rischio di recidiva maggiore; ciò peraltro potrebbe riflettersi sull’affidabilità del software. Per altri versi, da più parti si evidenzia come il ricorso in questo campo all’AI possa tradursi in una sorta di perizia criminologica sull’imputato, a dispetto del divieto posto dal nostro codice di rito.
Credo però che il vero punto critico sia rappresentato dall’indecifrabilità del percorso compiuto dall’algoritmo e del peso assegnato a ciascuna variabile, poiché tale opacità rischia di compromettere il rispetto dei canoni del giusto processo, e in primo luogo il principio del contraddittorio nella formazione della prova, dal momento che il condannato non può conoscere gli elementi su cui si fonda la decisione del giudice.
In definitiva, mi pare che molti siano i nodi da sciogliere anche rispetto al ricorso ad algoritmi nella fase di determinazione della pena. Oltre alle importanti indicazioni che proverranno dalla futura regolamentazione sovranazionale, un tassello fondamentale verso tale lungo e impervio percorso è, a mio avviso, rappresentato dalla Carta etica per l’uso dell’intelligenza artificiale della CEPEJ, con i principi ivi contenuti, tra cui spicca quello del controllo dell’utente.
Proprio quest’ultimo principio deve indurci a rigettare un approccio prescrittivo dell’uso dell’AI, dovendosi, di contro, scongiurare l’eventualità che il giudice, avvalendosi di algoritmi predittivi, finisca per “decidere senza giudicare”. Questi nuovi strumenti, in altre parole, devono accrescere l’autonomia decisionale dell’utente e mai ridurla o comprometterla.
Il meccanismo di imputazione della responsabilità penale
Il terzo terreno di intersezione tra AI e diritto penale concerne il meccanismo di imputazione della responsabilità penale allorquando un reato sia commesso da un agente intelligente al di fuori della sfera di signoria dell’uomo.
La questione si è posta a seguito dello sviluppo delle più avanzate tecniche di apprendimento che hanno dato vita a nuovi agenti, capaci di imparare sulla base della propria esperienza e di adottare decisioni autonome e svincolate dal controllo dei loro programmatori. Difatti, a differenza delle macchine di vecchia generazione rispetto alle quali, in quanto sprovviste di autonomia, poteva ricorrersi al modello della responsabilità indiretta o vicaria, i nuovi agenti richiedono l’individuazione di un diverso modello di responsabilità, poiché alla fase di programmazione iniziale si aggiunge una componente di totale imprevedibilità, dovuta alla capacità di autoapprendimento dei software e all’impossibilità di ricostruire ex post l’iter logico compiuto dall’algoritmo.
La strada da percorrere
Scartata l’idea di imputare la responsabilità direttamente alla macchina sulla scorta di un parallelismo con la corporate criminal liability[9], certamente non possiamo ripiegare su un generale divieto d’uso dei sistemi di AI, poiché un simile approccio precauzionale determinerebbe la perdita di straordinarie chances di sviluppo anche sul piano economico e industriale. Ritengo piuttosto preferibile l’idea di delineare, all’esito di un’attenta operazione di bilanciamento tra i benefici e i pericoli connessi all’impiego delle diverse forme di AI, un’area di rischio consentito o tollerabile, al di fuori della quale eventuali deviazioni da parte del software dalle funzioni programmate saranno addebitabili al produttore a titolo di colpa cosciente o, nei casi più gravi, di dolo eventuale.
Si tratta indubbiamente di una operazione complessa, dal momento che il fenomeno in esame si intreccia con questioni di carattere etico, sociale, politico nonché con indifferibili esigenze di sviluppo economico. Sarà dunque compito del giurista indicare ai policy maker la via che assicuri un punto di equilibro tra diritto e tecnologia, per garantire l’innovazione e lo sviluppo senza mettere da parte in alcun modo il nucleo centrale del nostro sistema giuridico, costituito da principi e garanzie non negoziabili.
I profili normativi
A completamento dello studio sui molteplici risvolti dell’AI si colloca la ricognizione, condotta da Antonio Malaschini, del quadro normativo che nel corso del tempo è andato delineandosi in materia, con particolare riguardo agli sforzi compiuti da parte di Cina, Stati Uniti, Unione europea, Regno Unito, Russia, Consiglio d’Europa e Italia.
In tutti i contesti considerati si riscontra l’assenza di una normativa che disciplini in maniera ragionevolmente compiuta e organica l’AI. Il vuoto è spesso sopperito dal riferimento ad altre norme, come quelle sulla cybersecurity, sulla commercializzazione e sull’uso dei prodotti informatici; dall’ampliamento, anche in via interpretativa, della disciplina a tutela dei diritti personali o sociali; dalla previsione di standard di produzione e utilizzazione già pensati per altri beni; dalla istituzione di organismi che hanno prodotto una ragguardevole dose di relazioni e documenti. Ciò probabilmente è dovuto al fatto che l’AI è un fenomeno talmente innovativo e in rapida evoluzione da essere addirittura difficile da inquadrare in una definizione condivisa, così come non è agevole cogliere tutte le sue “drammatiche” potenzialità.
Forse solo il mondo militare comprende oggi la posta in gioco. Non è un caso se Cina, Stati Uniti e Russia hanno messo in primo piano la rilevanza strategica a livello globale di questo nuovo “mezzo”.
Questi Paesi considerano i rischi che le nuove tecnologie pongono per i diritti e le libertà della persona, tuttavia in modo recessivo rispetto alle esigenze di sviluppo della ricerca e dell’uso di uno strumento “duale”, civile e militare, ai fini del raggiungimento della supremazia globale.
Parzialmente diversa è la situazione dell’Unione europea ove, sin dalle prime Raccomandazioni del 2017 rivolte dal Parlamento alla Commissione, l’attenzione si è focalizzata sulle questioni etiche relative alla tutela dei diritti dell’individuo dai rischi derivanti da profiling, social scoring e da raccolte di dati influenzate dai bias degli algoritmi e dalle valutazioni predittive; sui pericoli per la democrazia derivanti dalla diffusione di fake news o dalla vera e propria manipolazione di elenchi o risultati elettorali; sulle conseguenze e i rischi del mancato controllo umano; sui problemi di trasparenza, accountability, risarcitori e di difesa della proprietà intellettuale nelle attività di natura diversa svolte dalle macchine.
Intelligenza artificiale: il faro Ue su tutela delle vulnerabilità e principi antidiscriminazione
Questioni che vanno senz’alcun dubbio affrontate e risolte, proprio per favorire la credibilità e la fiducia dei cittadini nei sistemi di AI. Questioni che si scontrano però sia con la necessità di assicurare lo sviluppo della ricerca scientifica e delle sue applicazioni, sia con quelle derivanti da un quadro strategico globale che vede oggi Stati Uniti e Cina ingaggiare un confronto in cui la primazia nell’AI assume un ruolo determinante.
Queste, e altre ragioni, portano l’Autore a una conclusione: appare necessaria la creazione di un tavolo internazionale in cui le preoccupazioni etiche e sociali, quelle della ricerca e quelle produttive possano confrontarsi, in vista dell’adozione di una normativa comune sulla linea di quella prospettata dalla Commissione europea, che ponga al proprio centro le esigenze dell’uomo, con un ruolo di indirizzo e di controllo saldamente in mano ai governi.
Per quanto riguarda invece gli usi militari il rischio è, senza ipotesi di intesa, di ritrovarsi oggi nella stessa situazione del confronto sulle armi nucleari di mezzo secolo fa: pochi Paesi controlleranno a fini bellici questa tecnologia sempre più complessa, invasiva e pericolosa; altri Stati o organizzazioni “canaglia” cercheranno di impadronirsene; il resto del mondo vivrà nella paura e nel ricatto. Un esito certamente non auspicabile.
Note
- Benanti-Maffettone, Sostenibilità D. Le conseguenze della rivoluzione digitale nelle nostre vite, in Il Mulino, 2/2021, 192 ss. ↑
- PricewaterhouseCoopers, The Macroeconomic Impacts of Artificial Intelligence, 2018. ↑
- Andrews-Criscuolo-Gal, The Best versus the Rest: The Global Productivity Slowdown, Divergence across Firms and the Role of Public Policy, Oecd Productivity Working Papers n. 5, 2016. ↑
- Aghion-Cherif-Hasanov, Competition, innovation, and inclusive growth, Imf Working Paper n. 80, 2021. ↑
- Birritteri, Big Data Analytics e compliance anticorruzione. Profili problematici delle attuali prassi applicative e scenari futuri, in Dir. pen. cont. – Riv. trim., 2/2019, 290 ss. ↑
- Sabia, Artificial Intelligence and Environmental Criminal Compliance, in Revue Internationale de Droit Pénal, 2020, 179 ss. ↑
- Ferguson, Policing Predictive Policing, in Wash. Law Rev., 2017, 1109 ss. ↑
- Severino, Intelligenza artificiale e diritto penale, in Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020, 543 ss. ↑
- Tesi sostenuta da Hallevy, Liability for Crimes Involving Artificial Intelligence Systems, Dordrecth, 2015, 47 ss. ↑