Perché il diritto è stato occupato quasi in tutti i suoi settori dall’intelligenza artificiale (IA)? In che misura il giurista deve ripensare le sue categorie, i suoi attrezzi, la sua stessa formazione? Quali sono le novità e i cambi di passo che l’IA impone al diritto? Proverò qui a sviluppare un ragionamento a partire da queste domande. Ovviamente limitando la mia riflessione ad alcuni degli aspetti di maggior interesse e problematicità.
Responsabilità civile dell’intelligenza artificiale: i paletti del nuovo Regolamento Ue
Ma cos’è l’intelligenza artificiale?
Innanzitutto, non è facile stabilire cosa è IA.
Le forme dell’IA si sviluppano in chiave evolutiva, al punto che molti studiosi parlano di ‘generazioni’ dell’IA, esattamente come noi giuristi spesso parliamo di ‘generazioni’ dei diritti (R. Cucchiara, 2020).
Ma sono, già ora, plurali, diversificate, possono lavorare in uno spazio fisico, avere un ‘corpo’, un contenitore variamente antropomorfo; oppure muoversi in uno spazio virtuale, manifestarsi attraverso processi computazionali e algoritmici che -partendo da dati- producono altri dati, predizioni, previsioni, conseguenze e interferenze sulla vita delle persone, su interessi di varia natura.
È possibile pensare a pezzi di IA anche dentro di noi (interfacce neurali, Brain computer interfaces), per superare gravissime disabilità motorie o comunicative, ovvero come risorse di potenziamento cognitivo o fisico-biologico; e i dilemmi non sono meno urgenti e difficili di quelli che riguardano l’enhancement genetico e neurobiologico (D’Aloia, 2021). Si ipotizzano altresì meccanismi di mind reading o mind uploading capaci di estrarre informazioni dal cervello umano e di replicarle in un computer.
In fondo, già solo parlare di intelligenza artificiale, usare quell’aggettivo per contrassegnare l’espressione forse più autentica dell’umano, crea una sensazione immediata di superamento del confine della rilevanza per l’etica e per il diritto.
Il lemma IA sembra quasi delineare un ossimoro per Luciano Floridi, che parla provocatoriamente di “agency without intelligence”. Anche Rita Cucchiara (2020, 57, 223) afferma che l’Intelligenza non è artificiale, ma “è quella degli uomini che l’hanno creata e continueranno a crearla a volte ispirandosi alla nostra intelligenza, a volte trascendendola, verso orizzonti nuovi”.
Ma dà subito il senso della posta in gioco, del superamento di un limes tra l’uomo e i suoi strumenti (M. Revelli, 2020, 99). Gli sviluppi dell’IA appaiono in grado di disegnare una realtà parallela (il mondo c.d. ‘automato’, o il mondo ‘dato’, nelle versioni di Floridi e di Accoto), che poi si riversa sulla realtà fisica, sociale, la trasforma, interagisce con essa, si sovrappone. L’IA produce una dimensione ontologica, non semplicemente tecnologica (C. Accoto, 2017, 6-7).
Di IA si parla da oltre 60 anni, dal famoso convegno di Dartmouth del 1956, e dall’articolo di Alan Turing del 1950. Ma in realtà, l’idea di macchine che pensano e che possono replicare l’attività razionale e intellettiva degli esseri umani è molto più risalente, come dimostra il bellissimo libro di Hofstadter su “Godel Escher Bach. Un’eterna ghirlanda brillante”.
Negli ultimi anni lo scenario è stato rivoluzionato dall’evoluzione del machine learning (e delle sue varianti come il deep learning e le reti neurali, che puntano ad imitare l’architettura fisica del cervello umano), che ci pone di fronte ad un contesto in cui la tradizionale (per quanto progressivamente sofisticata) programmazione della macchina viene sostituita dalla sua ‘educazione’ ad imparare da sola, e a trarre da ciò che impara, in modo sempre più autonomo, conseguenze in termini di scelte, azioni, operazioni.
Comincia ad essere una risposta all’interrogativo con cui Turing apriva il suo articolo del 1950, “Computing Machinery and Intelligence”: le macchine possono pensare? Il punto poi è capire se pensano allo stesso modo. Secondo John Searle, le macchine “non pensano, fanno cose, senza avere la percezione delle conseguenze di quello che fanno…perchè non hanno connessioni con il mondo esterno, rimangono una struttura inesatta”.
Rovesciando la prospettiva, è stato messo in luce che l’intelligenza umana non è solo logica matematica ma coscienza (Y. Harari, 378): e nella coscienza (con tutte le difficoltà e le incertezze nel definire cosa si voglia davvero intendere con questo termine e se esista un solo modo di declinare la ‘coscienza’), giocano un ruolo fondamentale i sentimenti, le emozioni, i nostri corpi in movimento (la cd. “situadness” di cui parla S. Hustvedt).
Ma forse questa non è che la proiezione della nostra pretesa ad esaminare tutto secondo le nostre categorie ‘antropocentriche’, che potrebbero però essere o rivelarsi insufficienti, o incoerenti rispetto a questa ‘nuova’ realtà (secondo U. Ruffolo, 2020, 232, siamo di fronte all’ “emersione di un’intelligenza nuova aliena“); senza contare che anche ciò che succede nelle nostre teste resta tuttora un mistero.
Possiamo insistere allora sul fatto che i sistemi di IA sono cose, ma contemporaneamente non possiamo sfuggire alla sensazione di una certa insufficienza della risposta.
Intelligenza artificiale e diritto
Da questa premessa emerge come il compito che attende il diritto di fronte agli scenari inediti (talvolta finanche “impensabili”) delineati dallo sviluppo delle tecniche e dei sistemi di AI, appare effettivamente e radicalmente “trasformativo”. Il diritto è investito in pieno da questo nuovo ‘mondo’, che si pone come ‘risorsa’ e come ‘problema’.
Cosa può fare il diritto sull’IA? Al tempo stesso, quali riflessi possono provenire dall’IA? Quali adattamenti e quanto profondi delle sue categorie?
Certamente, nel rapporto tra AI e diritto quello del diritto non è uno sguardo neutro, o utile ad ogni scopo: ci sono principi, consolidazioni, esperienze, a cominciare da quelli che si riannodano al linguaggio costituzionale, e ai suoi contenuti fondamentali.
Il tema è globale e non può che essere affrontato in una dimensione che superi i confini del diritto statale (ma anche di un diritto di dimensioni sovranazionali ma limitate come può essere quello europeo).
Forse, la prima sfida per il diritto (e per il diritto costituzionale in particolare) è proprio questa, ed è il tratto dominante di quasi tutte le nuove emergenti issues del nostro tempo, come ad esempio le implicazioni del climate change, i dilemmi della genetica.
L’elaborazione normativa in tema di IA è cresciuta rapidamente e tumultuosamente. Guardiamo al nostro orizzonte, che è quello nazionale ed europeo.
Dopo la Risoluzione del febbraio 2017, che ha inaugurato la “via europea all’IA”, ci sono stati molti documenti o interventi. Tra gli ultimi, si può citare “Getting the future right. Artificial Intelligence and fundamental rights”, pubblicato dalla European Union Agency for Fundamental Rights nel dicembre 2020.
Finora si è trattato essenzialmente di soft law che si combina con strumenti di self regulation (a parte ovviamente le disposizioni vincolanti del GDPR). Una modalità di intervento a geometria variabile (G. Resta, 2019, 199 ss.), inevitabile quando ci si pone di fronte a tecnologie ‘emergenti’.
L’impronta complessiva di questi documenti va nel senso di ‘adattare’ i principi consolidati del costituzionalismo alle applicazioni di AI: l’obiettivo è quello di configurare un’AI «human-centric» and «trustworthy», appunto perché connotata da un “ethical purpose”, e da un obbligo di conformità ai valori fondamentali della convivenza civile (rispetto della dignità umana e dei diritti, eguaglianza e non discriminazione (come ‘fairness’, nel duplice significato di difesa e prevenzione “from unfair bias”, e di eguale opportunità di accesso a queste possibilità tecnologiche, alle risorse del mondo digitale, ricostruibili come ‘beni comuni’ o come oggetto di un vero e proprio diritto sociale [T.E. Frosini, 2020, 470]), non interferenza rispetto ai processi democratici, sicurezza, rispetto per la privacy), e al benessere delle persone.
La dignità umana viene tradotta, in un significato relazionale, come diritto delle persone umane di sapere se e quando stanno interagendo con una macchina o con un altro essere umano, e di decidere se, come e quando attribuire determinati compiti ad un sistema artificiale autonomo o ad una persona. L’autonomia delle persone a contatto con AI agents o systems deve comportare altresì che i meccanismi di funzionamento di questi sistemi siano trasparenti e prevedibili, meglio ancora “esplicabili”.
Il bene primario dell’integrità e della sicurezza personale assume una connotazione “emozionale”, mentale, legata all’interazione uomo-macchina, e agli effetti che le diverse modalità che questa interazione può assumere possono riflettersi sull’atteggiamento delle persone, sul modo di considerare i sistemi agenti in particolare quando adottano ‘fisicità’ antropomorfe, sulle influenze distorsive che si possono produrre anche sul piano emotivo, soprattutto per le persone che si trovano in una condizione di debolezza e di vulnerabilità.
Infine, rispetto agli sviluppi dell’IA viene richiamata (sempre nello Statement del Gruppo di esperti della Commissione Europea) un’esigenza di sostenibilità (Simoncini preferisce il concetto più hard di precauzione costituzionale), di mantenimento nel tempo (e di garanzia per generazioni future) delle condizioni di base della vita umana e della natura: un’ulteriore conferma, se ce ne fosse bisogno, della preoccupazione che accompagna l’evoluzione di questa tecnologia, pur nella convinzione delle tante opportunità positive che da essa possono derivare.
Comincia a delinearsi uno ‘scatto in avanti’ con la proposta di un Regolamento quadro “on european approach for artificial intelligence”, presentata 2 mesi fa dalla Commissione. È un documento complesso, che prova a tradurre in ipotesi di norme alcune delle preoccupazioni principali legate allo sviluppo e all’utilizzazione dei sistemi di IA.
Alcuni contenuti di questa proposta sono innovativi. Per arrivare al Regolamento il processo è ancora lungo, ma è importante cominciare a discutere alcuni temi e orientamenti.
La Proposta sa di muoversi su un terreno ‘ambiguo’. Le regole devono esserci; nondimeno, devono essere proporzionate, non eccessivamente limitative o restrittive rispetto alle esigenze dello sviluppo tecnologico, anche perchè “it is not possible to anticipate all possible uses or applications thereof that may happen in the future”.
Una scelta forte è quella di vietare practices e sistemi di IA, come ad esempio:
- gli AI systems progettati o usati per finalità di manipolazione del comportamento umano, delle opinioni e delle scelte delle persone che possono andare a danno delle medesime;
- gli AI systems che possono sfruttare informazioni o dati statistico-predittivi su persone o gruppi di persone al fine di prendere di mira (target) le loro vulnerabilità o speciali circostanze personali portando questi soggetti a comportarsi in modo deteriore per i loro interessi;
- gli AI systems usati per attività di sorveglianza indiscriminata;
- gli AI systems usati per scopi di social scoring delle persone e dei cittadini.
Si tratta di regole importanti, che tuttavia possono essere derogate quando tali usi dell’IA sono autorizzati in base alla legge per finalità di sicurezza pubblica o per proteggere i diritti e le libertà di terzi soggetti.
Tra i sistemi ammessi, alcuni sono classificati come High risk AI systems (ad esempio quelli usati per l’accesso alla formazione scolastica, nelle procedure di reclutamento, promozione o cessazione del rapporto di lavoro, per la valutazione del merito creditizio dei soggetti, nella crime prediction o nella sorveglianza del territorio), e sono sottoposti a limitazioni più o meno rigorose. Tra queste, il principio dello human oversight.
Infine, viene opportunamente affermata un’esigenza di alta qualità in chiave antidiscriminatoria dei data-sets utilizzati per il training degli HRAIS.
La proposta esclude espressamente dalla sua sfera di applicazione gli AI systems usati esclusivamente per operazioni di guerra o per altri scopi militari. E la cosa oggettivamente sorprende, se solo si considera che l’ambito militare è un settore dove i rischi di impatto negativo su diritti, libertà e altri beni fondamentali è sicuramente molto elevato.
IA e diritto, le questioni più urgenti
Siamo agli inizi di un percorso. La AI revolution ha bisogno di essere accompagnata da un pensiero ‘costituzionale’, deve produrre una risposta in termini di concettualizzazione di diritti e principi, allo stesso modo di come la rivoluzione industriale ha prodotto l’evoluzione welfarista degli Stati liberali nel XIX secolo e il costituzionalismo sociale del XX secolo.
Tutte le grandi issues del costituzionalismo e del diritto costituzionale sono toccate più o meno profondamente dagli sviluppi dell’IA. A volte si tratta di semplici aggiustamenti o approfondimenti di significato; altre volte invece l’impatto produce scenari inediti o almeno modificativi rispetto allo stato attuale dei problemi. Posso fare solo una rapida carrellata delle questioni più urgenti.
L’IA vive e si alimenta su un flusso inesauribile e gigantesco di dati
Finora, il problema dei dati personali è stato impostato sul duplice binario consenso/privacy.
Ora è chiaro che questi due termini restano pilatri ineliminabili, necessari. Il dubbio è se siano sufficienti a intercettare tutte le tensioni che provengono dalla società digitale.
A proposito del consenso, dovremmo chiederci quanti di noi leggono le lunghissime condizioni che ci vengono poste per continuare a navigare sui siti che consultiamo ogni giorno. Si accetta ‘a scatola chiusa’: Casonato lo chiama efficacemente “accordo consapevolmente disinformato”.
Quanto siamo liberi di scegliere cosa comprare, ma anche (e qui diventa un delicato problema di democrazia) cosa votare o come pensare? Qual è il confine tra ciò che chiediamo al software e ciò che ci viene indicato di chiedere?
Sul piano costituzionalistico in particolare, non può non attirare la nostra attenzione il rischio di microtargeting degli elettori, con il conseguente impoverimento del dibattito democratico, spinto verso quelle “filter bubbles” che possono avere un forte impatto sulla democrazia elettorale dove, a volte, poche centinaia di voti possono determinare, tanto per fare un esempio reale non molto lontano nel tempo, l’elezione del Presidente americano. Il caso Cambridge Analytica è lì a dirci che queste preoccupazioni sono qualcosa in più di una semplice fantasia.
Il pluralismo delle opinioni non scompare, ma tuttavia viene costretto in una dimensione reciprocamente chiusa, rigida, mentre il vero pluralismo ha bisogno di mobilità delle opinioni, di disponibilità ad ascoltare le ragioni degli altri, e a farsene eventualmente convincere.
Più che di libertà di manifestazione del pensiero, in discussione è la stessa libertà di pensiero. ‘Destiny’, e non solo ‘privacy’.
L’utilizzo dell’AI impatta in diverso modo su una molteplicità di profili legati al principio di eguaglianza
In primo luogo, non c’è dubbio che i sistemi di AI saranno uno dei grandi blocchi dello sviluppo economico mondiale in questo secolo. La sfida è (e sarà) quella di orientare (o almeno di ridurre i contrasti di) questa nuova imponente evoluzione tecnologica ed economica rispetto ai principi di tutela della dignità e della sicurezza umana, e dei diritti fondamentali. Una sorta di attualizzazione del messaggio contenuto nel secondo comma (e per certi versi anche nel terzo) del nostro art. 41 Cost., e più in generale in tutto il disegno costituzionale di società, fondato sulla centralità del lavoro, sulla dignità umana e sull’utilità sociale.
Non è solo questione di posti di lavoro che si perdono, e che in parte potranno essere compensati da nuove esigenze e da nuove opportunità occupazionali indotte proprio dall’evoluzione tecnologica nel senso dell’automazione. La sfida dell’AI richiede un aggiornamento complessivo dei modelli di istruzione e formazione professionale alla novità profonda del contesto digitale, e un ripensamento di alcune strutture portanti del welfare.
L’accesso alle risorse del mondo digitale può generare fratture ‘sociali’, ulteriori diseguaglianze. Come dice A. Baricco (The Game, Torino, 2018, 320), «… il Game è difficile. Magari divertente, ma troppo difficile. (…) Per sopravviverci bisogna avere skill non indifferenti che peraltro non vengono insegnate. (…) Non ci sono reti di protezione, né sistemi per recuperare chi è caduto. (…) Non lasceremo nessuno indietro non è una frase da Game».
Inoltre, in alcuni settori gli “AI systems” (o agents) possono perpetuare (anche indirettamente e involontariamente) modelli e schemi discriminatori, incidendo in modo più severo e penalizzante nei confronti di gruppi minoritari e marginalizzati.
Una serie di studi evidenzia come software di previsione dei reati o di calcolo del recidivismo possono basarsi su informazioni che finiscono con l’alimentare una sorta di circolo vizioso, per cui alla fine, ad essere criminalizzata, è la povertà. E tutto questo in un contesto di opacità e di imperscrutabilità in cui non è facile capire quali sono i meccanismi di funzionamento di questi strumenti, le informazioni sulla base delle quali vengono poi prese o suggerite determinate decisioni.
Applicazione di sistemi algoritmici alla giustizia
Uno dei capitoli più studiati nel rapporto tra IA e diritto è quello dell’applicazione di sistemi algoritmici alla giustizia. Considerazioni in parte analoghe possono essere fatte per la decisione amministrativa.
La utilità della decisione giudiziaria “robotica” o “algoritmica” viene declinata soprattutto nel senso della rapidità e della oggettività della decisione (non condizionata da fattori “soggettivi”, emozionali, di adeguatezza professionale delle parti e del giudice, finanche di pregiudizi legati al sesso o all’orientamento sessuale, alla razza, alla religione, alla nazionalità, ecc.).
La rapidità è sicuramente un aspetto importante del giusto processo. Il principio della ragionevole durata dei processi esprime da tempo una rilevanza pienamente costituzionale (art. 111 Cost., art. 6 CEDU).
Ma la giustizia non è solo questo. Sul piano dei principi costituzionali non è meno importante l’effettività e la pienezza del diritto alla difesa delle parti, la qualità della decisione giurisdizionale, la capacità del giudice di far emergere la irriducibile peculiarità dei fatti e di calibrare su di essi la decisione, in particolare (o almeno) quando davanti al giudice arrivano questioni scientifiche o rivendicazioni concrete inedite, non classificabili statisticamente, difficili da collocare in una dimensione standardizzata.
Su un punto appare opportuno insistere. La decisione algoritmica o predittiva è per definizione costruita sui precedenti, in un certo senso è “schiacciata” sul passato.
È vero che ormai così sembra diventata la giustizia. I precedenti sono un elemento importante, e spesso decisivo, anche nell’attuale forma ‘umana’ della giurisdizione. Dunque, quello che viene chiamato il bias di conferma non appartiene soltanto alla decisione artificiale.
Tuttavia, per la giustizia predittiva la spinta al conformismo sembra una condizione immodificabile, geneticamente legata ai modi della sua formazione. Il diritto ‘umano’ è invece aperto al dinamismo, alla ‘invenzione’ (nel senso di ‘scoperta’) di significati nuovi e mai in passato elaborati o concepiti, alla fiducia che un’opinione isolata, perché non ancora giunta a maturazione, possa diventarlo dopo qualche anno, di fronte a contesti culturali e sociali modificati.
Garapon e Lassègue, nel loro recente libro su “La giustizia digitale” (Bologna, 2021), sottolineano che l’amministrazione della giustizia è “un’impresa profondamente umana”: la tesi di questi due studiosi è che “la giustizia deve essere difesa come un’assunzione di rischi, … (una) scommessa sull’umanità che comporta una fallibilità […]”.
A questa stregua, sembra più ragionevole pensare che nell’esercizio della decisione giurisdizionale l’intelligenza umana possa essere utilmente assistita, ma non sostituita integralmente da quella artificiale. Le tecniche algoritmiche e di AI possono dare un contributo utile, ad esempio nella valutazione della sussistenza dei presupposti per l’adozione delle misure cautelari (e in particolare del cd. ‘periculum’), nelle valutazioni di risk assessment, nei procedimenti a basso (o inesistente) contenuto motivazionale, nel comporre e definire il complesso dei dati e dei parametri (di fatto e di diritto) che poi il Giudice è chiamato ad organizzare in un certo modo e a spiegare questa sua attività (appunto, con la motivazione), e più in generale in termini di rapidità e semplificazione dell’accesso alla giustizia.
Ma appunto, tale contributo non dovrebbe mettere in discussione il principio della non esclusività della decisione automatizzata che, prima ancora che nelle norme europee, è iscritto, nell’esigenza costituzionale intrinseca del giusto processo come “giudizio dei pari”.
Soprattutto su questo incrocio tra AI e giustizia, e in generale tra AI e decisione istituzionale relativa a persone, sono stati elaborati alcuni dei nuovi diritti per il mondo dell’IA.
Lo ha fatto soprattutto, da noi, la giurisprudenza amministrativa (v. Cons. Stato, n. 8475/2019), appunto riaffermando i principi della conoscibilità (nella doppia proiezione del diritto del privato a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino, e del diritto “a ricevere informazioni significative sulla logica utilizzata”), della non esclusività della decisione algoritmica, e della non discriminazione algoritmica.
Sono le prime prove di assestamento del diritto di fronte al ‘mondo nuovo’ dell’AI e delle sue potenzialità di impatto sui terreni più tradizionali dell’agire giuridico (il processo, il procedimento amministrativo).
L’IA come risorsa per il diritto
L’IA può essere anche una ‘risorsa’ per il diritto. Si parla di “Computational law” (J. Kaplan), o di “Artificially Intelligent Law” (L. Solum).
Non c’è dubbio che i sistemi di AI potrebbero costituire uno strumento valido per valutare (anche preventivamente) il livello di fattibilità delle leggi e degli atti normativi, migliorando così la qualità delle decisioni.
Guardando poi più avanti (ma nemmeno troppo) nel tempo, in alcuni settori le modalità di funzionamento dei sistemi di AI potrebbero configurarsi tout court come “norme autoapplicative”, incorporate direttamente nelle cose, capaci di prevenire i comportamenti contra legem, semplicemente evitando o bloccando preventivamente la loro commissione, o adattando i margini di azione al contesto, e quindi saltando la fase dell’accertamento e della sanzione dell’eventuale violazione della norma. J. Susskind, in Future Politics, fa l’esempio dei limiti di velocità per chi guida, che potrebbero essere implementati direttamente dal software della vettura, magari tenendo conto delle circostanze ambientali, persino degli eventuali precedenti “infortunistici” del conducente, e così via.
Il nodo della responsabilità
Un ultimo, affascinante, interrogativo etico e giuridico. Chi è responsabile per l’agency delle macchine o dei processi algoritmici? Cosa o chi sono questi AI systems o agents? Che tipo di scelte -evidentemente morali- possiamo far prendere a questi sistemi agenti, o possiamo prevedere che tali macchine o processi sempre più autonomi finiranno per prendere, in quelle situazioni eticamente complesse (pensiamo al classico dilemma filosofico che va sotto il nome di ‘trolley problem)?
Il MIT e altri laboratori nel mondo lavorano da tempo a questi profili della moral machine. Può sembrarci un discorso ancora lontano ma in realtà i tempi dello sviluppo tecnologico in questo settore si stanno accorciando incredibilmente.
È possibile e prima ancora è utile (nel senso che ha conseguenze operative), immaginare una personalità legale per questi “sistemi agenti”, man mano che acquisiranno e dimostreranno sempre maggiore autonomia nello svolgere le loro funzioni intellettive e operative, e nel prendere scelte che possono avere una dimensione morale?
Fino a che punto può spingersi la creatività del diritto, che invero, su questo terreno, ha già dato grandi prove di flessibilità adattiva, attraverso l’estensione del concetto di “legal personhood” a chi non è ancora persona (concepito, embrione, generazioni future), agli animali, alle cose dell’ambiente e della natura (come foreste, clima, natura globalmente intesa)? Sarà un giorno possibile ragionare di responsabilità delle macchine o attribuire ad esse diritti di proprietà o d’autore per le opere dell’ingegno e creative?
La sensazione è effettivamente che questo incedere incalzante di una “macchinalità” che simula le manifestazioni dell’umanità, come l’intelligenza, «tend to blur the line between person and instrument» (R. Calo, 107).
Vengono proposte nuove parole, che non sembrano un semplice adattamento del linguaggio al novum digitale: si parla di soggettività “elementale”, di “agentività”, come termine più adatto a considerare «entità che agiscono nel mondo, ma senza che abbiano di necessità le caratteristiche che, di norma, assegniamo all’azione intenzionale umana» (C. Accoto, 2017, 93 ss.), di “nuove attorialità”, cioè «dei soggetti sintetici e del loro peso relazionale, del modo cioè in cui essi modificano il contesto ambientale in cui l’uomo è calato» (G. Teubner, 2015.)
Alcuni autori insistono per una possibile analogia con il tema delle società e delle persone giuridiche, prefigurando un modello di registrazione dei sistemi agenti autonomi e di conferimento/ attribuzione di un patrimonio, di beni in proprietà (tra cui anche altri sistemi di AI), con i quali rispondere delle obbligazioni assunte o dei danni commessi (Chopra, White, 145 ss.).
Sono domande troppo complesse per rispondere in modo sintetico. Si rischierebbe di essere troppo assertivi e banali.
Quello che si può dire è che probabilmente il modo giuridico di considerare robots e sistemi di AI sarà inevitabilmente condizionato dalle molteplici interazioni che questi ‘artefatti’ tecnologici avranno con gli esseri umani in vari settori, alcuni dei quali con forti implicazioni relazionali ed emotive (pensiamo al campo della salute, dell’assistenza alle persone vulnerabili, come anziani e disabili, alla possibilità di sexbots).
Restano molti dubbi, molto forti, sulla praticabilità di questo esperimento di pensiero (D’Aloia, 2020, 24 ss.). In Francia, una Proposition de loi constitutionnelle del 15 gennaio 2020 (n. 2585) esclude espressamente che si possa riconoscere a un sistema di intelligenza artificiale la titolarità di diritti soggettivi.
Tuttavia, anche il solo parlarne trasmette il senso della profondità antropologica, del carattere fondamentale (nel senso etimologico del termine) del tema che stiamo trattando, della radicalità della sfida che l’IA lancia al mondo del diritto, e, prima ancora, all’idea stessa di umanità e di natura umana.
Nel suo ultimo libro, “Dominio e sottomissione”, Remo Bodei ci mostra un’altra faccia di questo tema: egli ci ha detto, quasi come un lascito, che “la questione da porre non è se si punta troppo sulle macchine, ma se invece si punta troppo poco sulle persone”. Insomma, il diritto dell’intelligenza artificiale potrebbe essere colto come un’occasione per riflettere sulle specificità dell’umano, non riproducibili da nessuna macchina, ovvero sul “ruolo e lo spazio che vorremo mantenere per noi stessi, per il nostro potere e i nostri diritti”.