l’analisi

IA, dalla guida automatizzata all’uomo bionico: i problemi etici e giuridici da non trascurare



Indirizzo copiato

Per prevenire i rischi dell’intelligenza artificiale, le innovazioni dovrebbero essere strutturate in modo da consentire a qualunque sistema, sia esso un arto robotico o un’auto a guida autonoma, di essere sempre ricondotto sotto il controllo umano, al fine di interromperne e gestirne il funzionamento piegandolo alla volontà dell’individuo

Pubblicato il 8 giu 2023

Bruno Fiammella

Avvocato Patrocinante in Cassazione



Prospettive dell'Occupazione Ocse 2023

Sappiamo che l’intelligenza (umana) è un insieme di facoltà che, mediante dei processi cognitivi, consentono all’individuo di comprendere ed interagire con la realtà che lo circonda, organizzare il proprio comportamento, nel campo delle idee e delle attività pratiche.

L’intelligenza umana è un modello imitabile dall’IA?

Non vi è unanimità della scienza sulla definizione, non esiste, del termine “intelligenza”, una definizione universalmente condivisa: per alcuni potrebbe essere descritta come la capacità di percepire o dedurre informazioni e di conservarle, come conoscenza da applicare di fronte a determinati contesti; altri la identificano come la capacità di affrontare determinate situazioni, e risolvere con successo dei problemi.[1] A rendere ancora meno certa la definizione, si aggiungono gli interessanti studi sulla “teoria delle intelligenze multiple” del Dott. Gardner, in forza dei quali saremmo dotati di differenti manifestazioni[2] d’intelligenza:

  • Linguistica: correlata alla capacità di utilizzare un vocabolario chiaro ed efficace;
  • Logico-Matematica: che riguarda il ragionamento deduttivo, la schematizzazione e la logica;
  • Spaziale: che ha ad oggetto la capacità di percepire forme ed oggetti nello spazio;
  • Corporeo-Cinestesica: che ci aiuta a coordinare i movimenti;
  • Musicale: connessa alla capacità di riconoscere i suoni e le costruzioni armoniche;
  • Intrapersonale: capacità di comprendere la propria individualità, di saperla inserire nel contesto sociale, da alcuni correlata alla forma di intelligenza detta emotiva;
  • Interpersonale: che riguarda la capacità di comprendere gli altri, le loro esigenze, le paure, i desideri nascosti, da alcuni connessa alla forma di intelligenza definita sociale;
  • Naturalistica: nel saper individuare determinati oggetti naturali, classificarli e cogliere le relazioni tra di essi;
  • Esistenziale o Teoretica: che si focalizza sulla capacità di riflettere sui temi correlati alla natura dell’universo e della coscienza.[3]

Queste forme d’intelligenza sono indipendenti le une dalle altre, e non sono sviluppate in egual misura da un individuo ad un altro.

Sorge allora spontanea la domanda: l’intelligenza artificiale basata sui sistemi di apprendimento di deep learning, sugli algoritmi di autoapprendimento e decisionali, è in grado di riprodurre tutte le forme dell’intelligenza umana, o solo alcune? Solo in caso di risposta positiva noi potremmo asserire che l’I.A. è costruita a misura d’uomo: se la risposta fosse, come sembra essere, parzialmente negativa, allora potremmo parlare di I.A. con riferimento solo ad una o ad alcune delle possibili forme d’intelligenza di cui l’individuo è dotato.

Il rapporto tra il creatore (human) e la creatura (A.I.)

Accettare questa limitazione nel rapporto tra creatore (l’uomo) e ciò che ha creato (la macchina) significa aprire una problematica forse irrisolvibile: esistono dei limiti all’evoluzione tecnologica della I.A. “insuperabili” per la sua intrinseca natura e differenza con l’uomo (una I.A. non potrà amare o odiare, o provare simpatia o antipatia, pietà o disprezzo etc.); non avendo una sua sfera emozionale nel suo calcolo razionale e logico, basato sull’interpretazione della realtà fattuale che la circonda, si comporterà (o si potrebbe comportare) in maniera differente rispetto all’uomo. Ed è questo il problema: “chi”[4] chiamiamo a sostituirci, non è detto che lo possa fare allo stesso modo (lo farà meglio sotto alcuni profili, ma non sotto tutti. Sarà utile per evitare lavori disumanizzanti o a rischio vita, ma potrebbe non essere in grado di compiere le giuste scelte valoriali ed emotive che sottendono il nostro modo di vivere e di essere ciò che siamo, ciò che ci contraddistingue, anche professionalmente, come esseri umani. È bene dirlo in maniera chiara, perché senza la consapevolezza dell’esistenza di questo limite, si pretenderà che ogni applicativo di I.A. funzioni come il cervello umano, ma in realtà, non lo potrà fare per una sua limitazione congenita. Le macchine avranno l’istinto di conservazione della specie (umana), e potranno provare emozioni o sentimenti? Potranno prendere decisioni esclusivamente basate su una parte del nostro emisfero cerebrale, quello istintivo, percettivo, intuitivo, emozionale?[5]

Stiamo quindi costruendo dei robot o della IA già in sé limitati che rischiano di inserirsi nella nostra quotidianità compromettendone o modificandone la vivibilità pratica, giuridica, sociale ed economica? In realtà non tutto ciò è vero, almeno se analizziamo il fatto che la direzione intrapresa dall’industria e dalla ricerca procede verso modelli di I.A. costruiti attraverso le neuroscienze, attraverso una ricerca di imitazione del comportamento dell’individuo (si pensi alle scienze neuronali applicate alla robotica) ed in ogni caso ai tentativi di imitare il funzionamento integrale del nostro apparato neuronale.

Verso l’uomo bionico

In questo rapporto uomo – macchina in continua e rapida (forse troppo) corsa, le problematiche dell’utilizzo della I.A. e della robotica si amplificano quando ci avviciniamo al settore medico – sanitario, con particolare attenzione a quello che la letteratura definiva “uomo bionico”, con risvolti etico giuridici di non poco conto. Ad esempio: nessuno ha da obiettare di fronte alla scelta/rischio cui si sottopongono alcuni individui quando, per poter riacquistare la capacità di camminare o di scrivere e guidare, subiscono un delicato intervengo chirurgico finalizzato ad innestare nel loro corpo un arto meccanico: è un rischio che la società è disposta ad accogliere, in relazione ad un evidente miglioramento delle condizioni di vita e di salute dell’individuo. Ma potremmo sostenere la stessa cosa se l’intervento fosse finalizzato solo ad aumentare le potenzialità dell’individuo (ad esempio un aumento delle sue capacità mnemoniche, uditive, visive, sensoriali etc.), ma non realmente “necessario” per la sua vita/salute? E quali problematiche giuridiche si aprirebbero in termini di responsabilità (ad esempio, chi risponde per un fatto apparentemente doloso (lesioni) compiuto dall’uomo attraverso il proprio braccio meccanico frutto però non dell’intenzione ma di un mero malfunzionamento tecnico dell’arto? E se l’individuo perdesse il parziale controllo dell’impianto a lui innestato, sarà da considerarsi una condotta animata da coscienza e volontà e correlata al principio di colpevolezza ex art. 27 Cost.? Sappiamo che la colpevolezza è a sua volta correlata, secondo Fiandaca – Musco, all’imputabilità; essa è definita come l’insieme dei requisiti necessari per l’imputazione soggettiva di un fatto ad un individuo, o soggetto agente.

Quale colpevolezza se il soggetto non ha compiuto l’atto seguendo una sua libera scelta ma a causa di un malfunzionamento dell’arto, nel caso in cui invece di una banale stratta di mano, si è cagionata una lesione? È possibile ricondurre un atto, che in altri contesti qualificheremmo come “doloso”, nell’alveo della colpa, in questo caso colpa di non avere adeguatamente “manutenuto” o programmato il braccio meccanico (il che porrebbe l’individuo in concorso di responsabilità con il produttore o con il “revisore”)? Futuristicamente immaginando, ragionando da avvocato, andrei preliminarmente a verificare il rapporto tecnico – informatico sul funzionamento dell’arto bionico per capire a chi possa essere realmente ascritto ed imputato il movimento incriminato e, soprattutto, mi porrei di problemi correlati alla potenziale falsificazione/alterazione del report scaturente dal dato informatico – tecnologico atto ad individuare la corretta genesi del movimento “compiuto”.

Nuovi terreni di scontro nelle aule giudiziarie del futuro e nelle mediazioni civilistiche, nuove prospettive di sviluppo per gli studi legali. Nuovi capitolati delle polizze assicurative, per chi innesta sul proprio corpo un impianto artificiale. Problematiche contrattuali derivanti non soltanto dal possibile rigetto – malfunzionamento e quindi del rapporto tra casa produttrice ed individuo/consumatore, ma anche nell’ottica di una responsabilità verso terzi, per danni correlati al possibile malfunzionamento.

Ed ancora: abbiamo il diritto di modificare il nostro corpo a nostro piacimento, oppure entriamo nel settore dei diritti indisponibili? Il “microchip” neuronale impiantato in testa che potenzia la memoria e che tratta dati ed informazioni, potrebbe essere, a sua volta, vittima di trattamenti profilanti tali da influenzare la spontaneità dei nostri ricordi e quindi delle nostre scelte future? Sarà possibile attraverso una I.A. utile per potenziare la memoria scegliere cosa ricordare e cosa “cancellare”? E quanto questo influirà sulla nostra personalità, sull’“autenticità” e “paternità” delle nostre azioni? Le risposte andranno commisurate tenendo in debito conto i diritti fondamentali dell’individuo. Sorge spontanea la domanda di ne sappia un algoritmo di I.A. addestrato da alcuni programmatori nati e cresciuti sotto un regime più o meno totalitario, dei diritti fondamentali, cui dovrebbe essere ispirata la sua logica di funzionamento? Il programmatore di origine cinese che lavora nella Sylicon Valley, naturalizzato statunitense, può programmare un algoritmo di I.A. che verrà utilizzato e venduto sul mercato europeo, tenendo in debita considerazione valori e disvalori della cultura latina?  Si dirà: basta inserire le norme nel database e così pre-configurare il prodotto. Ma se il diritto fosse solo una mera applicazione matematica di formule, cosa ne sarebbe della sua concreta applicazione, della sua interpretazione ed adattamento al caso concreto, fatta anche nel rispetto dei valori costituzionali o dei suoi principi generali?

I social network ci hanno insegnato che, in termini di trattamento dati, ed in alcuni casi di contrattualistica, alcune Direttive Europee sono insormontabili per come sono programmati alcuni prodotti di origine asiatica o statunitense, software di intelligenza artificiale nello specifico, le cui linee applicative si sono dovute rivisitare al fine di correlare ciò che era stato partorito dall’industria, con quella che è la realtà giuridico – normativa dello Stato in cui quel prodotto andrà commercializzato. Recentemente alcuni produttori sono stati costretti a rivedere le regole sul trattamento dei dati personali: si veda la problematica del GDPR e di alcuni trattamenti dati eseguiti da alcuni social network a livello internazionale, o il recente intervento del Garante della Privacy sulla liceità dell’utilizzo di ChatGPT 4 in Italia, adesso in corso di riadattamento per la sua conformità normativa.

IA e guida degli autoveicoli: problematiche giuridiche non solo in un’ottica di responsabilità

Il settore in cui l’industria e la normativa stanno facendo passi da gigante inserendo diversi applicativi di intelligenza artificiale è quello relativo alla guida automatizzata degli autoveicoli. Problematica dagli imponenti risvolti giuridici, perché correlata al risarcimento del danno ed alla contrattualistica (polizze). Il dibattito è collegato all’imputazione della responsabilità del conducente dell’autoveicolo attraverso un possibile trasferimento della stessa verso il produttore o – sostengono alcuni – verso il proprietario del sistema di guida di A.I.

La ricerca ci suggerisce che esistono diversi livelli d’implementazione della I.A. sugli autoveicoli (cinque o sei). Si procede da una guida umana semplicemente “assistita” dall’intelligenza artificiale, sino ad arrivare ad una guida completamente automatizzata. La domanda da porsi non è se sia lecita una guida automatizzata, ma se sia realmente praticabile, dovendo la stessa affrontare alcuni problemi, tra i quali: quale regime normativo dovrà applicare la I.A? È evidente che le regole cui dovrà attenersi sono quelle dello Stato in cui il veicolo viene posto in circolazione, ma se viaggio e mi sposto il sistema dovrà essere in grado di recepire, di volta in volta, la corretta normativa ed adattare le regole di sicurezza (un po’ come l’aggiornamento delle mappe di alcuni noti software). Le problematiche diventano più sottili se correlate alla guida in stato di ebrezza o sotto gli effetti di sostanza stupefacente che, essendo frutto di normative speciali, non possono fondarsi su dati normativi universalmente riconosciuti. Sebbene anche in questo caso potrebbe essere sufficiente programmare seguendo la normativa di ciascuna nazione, ci si domanda come una macchina possa impedire la guida ad una persona che, al rientro da una festa, non si voglia sottoporre nel proprio autoveicolo al test alcolimetrico (che altrimenti non attiva l’avviamento del motore) perché è consapevole che, pur avendo un po’ bevuto, è l’unica in grado di guidare, atteso che l’altra deve essere ricoverata in ospedale d’urgenza. Sarà possibile aprire un canale di comunicazione di emergenza che porti l’I.A. a violare alcune regole, in casi di necessità? E chi decide sullo stato effettivo di necessità ed urgenza: la valutazione sarà demandata all’individuo (che così riacquista il controllo totale sulla macchina), oppure sarà affidata al sistema automatico di guida? (che così facendo si sostituisce alla polizia giudiziaria in termini eccessivamente anticipatori e preventivi)?

Ed una volta che l’I.A. avrà registrato una violazione del codice da parte dell’utilizzatore, sarà il nostro stesso sistema intelligente a trasmettere l’informazione alla Polizia Giudiziaria ed a condannarci in caso di sinistro, senza considerare il contesto ampio in cui la violazione è avvenuta per causa di forza maggiore? Il conducente/proprietario rimarrà vittima dello stesso prodotto che usa, paga e consuma. Per un individuo dotato di buon senso, è normale accostare la macchina temporaneamente in doppia fila, il tempo necessario per far scendere la signora anziana che abbiamo cortesemente accompagnato sin davanti al portone di casa, in una notte buia e tempestosa. Una I.A., per accostare, cercherà il parcheggio più vicino, anche se ciò dovesse comportare per la signora il successivo compimento di 100 metri a piedi, di notte, in una strada poco sicura.

Ed ancora, la polizza assicurativa chi la dovrà stipulare, il proprietario dell’autoveicolo in solidarietà con il proprietario della I.A. che guiderà il veicolo? E le responsabilità in caso di sinistro condotto prevalentemente dalla I.A. su chi ricadranno se il proprietario ha accettato di avvalersi della guida semi automatizzata o totalmente automatizzata?

Occorre lavorare bene al fine di evitare/prevenire alcuni importanti effetti distorsivi di questi meccanismi, che possono rapidamente condurre a risultati differenti dalle stesse previsioni degli ingegneri informatici.[6]

IA e studi legali, prospettive di utilizzo

I vantaggi dell’utilizzazione della I.A. nel mondo forense è stato studiato – tra gli altri – da David Wakeling, capo del gruppo di innovazione dei mercati di un importante studio legale londinese il quale, per risolvere alcuni problemi di comunicazione con la clientela ha provato a far utilizzare ad alcuni colleghi un noto software di I.A. per lo svolgimento di alcune semplici mansioni. La piattaforma così predisposta utilizza l’elaborazione del linguaggio naturale, l’apprendimento automatico e l’analisi dei dati per automatizzare e migliorare vari aspetti del lavoro degli studi, come l’analisi dei contratti, la due diligence, una parte del contenzioso e la conformità normativa alle leggi sul riciclaggio ed altri ancora. Utilizza la tecnologia GPT-3 per consentire agli avvocati di creare documenti legali o eseguire ricerche giuridiche[7]. L’esperimento è riuscito ed oggi circa 43 uffici dello studio legale utilizzano lo strumento traendone benefici. L’ascesa dell’intelligenza artificiale e il suo potenziale hanno trovato applicazione nel mondo degli studi legali; si tratta, sembra di capire, di un aiuto nella semplificazione correlate ai processi lavorativi di uno studio che è simile ad una grande azienda, più che di un affiancamento al lavoro dell’avvocato “artigiano” nell’atto nel suo personale processo di scrittura e creazione di un atto giudiziario correlato ad un caso specifico. Sembra un prodotto adatto per chi deve configurare dei modelli contrattuali, della regolamentazione seguendo processi e procedure standardizzate o di sicurezza, piuttosto che per chi debba creare il diritto per trasporlo in una tesi da sostenere in aula. Tuttavia è indiscutibile il fatto che gli studi legali stanno già utilizzando l’intelligenza artificiale per diventare più efficienti. E’ un punto di partenza da tenere in considerazione e verso cui guarda il mercato, atteso che le stime sulle future applicazioni sono alte.

Conclusioni

Non sappiamo verso che direzione si stanno muovendo le grandi realtà, ma senza dubbio al fine di prevenire i rischi, anche in un’ottica di security, possiamo affermare con una certa serenità che queste innovazioni dovrebbero essere strutturate in modo da consentire a qualunque sistema artificialmente intelligente di essere sempre ricondotto (sia esso un braccio meccanico, un applicativo, un sistema di guida di un veicolo automatizzato) sotto il controllo umano, al fine di interromperne e gestirne il funzionamento piegandolo alla volontà dell’individuo, piuttosto che a delle scelte automatizzate, in qualunque momento. Proprio per la natura solo parzialmente imitabile del cervello umano da parte di quello artificiale, come accennato nella parte iniziale di questo lavoro. Se non teniamo stretto il nostro controllo sulla tecnologia, saremo destinati a soccomberle, in un futuro non troppo lontano.


[1] Voce “intelligenza” in Treccani; www.treccani.it/vocabolario/intelligenza/; Leman P. et al., Psicologia dello sviluppo, MacGraw-Hill Education, Milano.

[2] Howard Gardner, psicologo, Torino, 10.04.1997 in: “Intelligenze multiple e nuove tecnologie” sviluppa le 9 forme di intelligenza sopra descritte (in seguito anche rimodellate in altre 5 macro definizioni). Secondo l’autore “il significato del concetto di intelligenza è da intendersi dunque come particolari abilità di cui è dotato l’individuo. Sebbene queste capacità siano più o meno innate negli individui, non sono statiche e possono essere sviluppate mediante l’esercizio, potendo anche “decadere” col tempo”. Ogni gruppo sopra individuato racchiude altri sottotipi.

[3] Ibidem, in wikipedia, voce https://it.wikipedia.org/wiki/Intelligenza; H. Gardner, Formae mentis. Saggio sulla pluralità dell’intelligenza, Feltrinelli, Milano, 1987, 20022

[4] Sarebbe preferibile scrivere “cosa” considerato che una I.A. non è assimilabile ad alcuna forma di personalità giuridica.

[5] Michael C. Corballis, Left Brain, Right Brain: Facts and Fantasies, January, 2014, https://doi.org/10.1371/journal.pbio.1001767

[6]B. Fiammella, Intelligenza Artificiale, euristica e bias cognitivi applicati agli algoritmi, www.altalex.it, 2020

[7]Nicola di Molfetta, Mag n. 196, febbraio 2023, in www.legalcommunity.it/wp-content/uploads/2023/02/MAG-196_LC.pdf

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2