etica e tecnologia

Robotica sociale e neuroprivacy: verso un’innovazione tecnologica partecipata



Indirizzo copiato

L’integrazione tra robotica sociale e neurotecnologie solleva sfide etiche, politiche e giuridiche, richiedendo un coinvolgimento attivo delle istituzioni e dei cittadini. Dalla cura degli anziani alla tutela dei “dati mentali”, emerge la necessità di un indirizzo partecipato per garantire un’innovazione tecnologica responsabile e inclusiva.

Pubblicato il 30 set 2024

Thomas Casadei

Officina Informatica DET – Diritto, – CRID – Università di Modena e Reggio Emilia



robotica assistenziale (1)

“La scelta del luogo dove cenare, l’individuazione del percorso da seguire per raggiungere una meta, il controllo dell’attività fisica quotidiana, il monitoraggio di parametri corporei e medici, l’acquisto di beni e servizi sono attività sempre più mediate da applicazioni, siti web e social network il cui funzionamento si fonda su tecnologie basate sull’Intelligenza Artificiale. A oggi gli strumenti digitali che utilizziamo quotidianamente sono costruiti in modo tale da suggerire beni da consumare, stili di vita, scelte in vari campi dell’esistenza”.

In questi termini Matteo Galletti – nel suo saggio ad un bel volume a più voci curato insieme a Silvano Zippoli Caiani (Quando l’Intelligenza artificiale incontra le scienze comportamentali. Una riflessione sui valori morali, in Filosofia dell’intelligenza artificiale. Sfide etiche e teoriche, Bologna, il Mulino, 2024, pp. 123-145, p. 123) – descrive efficacemente un contesto ove le interazioni tra esseri umani e artefatti macchinici e tecnologici (sempre più frequentemente descritti come “intelligenti”), già frequenti, andranno in futuro a moltiplicarsi, ponendo una serie di interrogativi non solo sulle modalità di questi scambi, ma anche sulla loro qualità e natura.

Robotica sociale e assistenza sanitaria

Alcune interazioni già in atto, certamente emblematiche, prefigurano i nodi di una riflessione che non può restare confinata tra tecnici ed esperti ma che implica il coinvolgimento delle istituzioni e della politica e – aspetto ancora ben lungi dal manifestarsi – il coinvolgimento attivo dei cittadini nel processo decisionale (quello che, nel volume menzionato, Mirko Daniel Garasis ricorrendo a un affascinante neologismo disegna come “algorpolitica”: Droni, robot e visioni: perché abbiamo bisogno dell’algorpolitica?, ivi, pp. 227-247; per una più ampia trattazione si veda, dello stesso autore, Leviatano 2.0. Politica delle nuove tecnologie, Roma, Luiss University Press, 2002).

Entro siffatto scenario, uno degli ambiti oggetto di studio e sperimentazione ormai da diversi anni è quello medico-sanitario e dell’introduzione della robotica per l’assistenza. Quest’ultima è strettamente collegata con gli effetti dell’invecchiamento della popolazione sulla società ma anche al fatto che l’assistenza agli anziani e alle persone più vulnerabili, oltre ad essere un lavoro duro, fisicamente ed emotivamente spesso estenuante, è scarsamente retribuita, nonché poco riconosciuta nella sua valenza sociale.

Il caso giapponese e le implicazioni etiche dei robot assistenziali

In Giappone, case study per eccellenza su queste tematiche dato il crollo delle nascite che lo caratterizza da tempo, da anni “si sta promuovendo e incoraggiando la pratica di affidare gli anziani ospite di case di riposo all’assistenza di robot che li aiutano a non sentirsi soli; a telefonare, leggere le notizie dai quotidiani, ricordare gli orari dei pasti e dei farmaci da prendere” (Vera Tripodi, Robotica sociale e assistenza sanitaria, ivi, pp. 181-203, a p. 182).

Se, da un lato, queste scelte sono ritenute da molti pazienti positive (non si vive la relazione di cura come una condizione di subordinazione rispetto ad assistenti umani) o addirittura foriere della possibilità, in futuro, di ridurre o prevenire il declino cognitivo delle persone anziane, dall’altro, esse prefigurano modalità relazionali che possono risultare di inganno o autoinganno (l’utilizzo dei robot – si sostiene – può facilmente illudere i e le loro utenti che ciò che stanno ricevendo sia veramente attenzione, cura, affetto [quando di fatto non è nessuna di queste cose])” (ivi, p. 182).

Il dilemma dell’inganno nella robotica sociale

In una selva di interrogativi etici che vengono a delinearsi (“l’inganno è sempre malevolo?”, “a chi spetta la responsabilità degli inganni della robotica?” ecc.), ciò che diviene rilevante – sul piano non solo etico ma della progettazione tecnologica e, più ampiamente, degli indirizzi strategici sul piano istituzionale – è trovare “il modo di garantire che l’inganno della robotica sociale non porti i robot a sostituire l’assistenza umana significativa o una fiducia mal riposte nelle decisioni prese dalle macchine” (ivi. p. 201) ma anche studiare in maniera sempre più approfondita altri aspetti, nella consapevolezza che quello di intelligenza artificiale è un “concetto polisemico” (così Federica Buongiorno nel suo contributo, nel volume curato da Galletti e Zipoli Caiani, Fenomenologia delle reti neurali.

Per un concetto polisemico di intelligenza artificiale: pp. 45-62) e dunque costitutivamente controverso: l’efficienza decisionale, ma non priva di opacità, dei sistemi artificiali (Silvano Zipoli Caiani, A cosa pensano le macchine? Efficienza e opacità delle reti neurali, pp. 21-44), entro la prospettiva che da più parti si definisce come “la psicologia dei robot” (su questo si incentra il contributo di Edoardo Datteri e Silvia Larghi: pp. 147-168), “le emozioni in azione nei robot” stessi (ossia “la sfida della neurorobotica incorporata”, su cui si cimentano Gabriele Ferretti ed Eris Chinellato: pp. 175-180), gli effetti dell’utilizzazione degli algoritmi nella vita sociale e lavorativa (tema al centro delle riflessioni di Fiorella Battaglia, Algoritmi predittivi e ingiustizia epistemica, pp. 63-82, e di Marianna Capasso e Filippo Santoni de Sio, IA e politica tra libertà, lavoro e design, pp. 83-100) e, ancora, la domanda, cruciale, se vi siano responsabilità degli esseri umani nei confronti delle macchine “intelligenti” e, concependole come soggetti morali (anziché come “automi”), se tra queste vi sia anche quella di promuoverne l’autonomia (interrogativi su cui si cimentano Maurizio Balistreri, I robot devono essere schiavi o persone? Considerazioni morali sull’Intelligenza artificiale, pp. 205-226, e Marco Ciardi e Niccolò Covoni: La profezia di Ada Lovelace. L’Intelligenza artificiale prima di Turing, pp. 249-272).

Politiche etiche per un’IA verde

Un capitolo specifico, e assai significativo, è poi connesso alle possibilità di progettazione di politiche etiche per un’IA verde, a partire dal fatto che le reti neurali artificiali hanno un’impronta ecologica impattante (tema che viene trattato in maniera molto originale da Guglielmo Tamburrini: Euristiche cognitive ed etica dell’IA. Riflessioni sull’IA verde e oltre, pp. 101-121).

Verso un’IA sostenibile e partecipata

In quest’orizzonte – in cui si manifesta sempre più intensamente il bisogno di un indirizzo partecipato per l’innovazione tecnologica – sicollocano anche questioni fino ad ora inedite maturate dalla combinazione tra i progressi dell’IA e più recenti sviluppi delle neuroscienze, che oltre ad implicare profili etici e politici necessitano anche di forme di regolazione sul piano giuridico (come dimostra, il progetto europeo dell’AI Act – peraltro al centro di una riflessione su scala nazionale, dal 3 al 6 settembre, nell’ambito di una Summer School organizzata dall’Università di Udine).

Come spiega molto puntualmente Fiorella Battaglia (Algoritmi predittivi e ingiustizia epistemica, pp.63-82), le tecniche di lettura della mente (brain reading) non solo hanno reso la diagnosi di tumori e danni cerebrali più rapida e precisa ma rendono possibile risalire dalle immagini cerebrali ai contenuti, mentali, ai pensieri, alle memorie e alle intenzioni delle persone. Ci sono studi, solo per menzionare qualche esempio, che usano le immagini postate su Instagram come predittori di un disturbo dell’umore e di depressione o ricerche i cui risultati consentono di creare migliori “protesi vocali”, che traducono le onde cerebrali in linguaggio. Allo stesso tempo questi esperimenti “potrebbero essere sfruttati per sviluppare tecniche di lettura del pensiero e aggirare l’autorità delle persone rispetto ai propri contenuti mentali” (p. 73).

Neuroprivacy e tutela dei dati mentali

La questione che si apre – e dal fortissimo impatto anche giuridico – va oltre la sempre più complessa tutela e protezione dei “dati personali” e chiama in causa la tutela e la protezione dei “dati mentali”. I rapidissimi sviluppi delle neuroscienze, delle neurotecnologie e dell’IA “aprono possibilità in precedenza impensabili perché mettono a disposizione nuove modalità di accesso, raccolta, condivisione e manipolazione di informazioni che riguardano sia il cervello sia la mente umana” (ivi, p. 77).

Rispetto ai pericoli di “disumanizzazione” del soggetto (che nella relazione con i sistemi di IA e delle interfacce cervello-computer rischia di venire considerato alla stregua di una “cosa”, una sorta di “ente datificato”, leggibile mediante i suoi dati, anche mentali) e di “espropriazione” dei suoi contenuti mentali (esito più estremo del processo di “datificazione” e di riduzione appunto dell’uomo a mero dato), si delinea allora la necessità di una “neuroprivacy”, di una privacy specificamente “mentale” (ivi, p. 79).

Conclusioni

Si tratta di tutti aspetti, dunque, che vanno considerati in termini sia di benefici sia di danni, approfondendo le questioni, al contempo, sotto il profilo concettuale, etico, politico-istituzionale e giuridico, senza demandare alle sole figure tecniche e impegnate nella ricerca il compito e la responsabilità della loro discussione e valutazione.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3