Qualche tempo fa ci siamo occupati di dati neurali e di alcune delle problematiche derivanti dal loro utilizzo [1]. Concludevamo quell’intervento con una riflessione circa il ruolo decisivo spettante alle Authority nazionali e a quelle sovranazionali, oltre che al legislatore, i quali a nostro parere avrebbero dovuto affrontare la questione in maniera interdisciplinare, con un approccio fondato sulla conoscenza della tecnologia, della scienza, ma anche del diritto, dell’etica e della filosofia e con l’auspicio di una Convenzione internazionale ad hoc, che disciplinasse “per principi” la materia della neural privacy, fino ad escludere dall’elaborazione dei dati “chi non si adegua”. Cosa è successo in questi tre anni? Cosa è cambiato?
Raccomandazione Unesco sull’etica della neurotecnologia
Un primo passo avanti è stato compiuto da un gruppo di 24 esperti internazionali (Ad Hoc Expert Group – AHEG), tra cui per l’Italia il professor Marcello Ienca, che si è riunito dal 22 al 26 aprile 2024 presso la sede dell’Unesco a Parigi per predisporre una prima bozza della Raccomandazione sull’etica della neurotecnologia. Tale bozza è stata condivisa con gli Stati membri, dando inizio ad uno processo di consultazione intergovernativa che si svolgerà fino al 2025. Il testo definitivo della Raccomandazione sarà presentato per l’adozione nel novembre 2025, durante la 43a sessione della Conferenza generale.
Gli obiettivi della Raccomandazione
Lo scopo della raccomandazione è quello di guidare lo sviluppo e l’uso delle neurotecnologie in modi che siano affidabili e per il bene dell’umanità, degli individui, delle comunità, delle società (compresi l’ambiente e gli ecosistemi), e per prevenire i danni nel presente e nel futuro. Per raggiungere questo scopo la raccomandazione indica anche alcuni degli obiettivi fondamentali da tener presente nell’occuparsi di questa materia, tra i quali:
- guidare le azioni di individui, gruppi, comunità, istituzioni e aziende del settore privato per garantire l’integrazione dell’etica in tutte le fasi dello sviluppo e dell’utilizzo delle neurotecnologie;
- fornire un quadro universale di valori, principi e azioni per guidare gli Stati membri nella formulazione di legislazioni nazionali, politiche o altri strumenti riguardanti le neurotecnologie, coerentemente con gli standard internazionali;
- proteggere, promuovere e rispettare i diritti umani e le libertà fondamentali, la dignità umana e l’uguaglianza, compresa la parità di genere, e rispettare la diversità culturale in tutte le fasi dello sviluppo e dell’utilizzo delle neurotecnologie;
- promuovere il dialogo multi-stakeholder, multidisciplinare e pluralistico e la creazione di consenso sulle questioni etiche relative allo sviluppo e all’uso delle neurotecnologie;
- promuovere l’accesso equo agli sviluppi e alle conoscenze nel campo delle neurotecnologie e la condivisione dei benefici.
La raccomandazione intende fornire una guida per lo sviluppo di politiche nazionali ed internazionali relative all’uso delle neurotecnologie, promuovendo un dialogo interculturale e la condivisione equa dei benefici derivanti da tali tecnologie.
Passaggi chiave della Raccomandazione
Alcuni passaggi significativi riguardano la definizione delle neurotecnologie come dispositivi e procedure utilizzate per comprendere, influenzare, accedere, monitorare o modulare la struttura e la funzione del sistema nervoso degli esseri umani e di altri animali e il timore dell’integrazione delle neurotecnologie in applicazioni commerciali come priming e nudging, dream marketing, neuromarketing e ambienti a ciclo chiuso [2], tecnologie queste che sollevano anche profonde questioni etiche riguardanti l’autonomia, il consenso, la privacy e il potenziale di manipolazione [3].
Viene quindi stabilito che gli Stati possano richiedere alle aziende di rivelare quando gli algoritmi di IA, basati su dati biometrici neurali e cognitivi, vengono utilizzati per prendere decisioni che riguardano i consumatori, come la pubblicità personalizzata e le raccomandazioni di contenuti. La trasparenza dovrebbe estendersi anche agli algoritmi stessi, potenzialmente attraverso meccanismi come gli audit algoritmici. E non solo, gli Stati dovrebbero adottare quadri normativi e meccanismi di supervisione per garantire che i dati biometrici neurali e cognitivi adoperati appunto per questo tipo di attività di marketing siano utilizzati in modo trasparente e che il loro uso non comprometta l’autodeterminazione/autonomia dell’individuo.
Viene inoltre sottolineata l’importanza di rispettare i diritti umani fondamentali, la dignità umana e promuovere la salute e il benessere, così come la giustizia, la sostenibilità, la responsabilità e il rispetto della diversità culturale.
Non si tratta, come ci auspicavamo, di una Convenzione ad hoc, ma per lo meno il livello di attenzione sulla delicatezza della questione, è stato portato in una sede di tutto rispetto in ambito internazionale, pur con i limiti di un atto non vincolante per gli Stati.
Bisognerà attendere i risultati delle consultazioni intergovernative per avere un testo definitivo, ma già nella bozza si intravede chiaramente l’intento di evitare che l’evoluzione tecnologica comprometta i valori fondamentali che definiscono l’umanità.
Le nuove tecnologie: il caso di Neuralink
Sotto un altro punto di vista di grande impatto sulla materia la circostanza che il progetto Neuralink, allora in fase iniziale, ha ricevuto a maggio 2023 l’approvazione da parte della FDA (Food and Drug Administration, l’ente che regola i prodotti farmaceutici negli USA) a continuare la sperimentazione dei propri chip su altri esseri umani volontari, dopo l’esperienza con il primo paziente umano Noland Arbaugh. È di luglio 2024 l’annuncio di Mask dell’imminente impianto della nuova versione o “generazione” del chip cerebrale in un secondo volontario e della ricerca di altri volontari per la sperimentazione. Addirittura, su internet è disponibile il modulo per la propria candidatura. Requisiti richiesti sono l’età minima di 22 anni e la presenza di patologie come quadriplegia (funzionalità limitata di tutti i 4 arti) a causa di lesioni del midollo spinale o SLA da almeno 1 anno (senza miglioramenti). Infine, è necessario che il paziente abbia un caregiver fisso e affidabile, che possa seguirlo durante la sperimentazione [4].
Come sappiamo Neuralink è un’azienda di neurotecnologie fondata da Elon Musk che ha progettato ed ora anche impiantato in un umano un’interfaccia cervello-computer in grado di tradurre il pensiero in azione. L’impianto chiamato Telepathy N1 consentirebbe alle persone affette da paraplegia di riacquistare il movimento [5]. Questo chip cerebrale, delle dimensioni di una moneta, viene inserito chirurgicamente sotto il cranio, dove riceve informazioni da fili neurali che si estendono a ventaglio in diverse sezioni del cervello del soggetto che controlla le capacità motorie.
Neuralink: questioni sociali, legali ed etiche relative alla privacy
Non è nostro compito, né abbiamo le competenze per farlo, esprimere un giudizio o una valutazione di tale progetto, ma non possiamo esimerci dall’evidenziare come questa evoluzione tecnologica sollevi anche una serie di questioni sociali, legali ed etiche relative alla privacy, all’accesso e alla libertà di pensiero, al divieto di discriminazione e richieda un quadro di diritti solido per proteggere i diritti umani da potenziali abusi o usi impropri.
Una delle critiche recentemente sollevate non solo dagli scienziati ma anche dagli esperti in neuro diritti circa Neuralink “è il modo di comunicare le notizie scientifiche”, in quanto le informazioni su Neuralink e il suo lavoro vengono diffuse “attraverso aggiornamenti casuali sui social media” piuttosto che attraverso gli sbocchi tradizionali della scienza, come le pubblicazioni con revisione paritaria, gli archivi pubblici o persino i semplici pre-print [6]. La mancanza di trasparenza riguarda anche la sicurezza dell’impianto e del dispositivo. Le preoccupazioni vanno dalla necessità di ottenere dati certi sul corretto funzionamento e su eventuali effetti collaterali a medio e lungo termine, inclusa la qualità del segnale, la durata nel tempo del device e l’esperienza dell’utilizzatore, alla probabilità che si renda necessaria la rimozione o sostituzione del device e i rischi connessi a tali interventi o al pericolo di malfunzionamento improvviso dell’impianto stesso. E non solo: i potenziali rischi di hacking e di violazione dei dati dei soggetti utilizzatori di questi strumenti rendono ancora più evidente la necessità di adottare solide misure di sicurezza nello sviluppo e nella diffusione di tecnologie mediche così avanzate.
La mancata registrazione dello studio clinico di Neuralink nel database ClinicalTrials.gov, inoltre, violerebbe le linee guida etiche fondamentali per la ricerca biomedica, quali la Dichiarazione di Helsinki, rendendo difficile per la comunità scientifica e il pubblico valutare la sicurezza, l’efficacia e l’etica della ricerca condotta. La procedura di preregistrazione dei trial clinici rappresenta, infatti, negli Stati Uniti una pratica fondamentale nel panorama della ricerca biomedica per ragioni etiche, che vanno dalla trasparenza alla responsabilità fino alla protezione dei partecipanti.
A livello più generale, in ogni caso, le interfacce cervello-computer (BCI) pongono in modo rilevante il tema della tutela dei diritti della persona rispetto alla ricerca scientifico-tecnologica e all’uso di tali device. “Va, infatti, protetta la sfera della libertà dal potere pubblico (soprattutto rispetto a regimi non democratici) e privato (con riferimento ai grandi player tecnologici), oltreché da singoli terzi (malevoli): sfera che comprende sia la dimensione corporale (se il dispositivo richiede operazioni chirurgiche), che quella “mentale” (cognizione, memoria, sensorio, …), la quale può essere perturbata o violata dalla manipolazione dei segnali cerebrali mediante BCI” [7].
Il Rapporto del Gruppo di esperti per il futuro della scienza e della tecnologia (STOA)
Su questi argomenti, il Gruppo di esperti per il futuro della scienza e della tecnologia (STOA) gestito dall’Unità di previsione scientifica, all’interno della Direzione generale per i servizi di ricerca parlamentare del Parlamento europeo, nel mese di luglio 2024 ha pubblicato un documento intitolato “La protezione della privacy mentale nell’area delle neuroscienze – sfide sociali, legali ed etiche” [8] nel quale analizza le implicazioni legali, etiche e sociali dello sviluppo delle neurotecnologie, valuta se sia necessario sviluppare un nuovo quadro normativo a livello di Unione Europea per affrontare il concetto emergente di “diritti neuronali” e riassume le opzioni politiche per lo sviluppo e la commercializzazione delle neurotecnologie, fornendo al contempo garanzie contro il loro possibile uso improprio. Secondo il Rapporto anche se le neurotecnologie non invasive migliorano le capacità umane, potrebbero avere un impatto sulla (auto)percezione, sull’attenzione, sull’umore, sulla memoria e sul processo decisionale, il che potrebbe rappresentare una minaccia per l’autonomia e il benessere individuale e collettivo.
I tre possibili senari individuati dallo studio
Lo studio individua tre possibili scenari.
Nessuna regolamentazione
Il primo è rappresentato dalla politica di “laissez-faire” senza alcuna regolamentazione, che rappresenta a grandi linee la situazione in cui ci si trova e che, secondo gli esperti, potrebbe causare problemi. Come previsto da diversi studi, nei prossimi anni si diffonderanno dispositivi portatili come quelli utilizzati per il neurofeedback, anche se le ricerche sui loro effetti positivi e negativi sono insufficienti. Inoltre, esiste un chiaro bias di pubblicazione nella letteratura scientifica, dove i risultati statisticamente insignificanti vengono messi a tacere, mentre i risultati positivi sono spesso sovra interpretati e sovrarappresentati nel discorso pubblico. Questa pubblicità positiva (“neuroincanto”) può guidare il mercato delle neurotecnologie prima che sia stata effettuata una valutazione critica dei potenziali effetti collaterali che potrebbero danneggiare la salute mentale e fisica. Un altro aspetto della non interferenza nelle neurotecnologie di consumo riguarda i dati fisiologici dei cittadini europei, che potrebbero essere raccolti da aziende non europee. Tali dati sono fondamentali per ulteriori ricerche e sviluppi, ma anche per preservare la privacy e la sicurezza.
Divieto generalizzato
Il secondo è quello del divieto generalizzato delle neurotecnologie nell’UE. Si legge nel rapporto che vietare alcuni usi delle neurotecnologie potrebbe prevenire possibili effetti collaterali negativi o usi impropri. Tuttavia, ciò avrebbe conseguenze drastiche sul settore delle neurotecnologie ed escluderebbe la scienza e l’economia europea dai mercati internazionali. I progressi delle neurotecnologie sono necessari anche come parte dell’arsenale terapeutico per i gruppi di utenti clinici e vulnerabili. I responsabili politici devono considerare in quali ambiti e per quali scopi le neurotecnologie offrono vantaggi significativi e dove potrebbero essere necessari potenziali divieti. È importante che gli specialisti, le parti interessate, la società civile e i legislatori sviluppino criteri molto più precisi per stabilire i confini tra le applicazioni neuro tecnologiche mediche/terapeutiche e quelle di valorizzazione.
Misure per evitare i predominio nell’Ue di agenti neuro tecnologici non europei
La terza opzione consiste nell’adottare una serie di misure per evitare che il mercato dell’UE sia liberamente dominato da agenti neuro tecnologici non europei. Queste misure devono essere adottate congiuntamente e potrebbero non portare al risultato desiderato se applicate isolatamente. Si tratta ad esempio della valutazione dei rischi delle neurotecnologie che potrebbe essere ampliata aggiungendo una valutazione del rischio incentrata sull’uomo, che non si concentri solo sull’impatto di singole tecnologie come attualmente specificato nella legge sull’IA, ma anche e piuttosto sull’ecosistema delle tecnologie come sperimentato dagli utenti nella vita reale; del monitoraggio della comunicazione pubblica sulle neurotecnologie e del miglioramento dell’alfabetizzazione alle neurotecnologie non solo tra il pubblico in generale, ma anche tra i professionisti e gli esperti. La proposta sotto questo aspetto è che analogamente all’IA, le neurotecnologie potrebbero essere classificate in base al rischio che comportano, con livelli diversi di controllo normativo per le tecnologie non invasive rispetto a quelle invasive, o per le tecnologie a uso dei consumatori rispetto a quelle a uso medico. In più la promozione attiva dello sviluppo e l’uso delle neurotecnologie dell’UE nella scienza, nella ricerca e nell’industria potrebbe portare ad evitare che i dati dei cittadini europei vengano trattati al di fuori dell’UE, il che, come sappiamo, è problematico nella misura in cui i Paesi extra-UE hanno politiche di sicurezza dei dati diverse.
Salvaguardia dei dati cerebrali: valutazione delle pratiche di privacy
Un’ultima riflessione in relazione al rapporto della NeuroRights Foundation di aprile 2024 che mette in luce le pratiche che le aziende di neurotecnologie di consumo applicano ai dati neurali e i diritti che i consumatori hanno in relazione ad essi[9]. Per valutare tali pratiche, questo rapporto ha analizzato i documenti programmatici di 30 aziende di neurotecnologie di consumo con prodotti disponibili per l’acquisto. Analizzando i documenti programmatici, sono emerse due quesiti fondamentali:
- le informazioni sulle pratiche relative ai dati e sui diritti dei consumatori sono sufficienti per consentire loro di prendere decisioni informate sulla loro privacy?
- le pratiche aziendali in materia di dati e i diritti dei consumatori sono adeguati alla sensibilità e ai rischi unici dei dati neurali?
Secondo i risultati di questo rapporto, la risposta a entrambe le domande è negativa.
L’analisi si è concentrata su cinque aree chiave di rilevanza per la privacy dei dati: accesso alle informazioni, raccolta e conservazione dei dati, condivisione dei dati, diritti degli utenti, sicurezza e protezione dei dati. In ognuna di queste aree tematiche sono emerse ampie lacune tra gli standard internazionali di protezione dei dati e le pratiche effettive. I consumatori di neurotecnologie non hanno accesso alle informazioni, mostrando una forte incoerenza con i principi di trasparenza e accesso affermati dagli standard internazionali. Questa mancanza di informazioni, inoltre, mina il modello di informazione e consenso su cui si basano i documenti sulla privacy, rendendo inefficaci sia i documenti programmatici sia la nozione stessa di consenso informato. Allo stesso tempo, tutte le aziende esercitano un controllo significativo sulla raccolta, l’archiviazione, la conservazione e la riproposizione dei dati neurali, sollevando così serie preoccupazioni data l’estrema sensibilità dei dati neurali.
L’importanza della consapevolezza dell’importanza dei dati neurali
La conclusione del documento conferma quando sopra sostenuto: man mano che i dispositivi di neurotecnologia prolifereranno al di fuori degli ambienti medici, al di fuori dei rigidi requisiti per i dispositivi medici e della privacy sanitaria, sarà fondamentale che i consumatori comprendano esattamente come le aziende possono utilizzare i loro dati neurali e quali diritti hanno su tale utilizzo. Senza queste informazioni, i consumatori non potranno fare scelte informate sulla loro privacy e potrebbero non godere delle tutele necessarie per i loro dati.
Note
[1] Alessandra Lucchini – Salvatore Nucera, Neuro diritti e integrità digitale: tutte le sfide della “privacy mentale”, 15 novembre 2021, in https://www.agendadigitale.eu/sicurezza/privacy/neurodiritti-e-integrita-digitale-tutte-le-sfide-della-privacy-mentale/
[2] In generale il neuromarketing è una disciplina che si affida all’esplorazione delle reazioni cerebrali agli stimoli promozionali per delineare i meccanismi e le dinamiche cognitive che influenzano le preferenze e il comportamento d’acquisto del consumatore. Alcune delle tecniche di neuromarketing citate dalla raccomandazione sono il Priming che è un concetto proveniente dalla psicologia cognitiva e può essere descritto come quel meccanismo di regolazione in base al quale l’elaborazione precedente delle informazioni influenza l’elaborazione delle informazioni successive. È una forma di riconoscimento mnemonico non cosciente che consente a uno stimolo, al quale si è stati esposti una prima volta, di essere identificato durante le successive esposizioni senza averne consapevolezza.
Nudging significa, invece, far compiere azioni senza imporle ma creando al contrario le condizioni adatte per influenzare le persone. La traduzione in italiano della parola nudge è letteralmente gomitata, la quale fa comprendere immediatamente il tipo di tecniche coinvolte nella costruzione di strategie di marketing.
Il dream marketing è una tecnica di marketing con cui le aziende inducono i consumatori a sognare i propri prodotti per poi desiderarli al risveglio. Su questi argomenti si vedano, tra gli altri, Carlo Impalà e Jun Jie Yang, Neuromarketing: cos’è e perché è importante parlare di neuro-diritti, 2 febbraio 2024, https://www.esg360.it/risk-management/neuromarketing-cose-e-perche-e-importante-parlare-di-neuro-diritti/, e a livello più generale Vincenzo Russo, Psicologia della comunicazione e neuromarketing, 2017.
[3] In questa direzione, anche il Regolamento UE 2024/1689 del 13 giugno 2012 che stabilisce regole sull’intelligenza artificiale vieta l’utilizzo di sistemi di intelligenza artificiale che permettano la manipolazione cognitiva di una persona o un gruppo di persone, cfr. art. 5.
[4] Su questo argomento si veda tra gli altri il contributo di Francesca Niola, Neuroscienze e AI, difendere i diritti dagli abusi della tecnica, 2 febbraio 2024, https://www.agendadigitale.eu/sicurezza/privacy/neuroscienze-e-ai-difendere-i-diritti-dagli-abusi-della-tecnica/
[5] Brooke Becher, What Is Neuralink? What We Know So Far. All about the surgically implanted brain chip brought to you by Elon Musk, Built In, 9 maggio 2024.
[6] Robert Hart, Experts Criticize Elon Musk’s Neuralink Over Transparency After Billionaire Says First Brain Implant Works, 26 febbraio 2024, Forbes, https://www.forbes.com/sites/roberthart/2024/02/26/experts-criticize-elon-musks-neuralink-over-transparency-after-billionaire-says-first-brain-implant-works/. Si veda anche Michela Balconi, Marcello Ienca, Andrea Lavazza, Francesca Minerva, Federico Gustavo Pizzetti, Massimo Reichlin, Francesco Samoré, Vittorio A. Sironi, Sarah Songhorian, Marta Sosa Navarro, Il caso Neuralink: scienza, etica e le ricadute sociali delle neurotecnologie, 11 aprile 2024, https://www.scienzainrete.it/articolo/caso-neuralink-scienza-etica-e-le-ricadute-sociali-delle-neurotecnologie, Enrico Guardelli, Intelligenza artificiale e medicina. La prossima frontiera, 2024.
[7] Michela Balconi, Marcello Ienca, Andrea Lavazza, Francesca Minerva, Federico Gustavo Pizzetti, Massimo Reichlin, Francesco Samoré, Vittorio A. Sironi, Sarah Songhorian, Marta Sosa Navarro, Il caso Neuralink: scienza, etica e le ricadute sociali delle neurotecnologie, 11 aprile 2024, https://www.scienzainrete.it/articolo/caso-neuralink-scienza-etica-e-le-ricadute-sociali-delle-neurotecnologie cit.
[8] Lo studio è stato redatto dal Prof. Dr. Phil. Guilherme Maia de Oliveira Wood; Lisa Berger, BSc, MSc; Prof. Dr. Juliane Jarke; Gwendolin Barnard, BA, MSc; Prof. Mag. phil. Dr. theol. Thomas Gremsl; Mag. teol. Eugen Dolezal; Prof. Mag. Dr. iur. Elisabeth Staudegger; e Mag. iur. Petra Zandonella, LL.B.oec. dell’Università di Graz su richiesta del Gruppo di esperti per il futuro della scienza e della tecnologia (STOA).
[9] By Jared Genser, Stephen Damianos, and Rafael Yuste April 2024.