Nell’ultimo decennio, la convergenza tra neuroscienze e intelligenza artificiale (IA) ha segnato una svolta significativa nel campo della tecnologia. Recenti progressi nell’IA ispirata al cervello hanno raggiunto un punto di svolta nella collaborazione tra i due campi, con l’IA che, iniziata con l’ispirazione dalle neuroscienze, ha raggiunto prestazioni notevoli con una dipendenza minore dalla comprensione neuroscientifica tradizionale .
Questa evoluzione è in particolare evidenziata dalle tecniche di neuroimaging come la Risonanza Magnetica Imaging (MRI), la fMRI funzionale e l’Elettroencefalografia (EEG), le quali sono nuove frontiere nell’avanzamento della neuroscienza computazionale.
La novità Neuralink
Poi è arrivato Neuralink, di Elon Musk, che sembra volersi spinger un passo oltre nella capacità di interpretare il pensiero tramite elettrodi collegati al cervello; allo scopo non solo di aiutare disabili ma anche – dice Musk – aprire le porte a una nuova interfaccia uomo-macchina nell’era dell’IA.
La caratteristica fondamentale e rilevante per il diritto è che l’impiego di neurotecnologie è stato distratto dall’ambito medico-sanitario, che si ora ne aveva descritto il perimetro (pur sollevando interrogativi etici).
Nel caso di Neuralink invece l’impianto di chip neurali (Telepathy) nel cervello umano, pur rimanendo ancorato alla volontà di dimostrare benefici per le patologie neurologiche, è però sostanzialmente funzionale a rendere più efficiente il rapporto uomo-computer.
L’interazione tra AI e neuroscienze ha portato a opportunità senza precedenti nel campo dei miglioramenti cognitivi, anche di persone affette da patologie cerebrali degenerative, con la potenzialità di rivoluzionare la comprensione e l’enhancement delle capacità cognitive umane[1].
Tuttavia, il “salto” dal mondo della medicina a quello dei servizi è notevole e problematico, poiché se da un lato l’esercizio della professione medica è presidiata da obblighi stringenti che tutelano la persona e la sua dignità e da finalità migliorative della sua salute, altrettanto non può dirsi per il campo della tecnologia pura.
Ciò pone importanti riflessioni che qui possono solo anticiparsi.
Dal punto di vista giuridico, l’integrazione delle tecnologie avanzate di neuroimaging e dei dati neurali raccolti in algoritmi di IA che rispettino la privacy e l’integrità dei dati personali nel contesto del quadro normativo attuale, incluso il GDPR, richiede una riflessione approfondita rispetto al bilanciamento tra l’innovazione tecnologica, la predittività algoritmica e le garanzie di protezione dei dati personali e la salvaguardia dei diritti fondamentali, quali “la libertà mentale, la privacy mentale, l’integrità mentale e la continuità psicologica”[2].
Il tema dei neurodiritti
I neurodiritti, dati la loro natura intima e personale, potrebbero richiedere un inquadramento legale specifico che vada oltre le interpretazioni tradizionali dei diritti fondamentali[3], per affrontare le minacce uniche e personali che le neurotecnologie presentano .
La regolamentazione di questi diritti dovrà essere reasonable e well tailored per rispondere efficacemente alle rapide innovazioni nel campo dell’IA e delle neuroscienze, garantendo al contemporaneo la protezione della dignità umana e l’integrità della persona contro potenziali abusi tecnologici.
Due correnti di pensiero
Il dibattito sui neurodiritti si articola attorno a due correnti principali nel panorama accademico.
- La prima, tradizionale, nega la possibilità di riconoscere tutela giuridica ai neurodiritti, alla quale si oppone la tesi più progressista che, al contrario, sostiene la necessità di ampliare il catalogo dei diritti. La tesi conservatorista afferma che la protezione delle attività cerebrali – con specifico riguardo alla lettura non consensuale del cervello – sia già adeguatamente compresa nell’attuale corpus dei diritti fondamentali quali la libertà cognitiva e di autodeterminazione del pensiero[4], come delineati nella Dichiarazione Universale dei Diritti Umani (UDHR) e in particolare dagli articoli 3, 6, 8 e 9 della CEDU.
- Diversamente argomenta la tesi che sostiene la necessità di una loro regolamentazione esplicita anche in Italia[5]. Alcuni autori[6] sostengono la necessità di tutelare nuovi “neurodiritti” specifici per proteggere adeguatamente il cervello e la mente dall’abuso di neurotecnologie emergenti. Questa posizione riconosce che l’ambito di protezione dei diritti e delle libertà esistenti è insufficiente e che, nonostante possa essere ampliato durante la loro applicazione, nuovi neurodiritti dovrebbero essere introdotti per colmare rapidamente l’attuale lacuna nella protezione legale[7].
Tale impostazione teorica ha trovato terreno fertile in Cile. Il disegno di legge Boletín N° 13.828-19, adottato in Cile, introduce modifiche costituzionali per istituire i neurodiritti. Questa legislazione specifica mira a tutelare l’integrità fisica e mentale degli individui in relazione all’uso delle neurotecnologie. Centrali nella riforma sono le disposizioni volte a proteggere i dati neurali dall’essere oggetto di commercio o manipolazione[8]. Il disegno di legge stabilisce che tali dati, per la loro natura sensibile e personale, devono essere trattati come inalienabili, elevando così la protezione dei dati neurali a un livello paragonabile a quello degli organi umani.
Possibile integrazione uomo-macchina
Da qui la domanda: mantenendo ferme le norme già vigenti è possibile immaginare una integrazione normativa uomo-macchina? La dottrina[9] più progressista guarda con favore al concetto di cyberabilità ovvero «opportunità reali» di azioni volte al raggiungimento del benessere derivanto da interazioni uomo-macchina in cui l’azione è distribuita tra elementi umani e neurotecnologici. La determinazione della responsabilità in questi scenari è complessa poiché coinvolge sia il creatore del sistema di IA che l’utente finale, oltre a considerare il grado di autonomia del sistema e la chiarezza delle interazioni tra umani e macchine.
In altri termini, la prospettiva costituzionalistica entro la quale si ritiene opportuno svolgere le future riflessioni riguarda la tutela della libertà di pensiero, in particolare da possibili forme di sorveglianza. Questa problematica, posta all’attenzione della comunità accademica e giuridica di massimo rilievo, interpella direttamente la sostanza dei diritti fondamentali, in particolare la libertà di pensiero, garantita dall’articolo 9 della Carta dei Diritti Fondamentali dell’Unione Europea e, in ambito nazionale italiano, dall’articolo 21 della Costituzione.
I rischi
Il rischio inerente a tali tecnologie non è meramente ipotetico ma si colloca in una dimensione reale e attuale, dove la potenzialità di accesso diretto ai processi cognitivi dell’individuo apre scenari di controllo e manipolazione precedentemente inesplorati. La libertà di pensiero, intesa come l’ultimo baluardo di resistenza dell’individuo di fronte al potere, si trova così esposta a nuove forme di intrusione che potrebbero rendere obsoleti i tradizionali meccanismi di tutela.
In tale contesto, il ricorso a neurotecnologie per fini di sorveglianza solleva questioni di legalità costituzionale, etica e di diritto internazionale dei diritti umani. L’articolo 8 della Convenzione Europea dei Diritti dell’Uomo, pur tutelando il diritto al rispetto della vita privata, si scontra con le potenzialità invasive delle neurotecnologie, le quali potrebbero eludere le tradizionali garanzie procedurali e sostanziali previste per la limitazione di tale diritto.
Il dialogo accademico e giurisprudenziale recente, riconoscendo la necessità di un aggiornamento normativo, ha iniziato a interrogarsi sulla fattibilità di un nuovo corpus di norme che regolamenti specificamente l’uso delle neurotecnologie, in un tentativo di bilanciare il progresso scientifico con la salvaguardia dei diritti fondamentali.
Il principale argomento contro l’uso incontrollato delle neurotecnologie per scopi di sorveglianza si radica nel concetto di dignità umana, anch’esso tutelato a livello costituzionale e internazionale. La dignità, intesa come valore intrinseco dell’essere umano, implica una sfera di autonomia personale inaccessibile e inviolabile, che le neurotecnologie, se mal impiegate, potrebbero compromettere irrimediabilmente.
Basterà? Sappiamo, sin da ora, di no.
Bibliografia
[1] La Collection di BMC Neuroscience sull’intersezione tra neuroscienze cognitive e IA ha come obiettivo la promozione dell’integrazione delle conoscenze e dei progressi in entrambi i campi, con il fine ultimo di far progredire la nostra comprensione della cognizione umana e sviluppare un’IA più sofisticata . Inoltre, la fusione di neuroscienze, ingegneria e informatica, esemplificata dagli impianti neurali e dalle Brain-Computer Interfaces (BCI), offre grandi promesse. Man mano che queste tecnologie continuano ad evolvere sono destinate a ridefinire non solo la nostra comprensione del cervello ma anche i contorni stessi dell’esperienza umana
[2] Ienca, M. – Andorno, R.: ‘Verso nuovi diritti umani nell’era delle neuroscienze e delle neurotecnologie’, Life Sciences, Society and Policy, 2017, 13, (1), 5
[3] AD Vanberg, ‘Informational Privacy Post GDPR: End of the Road or the Start of a Long Journey?’ (2021) 25(1) The International Journal of Human Rights 52–78 https://doi.org/10.1080/13642987.2020.1789109 (hereafter Vanberg, ‘Informational Privacy Post GDPR’).
[4] Bublitz, C. (2015). Cognitive Liberty or the International Human Right to Freedom of Thought. In: Clausen, J., Levy, N. (eds) Handbook of Neuroethics. Springer, Dordrecht
[5] Ienca M. – Pollicino O., Serve un habeas corpus dei neurodiritti, in Corriere della sera, 26 febbraio 2021.
[6] Ienca, M.: ‘Neuroprivacy, neurosecurity e brain-hacking: Emerging issues in neural engineering’, in Editor (Ed.)^(Eds.): ‘Book Neuroprivacy, neurosecurity and brain-hacking: Emerging issues in neural engineering’ (Schwabe, 2015, edn.), pp. 51-53; Yuste, R., Goering, S et Alii.: ‘Four ethical priorities for neurotechnologies and AI’, Nature News, 2017, 551, (7679), pp. 159 e Pizzetti, F.: ‘Una proposta per una: “Dichiarazione universale sulle neuroscienze e i diritti umani”‘, Voci Bioetiche (Newsletter della cattedra di bioetica dell’Unesco), 2017, 6, (10), pp. 3-6
[7] Kellmeyer, P. (2022). ‘Neurorights’: A Human Rights–Based Approach for Governing Neurotechnologies. In S. Voeneky, P. Kellmeyer, O. Mueller, & W. Burgard (Eds.), The Cambridge Handbook of Responsible Artificial Intelligence: Interdisciplinary Perspectives (Cambridge Law Handbooks, pp. 412-426). Cambridge: Cambridge University Press. doi:10.1017/9781009207898.032
[8] Zúñiga-Fajuri, Alejandra, et al. “Neurorights in Chile: Between neuroscience and legal science.” Developments in neuroethics and bioethics 4 (2021): in partic. 173.
[9] Essmann B, Mueller O. AI-Supported Brain–Computer Interfaces and the Emergence of ‘Cyberbilities.’ In: Voeneky S, Kellmeyer P, Mueller O, Burgard W, eds. The Cambridge Handbook of Responsible Artificial Intelligence: Interdisciplinary Perspectives. Cambridge Law Handbooks. Cambridge: Cambridge University Press, passim, in partic.438.