Nell’opera Comus, scritta dal poeta inglese John Milton nel 1634, una giovane nobildonna viene rapita da uno stregone di nome Comus e legata a una sedia incantata. Nonostante sia trattenuta contro la sua volontà, la donna rifiuta ripetutamente le avances di Comus e afferma “Tu non puoi toccare la libertà della mia mente“, sicura della sua capacità di proteggere la sua libertà mentale da qualsiasi manipolazione esterna. Questa idea della mente umana e dell’informazione mentale come ultimo dominio di protezione assoluta dall’intrusione esterna è oggi messa in discussione dai progressi delle neurotecnologie e dell’intelligenza artificiale.
Neurotecnologie: definizione e evoluzione in atto
Per neurotecnologia si intende il variegato ecosistema di dispositivi tecnologici in grado di registrare, decodificare e/o modificare l’attività, il funzionamento o la struttura del cervello umano. Neurotecnologie all’avanguardia come le tecnologie di neuroimmagine di ultima generazione, i neurostimolatori e le interfacce cervello-computer (in inglese, brain-computer interfaces o BCI) permettono di registrare, monitorare, decodificare e/o modulare i correlati neurali dei processi mentali con un crescente grado di precisione e risoluzione. Il progresso nelle neurotecnologie è fondamentale per migliorare la nostra comprensione del cervello umano e migliorare la fornitura di servizi di neuroriabilitazione e salute mentale a livello globale. All’alba degli anni 20 del ventunesimo secolo, stiamo entrando in una nuova fase di sviluppo delle neurotecnologie caratterizzata da finanziamenti pubblici più elevati e sistematici (ad esempio attraverso l’iniziativa BRAIN del governo statunitense, lo Human Brain Project sostenuto dall’UE o il China Brain Project avviato dal governo della Repubblica Popolare Cinese), investimenti diversificati del settore privato e una maggiore disponibilità di neurodispositivi in ambito extraclinico.
Nel frattempo, i progressi nell’interazione tra neuroscienze e intelligenza artificiale (IA) stanno rapidamente aumentando le risorse computazionali e le capacità di analisi predittiva dei neurodispositivi.
Dispositivi e app che sfruttano i dati del cervello: big tech a lavoro
Sono molte le aziende del digitale che stanno sviluppando dispositivi e applicazioni che sfruttano i dati del cervello per scopi di consumo come il monitoraggio cognitivo, il neurofeedback, il controllo di dispositivi digitali o altre forme di interfaccia cervello-computer. Ad esempio, nel 2017, Facebook ha lanciato un programma di ricerca sull’interfaccia cervello-computer che mira a costruire una BCI indossabile che consente agli utenti di scrivere nella newsfeed del social network direttamente tramite l’attività del cervello (ovvero tramite la registrazione del cosiddetto silent speech).
Microsoft sta lavorando in parallelo su BCI interattive non invasive per la popolazione generale, mentre un intero ecosistema di aziende digitali incentrate sulle neurotecnologie come Kernel di Bryan Johnson e Neuralink di Elon Musk sta rapidamente emergendo. Compagnie quali Emotiv, Neurosky e Muse offrono già da vari anni un ampio assortimento di neurodispositivi smartphone-compatibili e a basso costo (poche centinaia di euro) per il training cognitivo, la meditazione, o il neurogaming (ovvero gaming basato su videogiochi online i cui avatar vengono controllati tramite periferica cerebrale).
La proliferazione di neurodispositivi a basso costo, portatili e non invasivi sta incentivando sempre più gli individui a condividere i loro dati cerebrali in modo simile a quanto è stato osservato tra gli utenti di altri gadget tecnologici come i tracciatori di attività indossabili. Secondo una recente review, ci sono oltre 8.000 brevetti neurotecnologici attivi, che rappresentano un valore cumulativo di 2 miliardi di dollari americani. Tentativi di accedere ai correlati dell’informazione mentale sono in corso anche nel contesto del neuromarketing, ambito in cui le tecniche di neuroimaging sono abitualmente applicate per studiare, analizzare e prevedere il comportamento dei consumatori e le preferenze personali. Oggi, diverse multinazionali tra cui Google e Disney usano servizi di ricerca di neuromarketing per misurare le preferenze e le impressioni dei consumatori sulle loro pubblicità o prodotti.
Nel settore dell’istruzione e del lavoro, sono in corso strategie di utilizzo delle neurotecnologie per scopi quali il miglioramento dell’apprendimento e la riprogettazione dei flussi di lavoro. Per esempio, l’anno scorso, in Cina, alcuni bambini di scuola elementare sono stati arruolati in una sperimentazione in cui i dati elettroencefalografici sono stati registrati durante i compiti cognitivi per valutare i loro tempi di attenzione.
Sempre in Cina, alcuni programmi di sorveglianza sostenuti dal governo stanno impiegando neurotecnologie per misurare l’attività cerebrale tra i lavoratori delle centrali nucleari e dei treni ad alta velocità. Queste neurotecnologie d’uso commerciale sono finalizzate a monitorare la produttività e regolare conseguentemente il ritmo di produzione. Infine, gli usi militari delle neurotecnologie e la relativa acquisizione di dati cerebrali sono aumentati in quantità e varietà. Un esempio è il “Next-generation Nonsurgical Neurotechnology Program” (N³), uno sforzo da 104 milioni di dollari lanciato nel 2019 dalla Defense Advanced Research Projects Agency (DARPA) degli Stati Uniti con lo scopo di sviluppare BCI non invasive, portatili e bidirezionali per il personale militare. Diverse altre nazioni quali la Russia, la Cina e Israele hanno programmi di ricerca militare che hanno a che fare con la decodifica o modulazione dell’attività del cervello. Man mano che le neurotecnologie diventano socialmente più pervasive e potenti dal punto di vista computazionale, diversi esperti hanno chiesto di preparare il terreno etico e di tracciare un percorso normativo per la scienza e la politica [1-3].
Le sfide etiche
All’interno dello spettro delle neurotecnologie, le interfacce cervello-computer sono di particolare rilevanza dal punto di vista sociale ed etico, poiché la loro capacità di stabilire un percorso di connessione diretta tra l’elaborazione neurale umana e la computazione artificiale è stata descritta come “qualitativamente diversa” dagli esperti [1], quindi si ritiene che sollevi “preoccupazioni uniche” [2]. Tra queste implicazioni etiche, la privacy è fondamentale. La ricchezza informativa delle registrazioni cerebrali ha il potenziale di codificare informazioni altamente private e sensibili sugli individui, comprese le caratteristiche predittive del loro stato di salute (ad esempio, i biomarcatori digitali di una predisposizione alla demenza) e degli stati mentali quali le memorie e le emozioni. Si prevede che la decodifica di tali informazioni altamente private diventerà sempre più facile nel prossimo futuro grazie ai progressi coordinati nella capacità dei sensori, nella risoluzione spaziale delle registrazioni neurali e nelle tecniche di machine learning per il riconoscimento dei pattern e la feature extraction. Tre tipi principali di rischi per la privacy sembrano essere associati alle BCI: la divulgazione accidentale di informazioni private sulla sfera mentale, la perdita involontaria di dati neurali e il furto doloso di dati neurali. Più la neurotecnologia diventa pervasiva, più i dati decodificati dai neurodispositivi sono esposti agli stessi rischi e livelli di (in)sicurezza informatica riscontrati in altri settori dell’ecosistema digitale, cybercrime incluso. Per esempio, degli scienziati informatici inglesi hanno dimostrato la fattibilità di utilizzare i neurodispositivi per estrarre informazioni private dall’attività cerebrale degli utenti – comprese le loro informazioni bancarie e l’indirizzo di casa – senza la loro consapevolezza.
Dato l’intimo legame tra le registrazioni neurali, da un lato, e gli stati mentali e i predittori del comportamento, dall’altro, le sfide alla privacy sollevate dalle BCI sono caratterizzate da una maggiore complessità e sensibilità etica rispetto alle tradizionali questioni di privacy nella tecnologia digitale e richiedono una valutazione etica e legale specifica per il dominio mentale [5].
L’uso crescente dell’apprendimento automatico e di altri approcci all’intelligenza artificiale nelle BCI ha anche implicazioni per la nozione di identità personale. Per esempio, ricerche su alcuni pazienti BCI sembrano suggerire che quando il controllo della BCI è parzialmente affidato ad algoritmi intelligenti, potrebbe diventare difficile discernere se l’output comportamentale risultante sia stato veramente eseguito dalla volizione dell’utente o dall’AI [6]. Questa ipotesi ha recentemente ottenuto una conferma empirica preliminare [7].
Inoltre, con l’aumento degli usi non clinici delle BCI, un’ulteriore sfida etica sarà presto rappresentata dal potenziamento cognitivo. Mentre le applicazioni cliniche delle BCI mirano a ripristinare la funzione in persone con menomazioni fisiche o cognitive, come i sopravvissuti all’ictus, le applicazioni di neuropotenziamento potrebbero, in un prossimo futuro, produrre prestazioni superiori alla media in individui sani.
Bibliografia
Yuste, R., Goering, S., Bi, G., Carmena, J.M., Carter, A., Fins, J.J., Friesen, P., Gallant, J., Huggins, J.E., and Illes, J.: ‘Four ethical priorities for neurotechnologies and AI’, Nature News, 2017, 551, (7679), pp. 159
Clausen, J., Fetz, E., Donoghue, J., Ushiba, J., Spörhase, U., Chandler, J., Birbaumer, N., and Soekadar, S.R.: ‘Help, hope, and hype: Dimensioni etiche delle neuroprotesi’, Scienza, 2017, 356, (6345), pp. 1338-1339
Ienca, M.: ‘Neuroprivacy, neurosecurity e brain-hacking: Emerging issues in neural engineering’, in Editor (Ed.)^(Eds.): ‘Book Neuroprivacy, neurosecurity and brain-hacking: Emerging issues in neural engineering’ (Schwabe, 2015, edn.), pp. 51-53
Ienca, M., e Haselager, P.: ‘Hacking the brain: brain-computer interfacing technology and the ethics of neurosecurity’, Ethics and Information Technology, 2016, 18, (2), pp. 117-129
Ienca, M., and Andorno, R.: ‘Verso nuovi diritti umani nell’era delle neuroscienze e delle neurotecnologie’, Life Sciences, Society and Policy, 2017, 13, (1), pp. 5
Haselager, P.: ‘Ho fatto questo? Brain-Computer Interfacing and the Sense of Agency’, Minds and Machines, 2013, 23, (3), pp. 405-418
Gilbert, F., Cook, M., O’Brien, T., and Illes, J.: ‘Embodiment and Estrangement: Results from a First-in-Human “Intelligent BCI” Trial’, Science and Engineering Ethics, 2017
Ienca, M.: ‘Il diritto alla libertà cognitiva’, Sci. Am., 2017, 317, (2), pp. 10-10
Tennison, M.N., e Moreno, J.D.: ‘Neuroscienze, etica e sicurezza nazionale: The State of the Art’, PLoS Biol., 2012, 10, (3), pp. e1001289
Hyman, S.E.: ‘Potenziamento cognitivo: promesse e pericoli’, Neuron, 2011, 69, (4), pp. 595-598
Cascio, J.: ‘I cervelli hanno bisogno di diritti?’, New Scientist, 2017, 234, (3130), pp. 24-25
Pizzetti, F.: ‘Una proposta per una: “Dichiarazione universale sulle neuroscienze e i diritti umani”‘, Voci Bioetiche (Newsletter della cattedra di bioetica dell’Unesco), 2017, 6, (10), pp. 3-6
Ienca, M., Kressig, R.W., Jotterand, F., and Elger, B.: ‘Proactive Ethical Design for Neuroengineering, Assistive and Rehabilitation Technologies: the Cybathlon Lesson’, J. Neuroeng. Rehabil., 2017, 14, pp. 115
- Bioeticista presso il Department of Health Sciences and Technology del Politicnico Federale di Zurigo e membro del Comitato Direttivo dell’OCSE sulle neurotecnologie. ↑