L’era dell’automatismo non è più fantascienza, ma un futuro già prospettato. In questo futuro le macchine, come l’essere umano, sono capaci di prendere decisioni in modo autonomo, si adattano all’ambiente e si evolvono, imparando dall’esperienza e modificando i propri comportamenti futuri. Una volta compreso che le macchine, unite agli esseri umani, danno vita a società ibride, per prevenire inevitabili disastri è necessario porre delle regole etiche. Ciò ci serve allora è una etica fondata sulla morale.
Perché vi chiederete? Perché per ottenere un’etica buona per tutti, ogni attore della società della rete deve fare, innanzi tutto, socraticamente affidamento sugli altri enti che vi operano. Per far questo bisogna agire con coscienza, valutando le esternalità, positive e negative, che scaturiscono dalle nostre azioni, quale lascito per le generazioni future, il tutto orientato alla protezione dei neuro-diritti.
I progressi delle neuroscienze
I grandi progressi fatti dalle neuroscienze accendono campanellini di allarme davvero assordanti. La possibilità di influenzare e misurare l’attività cerebrale grazie agli innovativi sistemi di Intelligenza Artificiale ci danno l’assist per domandarci che strada stiamo percorrendo. Cogliamo, quindi, l’occasione per capire perché, ai sensi dell’art.18 Patto internazionale sui diritti civili e politici[1] – ICCPR e dell’art. 9 Convenzione europea dei diritti dell’uomo – CEDU[2], si propone l’introduzione di un nuovo diritto fondamentale per gli esseri umani, quello all’autodeterminazione mentale e al diritto alla libertà di pensiero, come teorizzato da Jan Christoph Bublitz[3] e Nita A. Farahany[4]. “Il rischio, insomma, non è tanto e non è solo quello dell’hackeraggio del cervello quanto, prima ancora, quello dell’ammissibilità (in primo luogo) etica di un intervento eteronomo sul processo cognitivo, sinora immune da ogni interferenza esterna.”[5]
Il presente tema è stato affrontato nel 2021 da Pasquale Stanzione[6], Presidente dell’Autorità Garante per la Protezione dei Dati italiana ed è più che mai attuale con l’autorizzazione concessa dalla Food and Drug Administration – FDA, alla start-up Neuralink[7] di Elon Musk, di impiantare i propri chip nei cervelli umani[8].
Realismo informazionale: una nuova antropologia?
Il mondo è composto dalla totalità degli oggetti informazionali che interagiscono, in modo dinamico, gli uni con gli altri e dove anche l’essere umano è composto di dati, come aveva affermato Alan Turing. Così, Luciano Floridi nel 2017 pone le basi del suo “La quarta rivoluzione. Come l’infosfera sta trasformando il mondo”, riprendendo da dove aveva lasciato in “Infosfera” del 2009.
L’avvento si sistemi di IA come ChatGPT è solo l’inizio di quella fantascienza che le sorelle Wachowski hanno tradotto nella saga di Matrix? Il motivo per cui, io come tanti altri, abbiamo deciso di sottoscrivere l’open letter del Future of Life Institute “Pause Giant AI Experiments”[9] è chiaro nel manifesto di Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak e Yuval Noah Harari: “i sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità.”[10]
Ormai che il ‘danno’ è fatto, l’obiettivo, infatti, è quello di “sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti.”[11]
Riprendendo alcuni pensieri della mia tesi di laurea, scritta ormai qualche anno fa, davanti a tutta questa ‘lata’ fantascienza “sono stati posti una serie di interrogativi di carattere etico rapportati alle varie implicazioni derivanti dalla digitalizzazione, volti a far riflettere sulla realtà odierna, realizzando un tentativo di responsabilizzazione dell’Homo Tecnologicus che fa uso, ancora, delle nuove tecnologie in modo quasi incosciente. […] Ciò che, dunque, deve farci riflettere è lo stretto intreccio che si è venuto a creare tra l’evoluzione tecnologica e l’evoluzione biologica, un intreccio al centro del quale sta proprio l’Homo Tecnologicus, un’unità evolutiva ibrida, un simbionte in via di continua trasformazione. Ricollegandoci in tal modo al rapporto tra ciò che è naturale ed artificiale nell’uomo, ci rendiamo conto di come l’Homo Sapiens sia sempre stato Homo Tecnologicus, posto il fatto che da sempre il corpo umano è stato dall’uomo stesso modificato attraverso strumenti, protesi ed apparati che ne hanno esteso e moltiplicato le possibilità di interazione con il mondo al fine del soddisfacimento dei bisogni primari, sia in senso conoscitivo oltre che operativo, rilevando come l’innovazione tecnologica si presenta come molto più rapida di quella biologica ed anzi accelera di continuo. Se, quindi, l’uomo è un essere naturalmente artificiale, come si può pensare di snaturarlo arrestando il suo sviluppo verso il c.d. Post-Umano, che alla luce di questa visione sarebbe semplicemente una mera conseguenza naturale? È l’uomo il mezzo, dunque, di cui la natura si servirebbe per accelerare ed arricchire l’evoluzione, o è l’uomo che tende ad emulare la natura fino a snaturarla come mezzo per giungere al c.d. Post-Umano? Per rispondere a questi interrogativi, laddove ritenessimo che l’umanità sia un valore, il passaggio al c.d. Post-Umano segnerebbe la scomparsa della biologia umana e della cultura umana.”
L’etica nell’era dell’automatismo
Ecco che probabilmente è il caso di domandarci se nostro senso etico potrebbe essere datato. L’UNESCO nel 2022 ha pubblicato il Report “Questioni Etiche della Neurotecnologia” nel quale “il Comitato Internazionale di Bioetica identifica i benefici che possono derivare dalle neurotecnologie, ma anche le caratteristiche umane fondamentali e i diritti umani associati che potrebbero essere messi in discussione da questi sviluppi.” Secondo il rapporto, “le neurotecnologie hanno il potenziale per ridefinire la nostra comprensione di chi siamo e per sfruttare il potere del cervello per migliorare il benessere […] Il rischio di accesso non autorizzato alle informazioni sensibili immagazzinate nel cervello è un esempio emblematico. Già oggi i dati neurali sono sempre più ricercati per scopi commerciali, come la fenotipizzazione digitale, le informazioni emotive, il neurogaming e il neuromarketing. Le unità di neuromarketing sono state sviluppate dall’industria per valutare e persino alterare le preferenze dei consumatori, sollevando serie preoccupazioni sulla privacy mentale. Questi rischi possono anche porre seri problemi quando si ha a che fare con governi non democratici.”
Società ibride: infiniti metaversi
In questo futuro che sa di fantascienza, le macchine, come l’essere umano, sono capaci di prendere decisioni in modo autonomo, si adattano all’ambiente e si evolvono, imparando dall’esperienza e modificando i propri comportamenti futuri. Una volta compreso che le macchine, unite agli esseri umani, danno vita a società ibride, per prevenire inevitabili disastri è necessario porre delle regole etiche. “Aziende tecnologiche come Meta o Neuralink conducono ricerche su Brain-Computer-Interfaces (BCI) con l’obiettivo di consentire agli utenti di controllare i dispositivi, ad esempio gli smartphone, con le loro ‘menti’”[12]. Inoltre, probabilmente passa inosservata una notizia pubblicata da Il Sole 24 Ore lo scorso gennaio[13], esistono 141 metaversi e, forse, aggiungerei ne esistono molti di più.
Neurodiritti ed etica fondata sulla morale
Ciò ci serve allora è una etica fondata sulla morale. Forse una neuroetica?
“Queste e altre forme di «brain reading», lasciano dunque intravedere la possibilità, almeno in un prossimo futuro, di «lettura» (ma anche condizionamento e persino predizione) di intenzioni, emozioni, asserzioni di verità. Il così rilevante incremento del potere epistemico di queste applicazioni neurotecnologiche solleva interrogativi, su cui il Garante promuoverà un confronto il 28 gennaio [rectius, 2021], in occasione della Giornata europea della protezione dei dati.”[14]
Il commento all’ultima notizia relativa alla start-up Neuralink di Elon Musk di Angelo Vescovi, celebre genetista tra i pionieri dell’utilizzo delle cellule staminali e dallo scorso dicembre presidente del Comitato Nazionale di Bioetica: “È questo il momento di iniziare a pensare a una regolamentazione chiara e rigorosa. Perché con l’intelligenza artificiale da una parte e i chip che interagiscono con il nostro cervello leggendo (e registrando) le nostre emozioni dall’altra il rischio di arrivare al Grande fratello di Orwell non è lontano. Io sono per natura favorevole alle novità, anche rivoluzionarie e ricordo che già dagli anni ’80 facevamo la stimolazione profonda del cervello e poi nel midollo contro il dolore cronico. L’interfaccia macchina-paziente c’è da decenni. Ma questo è un passo ulteriore: il microchip ha una tecnologia molto avanzata per interpretare l’attività elettrica del cervello, e agisce sia in entrata che in uscita. Rilevare i segnali può tracciare lo stato emotivo di una persona, anche le sfumature più profonde, persino inconsce. Potremmo dire che sia avvicina molto al concetto di leggere nel pensiero’.[15]”
Già nel 2017 nomi come Rafael Yuste, Marcello Ienca e Roberto Andorno hanno iniziato a coniare il termine “neuro-diritti” e sono andati oltre, definendo 4 nuovi diritti[16]:
- Il diritto alla privacy mentale, avente lo scopo di proteggere le informazioni private o sensibili nella mente di una persona dalla raccolta, dall’archiviazione, dall’uso o addirittura dalla cancellazione non autorizzate;
- Il diritto all’integrità mentale che avrebbe il fine di proteggere da tutte le intrusioni non autorizzate;
- Il diritto alla continuità psicologica, persegue invece l’obiettivo di proteggere i substrati mentali dell’identità personale da alterazioni inconsce e non consapevoli da parte di terzi attraverso l’uso di neuro-tecnologie invasive o non invasive;
- Il diritto alla libertà cognitiva, infine, che, nella sua dimensione negativa, mira a proteggere l’individuo dall’uso coercitivo e non autorizzato della neuro-tecnologia.
Studiosi come Andrea Lavazza, invece, sostengono la tesi che sia necessario introdurre un solo diritto, quello all’integrità mentale, volto a proteggere padronanza dell’individuo del suo stato mentale e dei suoi dati cerebrali in modo che, senza il suo consenso, nessuno possa leggere, diffondere o alterare tali stati e dati al fine di condizionare l’individuo in un modo[17].
Nel 2021 l’UNESCO affronta realmente il tema sulle questioni etiche della neurotecnologia nel Rapporto del Comitato Internazionale di bioetica dell’UNESCO – IBC.
Il Cile, citato anche dall’UNESCO[18], è stato il primo stato a legiferare in tal senso e cerca di modificare la propria carta costituzionale a tutela dell’attività cerebrale. Attraverso la creazione della Neurorights Foundation[19], infatti, il Cile nel 2021 ha approvato una legge sui neuro-diritti e inserito un nuovo emendamento costituzionale.
“Abbiamo bisogno di nuovi diritti umani? […] I sostenitori dei diritti neurologici sostengono l’introduzione di nuovi diritti umani per proteggere i processi mentali e i dati cerebrali.”[20]
L’ultima pubblica presa d’atto la troviamo nella pubblicazione “I rischi e le sfide delle neurotecnologie per i diritti umani”[21], pubblicato nel 2023 dall’UNESCO, in collaborazione con il Dipartimento di Economia e Diritto dell’Università degli Studi di Milano-Bicocca la State University of New York – SUNY. In tale rapporto vediamo come le entusiasmanti possibilità derivanti dalle neuroscienze hanno spinto a una rapida crescita degli investimenti di business, tanto che le ultime ricerche dimostrano che l’importo totale investito ha raggiunto circa 35 miliardi di dollari nel 2021, con un aumento del 60% rispetto all’anno precedente. Tuttavia, nonostante le infinite opportunità, ci viene ricordato che “se vogliamo raccogliere i benefici collettivi per tutta l’umanità dobbiamo anche affrontare le nuove sfide etiche e dei diritti umani che si presentano con lo sviluppo e la diffusione delle neuro tecnologie.”
Conclusioni
Per citare Francesca Rossi, IBM AI Ethics Global Leader, “serve uno sforzo di consapevolezza e collaborazione per identificare tutti insieme la visione del futuro che vogliamo”[22]. Per citare anche solamente il titolo dell’ultima opera Neuroverso di Guido Scorza, giurista e componente del Collegio del Garante privacy, “Il cervello è nudo.” Domandiamoci, pertanto, se non è davvero il momento per riconfermare e difendere il right to be alone di aristotelica memoria.
Note
[1] Patto internazionale sui diritti civili e politici, Art. 18 – “1. Ogni individuo ha diritto alla libertà di pensiero, di coscienza e di religione. Tale diritto include la libertà di avere o di adottare una religione o un credo di sua scelta, nonché la libertà di manifestare, individualmente o in comune con altri, e sia in pubblico sia in privato, la propria religione o il proprio credo nel culto e nell’osservanza dei riti, nelle pratiche e nell’insegnamento. 2. Nessuno può essere assoggettato a costrizioni che possano menomare la sua libertà di avere o adottare una religione o un credo di sua scelta. 3. La libertà di manifestare la propria religione o il proprio credo può essere sottoposta unicamente alle restrizioni previste dalla legge e che siano necessarie per la tutela della sicurezza pubblica, dell’ordine pubblico e della sanità pubblica, della morale pubblica o degli altrui diritti e libertà fondamentali. 4. Gli Stati Parti del presente Patto si impegnano a rispettare la libertà dei genitori e, ove del caso, dei tutori legali di curare l’educazione religiosa e morale dei figli in conformità alle proprie convinzioni.”, visionabile al link: https://www.ohchr.org/en/instruments-mechanisms/instruments/international-covenant-civil-and-political-rights
[2] Corte Europea dei Diritti dell’uomo, Libertà di Pensiero, di Coscienza E di Religione, Art.9 – “1. Ogni persona ha diritto alla libertà di pensiero, di coscienza e di religione; tale diritto include la libertà di cambiare religione o credo, così come la libertà di manifestare la propria religione o il proprio credo individualmente o collettivamente, in pubblico o in privato, mediante il culto, l’insegnamento, le pratiche e l’osservanza dei di riti. 2. La libertà di manifestare la propria religione o il proprio credo non può essere oggetto di restrizioni diverse da quelle che sono stabilite dalla legge e che costituiscono misure necessarie, in una società democratica, alla pubblica sicurezza, alla protezione dell’ordine, della salute o della morale pubblica, o alla protezione dei diritti e delle libertà altrui.”, visionabile al link: https://www.giustizia.it/giustizia/it/contentview.page?contentId=ART289202&previsiousPage=mg_1_38
https://www.ohchr.org/ en/instruments- mechanisms/instrumen ts/international- covenant-civil-and- political-rights
[3] Jan Christoph Bublitz, http://www.chrisbublitz.de. Freedom of Thought, Academic Research Network, http://freedom-of-thought.org
[4] Nita A. Farahany, Robinson O. Everett Distinguished Professor of Law, Professor of Philosophy, https://law.duke.edu/fac/farahany/ – Nita Farahany https://www.nitafarahany.com
[5] Pasquale Stanzione, Neurodiritti, la libertà e i confini della scienza, 2021, https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9527386
[6] Pasquale Stanzione, Neurodiritti, la libertà e i confini della scienza, 2021, https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9527386
[7] Neuralink, https://neuralink.com
[8] “Neuralink progetta dispositivi connessi da impiantare nel cervello per comunicare con i computer direttamente attraverso il pensiero. Dovrebbero essere utilizzati in prima battuta per aiutare le persone paralizzate o affette da malattie neurologiche. La start-up vuole quindi rendere questi impianti abbastanza sicuri e affidabili da poter essere interventi chirurgici elettivi. Le persone potrebbero quindi pagare qualche migliaio di dollari per dotare il proprio cervello della potenza del computer. Per Elon Musk questi chip devono consentire all’umanità di raggiungere una “simbiosi con l’intelligenza artificiale”, nelle sue parole del 2020 pronunciate alla conferenza annuale dell’azienda.”, Frontiere. Un’azienda di Musk autorizzata a impiantare chip nel cervello, Avvenire.it, 2023, https://www.avvenire.it/agora/pagine/un-azienda-di-musk-autorizzata-a-impiantare-chip-nel-cervello#:~:text=La%20start%2Dup%20Neuralink%20di,chip%20in%20un%20cervello%20umano.
[9] Pause Giant AI Experiments, https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[10] Ibidem
[11] Ibidem
[12] Hertz, N. Neurorights – Do we Need New Human Rights? A Reconsideration of the Right to Freedom of Thought. Neuroethics 16, 5 (2023). https://doi.org/10.1007/s12152-022-09511-0
[13] Tremolada, L., Metaverso, esistono 141 mondi virtuali ma gli investitori puntano sui soliti tre, https://www.ilsole24ore.com/art/esistono-141-mondi-virtuali-ma-investitori-puntano-soliti-tre-metaversi-AExTWdVC
[14] Pasquale Stanzione, Neurodiritti, la libertà e i confini della scienza, 2021, https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9527386
[15] Frontiere. Un’azienda di Musk autorizzata a impiantare chip nel cervello, Avvenire.it, 2023, https://www.avvenire.it/agora/pagine/un-azienda-di-musk-autorizzata-a-impiantare-chip-nel-cervello#:~:text=La%20start%2Dup%20Neuralink%20di,chip%20in%20un%20cervello%20umano
[16] Hertz, N. Neurorights – Do we Need New Human Rights? A Reconsideration of the Right to Freedom of Thought. Neuroethics 16, 5 (2023). https://doi.org/10.1007/s12152-022-09511-0
[17] Hertz, Ibidem.
[18] UNESCO, Chile: Pioneering the protection of neurorights, https://en.unesco.org/courier/2022-1/chile-pioneering-protection-neurorights
[19] The Neurorights Foundation, https://neurorightsfoundation.org/chile
[20] Hertz, N. Neurorights – Do we Need New Human Rights? A Reconsideration of the Right to Freedom of Thought. Neuroethics 16, 5 (2023). https://doi.org/10.1007/s12152-022-09511-0
[21] UNESCO, I rischi e le sfide delle neurotecnologie per i diritti umani, https://unesdoc.unesco.org/ark:/48223/pf0000384185
[22] Rossi, F., Un’AI etica è responsabilità di tutti: le basi per realizzarla, Agenda Digitale.eu, https://www.agendadigitale.eu/cultura-digitale/unai-etica-e-responsabilita-di-tutti-le-basi-per-realizzarla/