Nel maggio 2023 la Food and Drugs Administration statunitense ha dato l’autorizzazione per la sperimentazione sugli umani degli impianti cerebrali prodotti dalla start-up Neuralink di Elon Musk.
Gli enormi progressi che sono stati fatti nell’ultimo anno nel settore dell’Intelligenza Artificiale stanno portando a un salto di qualità anche delle neurotecnologie, che incorporando IA come, ad esempio, i LLM hanno ottenuto dei risultati al limite del fantascientifico.
Oggi sembra del tutto ipotizzabile un futuro, nemmeno troppo lontano, in cui sarà possibile restituire la parola a persone paralizzate o con gravi problemi cerebrali (ad esempio a seguito di ictus).
Tuttavia, non mancano le preoccupazioni legate a diverse applicazioni di queste tecnologie, come l’eventualità che vengano usate per carpire informazioni a individui anche contro la loro volontà, o per manipolare il comportamento umano.
Lo scorso giugno queste tematiche sono emerse nella conferenza internazionale dell’UNESCO, con l’obiettivo di porre le basi per un framework etico da applicare in questo settore a livello globale. Già nel dicembre del 2021 l’International Bioethics Committee (IBC) dell’UNESCO aveva pubblicato un report intitolato “Ethical Issues of Neurotechnology”, che ancora si rivela attualissimo nelle problematiche sollevate.
Impianti cerebrali e IA
Le possibilità date dalle neurotecnologie, compresi gli impianti cerebrali, sono moltissime: dall’aumento delle capacità umane, con un potenziamento della persona fino a renderla un vero e proprio cyborg, all’ausilio di chi è affetto da disabilità o danni neurologici. Vi sono poi applicazioni più prettamente ludiche: pensiamo, ad esempio, alla possibilità di controllare un proprio avatar in un metaverso tramite un impianto cerebrale che consente anche di interagire con il mondo virtuale in un modo del tutto realistico per la persona che lo utilizza.
L’Intelligenza Artificiale in tutto questo sta assumendo un ruolo fondamentale: consente di decifrare i dati raccolti nell’osservazione delle attività cerebrali (che avvenga tramite un chip impiantato, come prova a fare Neuralink, o tramite scan più tradizionali) trasformandole in parole comprensibili. Ad esempio, grazie a degli impianti cerebrali potenziati con l’IA i ricercatori di una Università olandese sono riusciti a tradurre in parlato udibile quello che avrebbero voluto dire alcuni pazienti affetti da un blocco della parola, con una precisione del 92%.
I modelli linguistici come GPT in questo forniscono un ulteriore ausilio: è un po’ come se adesso potessimo contare su un interprete simultaneo quando proviamo a dialogare con una persona che non può usare la voce.
Dubbi etici
Come dicevamo in apertura di questo contributo, già alla fine del 2021 l’International Bioethics Committee dell’UNESCO poneva alcuni dubbi etici in relazione alle neurotecnologie, compresi gli impianti cerebrali.
In generale, quando si va a incidere in qualche modo sul pensiero degli individui è inevitabile che sorgano questioni legate alla libertà, all’autonomia e alla tutela dell’identità della persona. In particolare, con le neurotecnologie viene messo a rischio il diritto fondamentale alla libertà di pensiero e con esso, poiché sono strettamente connessi, la dignità umana. Infatti, è possibile andare oltre l’utilizzo in campo medico e immaginare un impiego delle neurotecnologie anche in settori, come quello legale, in cui fino ad oggi l’impossibilità di accedere alla sfera interna dell’individuo ha posto, di fatto, delle difficoltà.
Pensiamo, ad esempio, all’uso di neurotecnologie per stabilire se un individuo sottoposto a interrogatorio sta dicendo la verità. Non solo: l’analisi delle onde cerebrali darebbe la possibilità di indagare le intenzioni delle persone, anche a livello subconscio. Si apre così la strada a intrusioni, più o meno giustificate, nella parte più intima e fino ad oggi imperscrutabile dell’individuo. Questo fenomeno ci costringe quindi se non altro a mettere in discussione i paradigmi giuridici sviluppati fino ad ora e che erano adatti a una società in cui il pensiero inespresso e le intenzioni delle persone non erano accessibili senza il consenso del soggetto interessato (potevamo basarci con certezza solo sulle conseguenze esteriori: dichiarazioni e comportamenti) né tantomeno erano dimostrabili a livello scientifico.
Andando ancora oltre, non è possibile escludere la possibilità che queste nuove tecnologie arrivino a consentire una vera e propria manipolazione delle funzioni cerebrali, specialmente se vengono utilizzati impianti inseriti nel cervello delle persone. Da qui nascono ulteriori problemi legati alla tutela della personalità e della libertà di azione.
Nel report dell’IBC si legge che alcuni studiosi suggeriscono di creare un nuovo tipo di libertà: la libertà cognitiva, che protegga l’individuo da ingerenze esterne nei suoi pensieri. Viene ipotizzato un nuovo “habeas cogitandi o mens” per garantire il quale assumerebbero rilevanza centrale il consenso informato, la proporzionalità e varie garanzie di confidenzialità (come l’anonimizzazione), similmente a quello che già avviene per la tutela dei dati personali.
Onde cerebrali e dati personali
Anche per quanto riguarda la data protection l’utilizzo delle neurotecnologie pone alcuni problemi non di poco conto.
I dati raccolti dalle analisi delle onde cerebrali non solo sono dati personali che rientrano a pieno titolo nella definizione data dall’articolo 4 del GDPR, ma sono così strettamente connessi con gli aspetti più intimi della personalità degli individui che andrebbero fatti rientrare come minimo tra i dati particolari (tra i quali con il GDPR sono stati inseriti anche i dati biometrici e i dati genetici, che come quelli cerebrali sono inscindibili da caratteristiche fisiche della persona), se non addirittura in una nuova e ancora più tutelata categoria.
L’accesso a questo tipo di informazioni consente infatti una ingerenza estremamente rischiosa nella sfera privata dell’individuo. Inoltre, abbiamo visto negli ultimi anni come i dati comportamentali rappresentino una risorsa preziosissima per le aziende, che li sfruttano per finalità di marketing e di profitto, per non parlare delle possibili distorsioni dell’ordine democratico a cui abbiamo già assistito a livello eclatante nel caso di Cambridge Analytica. Non è difficile immaginare come il trattamento dei dati cerebrali porterebbe all’estremo queste distorsioni.
Sviluppo dei minori e neurotecnologie
Nel caso dei minori non solo vale quanto detto fin qui sulle problematiche di tutela della libertà, della identità, dei dati, ma è necessario porsi ulteriori problemi legati al fatto che siamo di fronte a soggetti la cui personalità è ancora in fase di sviluppo e, quindi, facilmente manipolabile. Sarebbe quindi necessario pensare a ulteriori garanzie, se non addirittura a dei divieti di utilizzo di neurotecnologie, specialmente se impiantate, per tutelare i più giovani.
Manipolazione delle persone vulnerabili, impianti cerebrali e AI Act
Nella proposta di Regolamento europeo sull’Intelligenza Artificiale (AI Act) approvata dal Parlamento lo scorso giugno sono inseriti tra i sistemi di IA vietati (rischio inaccettabile) quelli che consentono la manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici. Invece, i dispositivi medici potenziati con IA (come potrebbero essere gli impianti cerebrali) rientrerebbero nella categoria di sistemi ad alto rischio.
Tuttavia, la bozza di Regolamento nel momento in cui si scrive questo contributo è ancora in fase di trilogo e non è da escludere che le notizie sulle nuove sperimentazioni di neurotecnologie integrate con l’IA possano portare a qualche previsione più specifica.