Alcuni recenti sviluppi a livello internazionale e dell’UE sembrano mostrare un cambiamento nell’atteggiamento verso la scienza e le sue applicazioni (innovazione).
È un cambiamento ancora da comprendere e che sembra indicare una riduzione del tasso d’ideologia nell’affrontare il tema di come gestire la scienza e la tecnologia nelle nostre società e come godere dei benefici delle loro conquiste evitando conseguenze indesiderate.
È un tema al centro dell’agenda politica internazionale e una delle principali preoccupazioni nella società e nella ricerca accademica. Qui di seguito una rapida sintesi dei segnali di evoluzione in corso e alcune considerazioni.
L’intelligenza artificiale made in Ue è davvero “umano-centrica”? I conflitti della proposta
Approccio basato sul rischio, i documenti che ridisegnano il rapporto con la scienza
Il documento più importante, da cui partire, è la Risoluzione adottata dall’Assemblea Generale delle Nazioni Unite il 6 luglio 2017, che definisce gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite (SDGs).
Gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite
Nella Risoluzione la scienza e l’innovazione tecnologica sono considerate strumenti indispensabili per realizzare obiettivi sostenibili in alcune aree specifiche, come la necessità di regolare efficacemente i raccolti e porre fine alla pesca eccessiva, alla pesca illegale, non dichiarata e non regolamentata, e alle pratiche di pesca distruttive e attuare piani di gestione basati sulla scienza (Obiettivo 14.4) o di migliorare la cooperazione regionale e internazionale Nord-Sud, Sud-Sud e triangolare sulla scienza, la tecnologia e l’innovazione e l’accesso alla stessa o di migliorare l’uso delle tecnologie abilitanti, in particolare la tecnologia dell’informazione e della comunicazione (Obiettivo 17). La scienza e la tecnologia sono, inoltre, coinvolte nella promozione di una ” inter-agenzia delle Nazioni Unite su scienza, tecnologia e innovazione per gli Obiettivi di sviluppo sostenibile, un forum collaborativo multi-stakeholder su scienza, tecnologia e innovazione per gli Obiettivi di sviluppo sostenibile e una piattaforma online” (Par. 70).
In generale, essa appare come un tentativo di regolamentazione basata sul rischio o tesa a promuovere “la resilienza e la riduzione del rischio di catastrofi“. In alcune parti, il concetto di rischio è usato in un senso più generico, dicendo che “lo sviluppo sostenibile non può essere realizzato senza pace e sicurezza; e la pace e la sicurezza saranno a rischio senza sviluppo sostenibile”. Nell’Obiettivo 3, si parla di “protezione dai rischi” e della capacità di tutti i paesi, in particolare quelli in via di sviluppo, di attuare l’allerta precoce, la riduzione dei rischi e la gestione dei rischi sanitari nazionali e globali. Nell’Obiettivo 11 si parla di gestione olistica del rischio di catastrofi a tutti i livelli.
Il Sixth Assessment Report of the Intergovernmental Panel on Climate Change
Un altro documento importante ha natura più tecnica. Nell’estate del 2021 il Working Group I ha consegnato il suo sesto rapporto: Sixth Assessment Report of the Intergovernmental Panel on Climate Change. Il documento utilizza esplicitamente un approccio basato sul rischio: “Le trame del clima fisico sono complementari agli approcci probabilistici o basati sul rischio incondizionato, e sono particolarmente adatte per esplorare i cambiamenti o gli eventi a bassa probabilità, che sono spesso associati ai maggiori impatti. Facilitano anche la fornitura di un contesto locale alle tendenze e ai cambiamenti su larga scala, condizionando le proiezioni su circostanze rilevanti a livello locale”. Gli autori definiscono l’approccio nei seguenti termini: “Un approccio comunemente usato, spesso chiamato in letteratura approccio basato sul rischio [risk-based approach] e qui indicato come ‘approccio basato sulla probabilità’ [probability-based approach], porta ad affermazioni come ‘il cambiamento climatico antropogenico ha reso questo tipo di evento due volte più probabile’ o ‘il cambiamento climatico antropogenico ha reso questo evento il 15% più intenso'”.
Se ci si sposta in un campo diverso, quello dell’Intelligenza artificiale, e in un’area geografica più limitata, si può trovare un approccio simile. La proposta di regolamento europeo EU Artificial Intelligence Act (proposta ad aprile 2021) è fortemente basata su un “approccio proporzionato basato sul rischio” (p.3) che è usato come chiave fondamentale per affrontare “varie fonti di rischio attraverso un approccio chiaramente definito basato sul rischio [risk-based approach]”, che è il criterio guida per le strategie di regolamentazione da attuare o no.
La Raccomandazione Unesco sull’Etica dell’intelligenza artificiale
Infine, il testo della Raccomandazione UNESCO sull’Etica dell’intelligenza artificiale, approvato dall’Assemblea generale a novembre 2021, utilizza come concetto cruciale quello di rischio, usando come principale parametro di riferimento i diritti fondamentali e umani.
Principio precauzione e della Responsible research and innovation, questo sconosciuto
I testi su riportati hanno diverse aree geografiche di riferimento. Alcuni (quelli su base ONU) hanno portata globale, mentre la proposta di Regolamento EU riguarda solo l’Europa. Diverso è anche il valore (si potrebbe dire il peso) giuridico, visto che un conto è un Gruppo di lavoro tecnico (la cui autorità poggia sulla correttezza tecnica dei suoi assunti e sull’investitura che il gruppo ha ricevuto) e un conto una Risoluzione ONU, e un altro conto ancora è una Raccomandazione, come quella UNESCO, che certo non è vincolante, ma ha un valore normativo superiore a una mera Dichiarazione. Infine, è ben diverso un Regolamento EU, che, come si sa, una volta approvato è direttamente legge per tutti gli stati dell’Unione.
Tuttavia, e messe in conto tutte le differenze, essi hanno in comune un aspetto importante: essere centrati sul concetto di rischio, talora in una sua accezione generica, di linguaggio comune, e altre volte come idea tecnica, basata sulla probabilità (nel caso del Working group I) oppure come criterio dirimente nella scelta se introdurre nuove regole giuridiche, come il risk-based approach della Proposta di Regolamento EU sull’Intelligenza artificiale.
Essi hanno in comune anche il fatto di non citare il Principio precauzione e la formula della Responsible research and innovation (RRI)[1].
La risoluzione ONU non cita mai né il Principio di precauzione, né la Ricerca e innovazione responsabile (RRI), mentre il concetto ampiamente utilizzato è quello di rischio, in diverse accezioni e combinazioni. In tutto lo EU Artificial Intelligence Act l’innovazione responsabile (RRI) è menzionata solo due volte (pp. 11 e 34) e in un modo che pare non decisivo, mentre il Principio/approccio precauzionale non è mai menzionato. E quest’ultima assenza del Principio precauzione in un testo normativo europeo stride con il fatto che la UE ha introdotto il Principio nel Trattato sul funzionamento dell’unione, conferendogli così un valore normativo che va ben oltre una mera indicazione politica: “Union policy on the environment[…] shall be based on the precautionary principle and on the principles that preventive action should be taken […]”.[2]
È presto per dirlo, ma questi quattro esempi potrebbero indicare una tendenza che, per essere compresa, richiede una minima ricostruzione del sorgere ed affermarsi del Principio precauzione e della RRI.
Quella oscillazione tra “principio” e “approccio”
La Dichiarazione di Rio del 1992 sull’ambiente e lo sviluppo afferma che: “In order to protect the environment, the precautionary approach [enfasi aggiunta] shall be widely applied by States according to their capabilities. Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation”.
Fin dall’inizio, la dichiarazione è affetta da quella che si potrebbe dire un’incertezza lessicale. Infatti, mentre tutto il documento è diviso in “Principi”, di cui il 15° introduce il concetto di precauzione, nel testo la parola usata non è “principio” di precauzione ma “approccio” (precautionary approach).
L’oscillazione tra “principio” e “approccio” ha alimentato due posizioni principali: quella che, in forza del “principio”, ha sostenuto politiche più severe di “non fare” se non vi è certezza scientifica di non nuocere all’ambiente e, all’opposto, quella che ha sostenuto che un “approccio” precauzionale non è altro che un invito a un atteggiamento prudente. Insomma, i principi sono entità difficilmente negoziabili e possono, quindi, avere anche un effetto paralizzante, mentre la prudenza non esclude la possibilità di agire, verificando in fieri la loro nocività e altri fattori di rischio. Di fatto, anche nell’UE il principio si è dimostrato poco gestibile e in tempi più recenti sembra essere maturato un atteggiamento che ammorbidisce la rigidità del principio, affermando che anche “non fare nulla” può essere rischioso e che il Principio di precauzione può cambiare nel tempo: insomma una sorta di principio debole, che finisce per essere simile a un approccio[3].
L’idea di Ricerca e innovazione responsabile
L’idea di Ricerca e innovazione responsabile è, invece, una creazione più recente della Commissione europea. Essa “significa che gli attori sociali lavorano insieme durante l’intero processo di ricerca e innovazione per allineare meglio sia il processo, sia i suoi risultati, con i valori, i bisogni e le aspettative della società europea”[4]. Radicata in precedenti discussioni sulle implicazioni etiche, legali e sociali (ELSI) dell’attività scientifica, l’idea mira a colmare il divario tra la comunità scientifica e la società in generale e viene dopo precedenti programmi e idee che miravano a stabilire una migliore connessione con la società. L’evoluzione è descritta come segue: “Nel 2001, il piano d’azione ‘Scienza e società’ è stato lanciato per definire una strategia comune per stabilire una migliore connessione tra la scienza e i cittadini europei. Nel 2007, nell’ambito del settimo programma quadro per la ricerca e lo sviluppo tecnologico (FP7), ‘Scienza e società’ è diventato ‘Scienza nella società (SiS)’ con l’obiettivo principale di promuovere l’impegno pubblico e un dialogo bidirezionale sostenuto tra scienza e società civile. Questo sforzo è perseguito nell’ambito della parte V ‘Scienza con e per la società’ di Horizon 2020”[5].
Infine, dal 2010 prende forma l’idea di Ricerca e innovazione responsabile (RRI) e si compone di sei dimensioni:
- Public Engagement (PE);
- Uguaglianza di genere;
- Educazione scientifica;
- Scienza aperta;
- Etica, come modo per garantire risultati di alta qualità;
- sviluppo di modelli di governance armoniosi che “integrano l’impegno pubblico, la parità di genere, l’educazione scientifica, l’accesso aperto e l’etica”.
Solo due brevissime osservazioni sulla RRI. Vale la pena notare come l’idea di Public Engagement, come “co-creazione del futuro mettendo insieme […] ricercatori e innovatori, industria e PMI, decisori politici, organizzazioni non governative (ONG), organizzazioni della società civile e cittadini”, sembra relegare i ricercatori (mentre la posizione degli innovatori potrebbe essere diversa) alla posizione di co-autori, senza una maggiore considerazione della loro specifica attività. In altre parole, se il dialogo tra scienziati e società e l’impegno pubblico sono giustamente considerati un valore, l’equiparazione formale di scienziati (cioè specialisti della ricerca), innovatori e cittadini (che legittimamente possono avere diversi background e specializzazioni nella loro vita) sembra qualcosa che, se non adeguatamente chiarito, può creare pericolosi equivoci. All’origine c’è l’idea che non vi sia una differenza sostanziale tra la ricerca scientifica (come attività che espande la conoscenza del mondo) e l’innovazione (come applicazione sociale della conoscenza scientifica acquisita).
La seconda osservazione riguarda quali campi scientifici sono all’origine di un tale atteggiamento nell’UE. Le aree più rilevanti e problematiche riguardano la genetica umana, gli OGM, la biologia sintetica, la geoingegneria e le TIC: “Questi hanno catalizzato una crescente volontà a livello politico di discutere, sfidare e ripensare i modelli lineari di politica scientifica e il contratto sociale per la scienza (in cui la libertà scientifica è scambiata con la promessa o l’aspettativa di impatti socialmente benefici) e la regolamentazione basata sul rischio come paradigma predominante di governance dell’innovazione”[6].
Qui si traccia uno scenario che mette in discussione il tradizionale principio della libertà di ricerca scientifica (consacrato nelle Costituzioni del secondo dopoguerra), e che marca una cesura netta con la regolamentazione basata sul rischio, che è quella che invece sembra riemergere nella lista di documenti dai quali siamo partiti.
La rinascita di un approccio basato sul rischio è senza problemi?
Naturalmente lo spostamento del focus dalla precauzione e dalla RRI al rischio, comunque lo si valuti e quali che ne siano le ragioni, non significa che i problemi si sciolgano come neve al sole.
Già la definizione di rischio ha i suoi problemi, così come le sue implicazioni etiche (e anche filosofiche) e giuridiche. Secondo una definizione di base, il rischio può essere considerato come “il prodotto della probabilità di un evento indesiderabile e l’effetto di questo evento”[7].
Complessi bilanciamenti devono essere effettuati. Per esempio, è certamente desiderabile mantenere il rischio tecnologico il più basso possibile, perché più alto è il rischio, più grande è la probabilità che si verifichi un evento indesiderabile. La riduzione del rischio è quindi un obiettivo importante nello sviluppo tecnologico e nei codici etici dell’ingegneria.
Ma ci si può chiedere se la riduzione del rischio sia sempre praticabile o desiderabile. Perché in alcuni casi non è fattualmente possibile ridurre il rischio, perché mancano prodotti sicuri o tecnologie assolutamente sicure. Oppure può accadere che la riduzione del rischio sia praticabile ma non accettabile da un punto di vista morale. I costi o i prodotti più sicuri possono essere difficili da usare, o essere più costosi o meno sostenibili. Questa lista di possibilità e di scelte ci pone davanti alla domanda: “Cos’è abbastanza sicuro? Cosa rende un rischio (in)accettabile?” [8]
Nell’analisi dei rischi si pone un duplice problema: quali siano i rischi che devono essere valutati con priorità e quale sia il grado di prova ritenuto necessario per stabilire che vi sia un rischio. Due sono i principali errori in agguato: stabilire che vi sia un rischio, quando in realtà esso non vi sia, oppure concludere erroneamente che non vi sia alcun rischio mentre in realtà esso esiste.
Nella valutazione del rischio, le questioni diventano quella dell’accettabilità di un rischio, confrontandolo con altri rischi (tecnologici o naturali) o con determinati standard. Può essere fatta anche una ponderazione rischi-costi-benefici, che si basa sul porre a confronto i rischi rispetto ai benefici di un’attività. Per esempio, un criterio che può rendere accettabile un rischio può essere il consenso delle persone che sono coinvolte, a patto che siano state adeguatamente informate su questi rischi. Ma, come è stato fatto notare, “l’esposizione di una persona a un rischio è accettabile se e solo se questa esposizione è parte di un sistema sociale equo di assunzione del rischio che funziona a suo vantaggio”.
L’approccio basato sul rischio è criticato sotto diversi profili. Il primo è che talora non abbiamo la conoscenza per valutare in modo affidabile i rischi di una nuova tecnologia prima che sia entrata in uso, perché non conosciamo la probabilità che qualcosa possa andare male, e a volte non sappiamo nemmeno, o almeno non completamente, cosa potrebbe andare male e quali potrebbero essere le possibili conseguenze negative. Qui è rilevante bilanciare questa ignoranza con il rischio della “non azione”. Una possibilità è quella di concepire l’introduzione di una nuova tecnologia nella società come un esperimento sociale, che potrebbe essere moralmente accettabile solo in presenza di alcune condizioni. Altri critici fanno notare che di solito vengono considerati solo gli impatti relativi alla sicurezza e alla salute, che possono essere calcolati come rischi, mentre gli impatti “soft”, per esempio di natura sociale o psicologica, vengono trascurati, impoverendo così la valutazione morale delle nuove tecnologie.
Un approccio basato sul rischio maturo e partecipato
L’ampia lista di interrogativi e di aspetti appena elencati ci dice chiaramente che quella che appare una rinascita di un approccio basato sul rischio è una via tutt’altro che priva di aspetti problematici. Certo, essa può avere il vantaggio di essere una prospettiva più pragmatica se messa a confronto con certi usi del Principio precauzione o della RRI.
Da questo punto di vista potrebbe essere preferibile, a patto che vengano rispettate due condizioni. In primo luogo, si sviluppi una capacità di adottare modelli decisionali complessi e flessibili, che tengano conto di una pluralità di fattori, come la specifica tecnologia di cui si parla e il tipo di suo uso, la distribuzione degli effetti nello spazio e nel tempo, la popolazione coinvolta, il tipo di lesioni potenziali e molti altri aspetti. E, in secondo luogo, a patto che si assuma una chiara scala di diritti e libertà che guidino le scelte indicando la giusta via. Significativo che lo EU Artificial Intelligence Act assuma come proprio criterio la Carta dei diritti fondamentali dell’Unione europea e la Raccomandazione UNESCO sull’Etica dell’intelligenza artificiale assuma la Dichiarazione universale dei diritti umani (1948) e successivi documenti, e una conferma che approccio basato sul rischio non è uguale ad approccio eticamente (e giuridicamente) indifferente.
Ne emerge un processo decisionale molto complesso che, a pieno titolo, rientra nello sviluppo di una società democratica.
Note
- Per un programma di ricerca sulla storia di questi argomenti si veda A. Santosuosso, M. Tomasi, Scientific Knowledge and Social Responsibility, in E. Valdes- J.A. Lecaros, Handbook of Bioethical Decisions, Springer, in stampa. ↑
- Article 191 (2) of the Treaty on the Functioning of the EU, 26.10.2012 Official Journal of the European Union C 326/47: Consolidated Version of The Treaty on The Functioning of The European Union. ↑
- Si veda Science for Environment Policy (2017) The Precautionary Principle: decision making under uncertainty. Future Brief 18. Produced for the European Commission DG Environment by the Science Communication Unit, UWE, Bristol. ↑
- Directorate-General for Research and Innovation (European Commission), Responsible Research and Innovation. Europe’s ability to respond to societal challenges, European Union, 2014 (19 September), disponible presso https://op.europa.eu/en/publication-detail/-/publication/2be36f74-b490-409e-bb60-12fd438100fe. ↑
- Directorate-General for Research and Innovation (European Commission), Responsible Research and Innovation. Europe’s ability to respond to societal challenges, European Union, 2014 (19 September), disponible presso https://op.europa.eu/en/publication-detail/-/publication/2be36f74-b490-409e-bb60-12fd438100fe. ↑
- R. Owen-Phil. Macnaghten, Responsible Research and Innovation: From Science in Society to Science for Society, with Society, in Science and Public Policy · December 2012, DOI: 10.1093/scipol/scs093. See also Blaauw, C.B., J.J. van den Dobbelsteen, F.W. Jansen, & J.H. Hubben, 2014, “Privacy Aspects of Video Recording in the Operating Room”, in J. van den Hoven, N. Doorn, T. Swierstra, B.-J. Koops, and H. Romijn (eds.), Responsible Innovation 1, Dordrecht: Springer, pp. 293–300. ↑
- Franssen, Lokhorst, van de Poel, Filosofia della tecnologia, Autumn 2018, Stanford Encyclopedia of Philosophy. ↑
- Franssen, Lokhorst, van de Poel, Filosofia della tecnologia Autumn 2018, Stanford Encyclopedia of Philosophy (da questo paper sono tratte le citazioni da qui in avanti di questo paragrafo). ↑