Per l’attuale intelligenza artificiale (IA) sussiste, forse, una questione analoga a quella che ha tenuto banco per molto tempo – e continua a essere discussa – in filosofia della scienza, se siano rilevanti nella pratica scientifica i valori che caratterizzano la cultura umana: valori morali, etici, politici, e persino estetici.
Se ci fosse un’importante analogia con l’odierna IA, allora sarebbe il caso di valorizzare la sofisticazione, raggiunta dopo diversi decenni, del dibattito riguardo la scienza. Con una banalizzazione estrema ma utile si può sintetizzare la questione riguardo la scienza in due polarizzazioni. Da un lato si può ritenere che il fine ultimo della scienza, spiegare i fenomeni dell’universo, non dev’essere intralciato da valori che poco hanno a che fare con questo obiettivo. Dal lato opposto si sottolinea come la scienza sia praticata da esseri umani all’interno del loro contesto storico e culturale, pertanto inevitabilmente, e doverosamente, soggetti all’impianto di valori accettato dalla società in cui operano.
Il deep learning diventerà onnipotente? Limiti e prospettive delle reti neurali artificiali
Scienza e valori: un dibattito dalle posizioni sfumate
Naturalmente non è così, le posizioni sono ben più articolate e sfumate, anche i più accesi sostenitori di una scienza svincolata dai valori sanno bene quanto nella realtà, per il semplice fatto che l’impresa scientifica è condotta da uomini, una certa dose del loro sistema valoriale lo influenzerà, e talvolta l’influenza inconsapevole o nascosta di valori può essere peggiore rispetto ad una loro esplicita assunzione. Di converso anche i più appassionati propugnatori di una scienza guidata da valori, sanno come questi ultimi possono porre una serie di gravi pericoli per una buona scienza, per esempio indurre al cosiddetto wishful thinking, ovvero sostenere o respingere un’ipotesi teorica a seconda di come vorremo fosse quel pezzo di realtà che l’ipotesi dovrebbe spiegare.
Ancor più nefaste sono le pressioni esercitate da certi valori nel forzare le teorie scientifiche a compiacerli, a dispetto delle evidenze. Un caso clamoroso sono i finanziamenti di associazioni cattoliche tradizionaliste per ricerche in biologia che confutino l’evoluzionismo, e forniscano qualche supporto al creazionismo. Forse ancor più eclatanti sono le pressioni politiche che il passato governo americano ha esercitato, con il supporto dei comparti economici interessati, per ricerche che sminuissero i rischi derivanti dai cambiamenti climatici. I filosofi a favore di un’integrazione dei valori nella ricerca scientifica obiettano che questi stessi casi aberranti dimostrano la necessità di prendere atto dell’inevitabile dipendenza dell’impresa scientifica da valori, e l’importanza che sia ben valutato di quali valori si tratti, e in che modo e misura siano tenuti in considerazione dagli scienziati.
Cosa c’entra l’IA coi valori della scienza
Prima di addentrarsi nella questione è opportuno però tornare all’IA, e spiegare che cosa c’entri con i discorsi dei valori per la scienza. Se inquadriamo l’IA come una delle tante tecnologie informatiche, ben poco. Mentre la scienza si dedica a spiegare com’è fatto il mondo, le tecnologie invece si preoccupano di cambiarlo, e quindi sono necessariamente intrise dall’etica. Prima ancora di pensare a una tecnologia che produca un certo cambiamento nel mondo, occorre aver stabilito quali cambiamenti sarebbero positivi e quali negativi per l’umanità, e questo pertiene precisamente all’etica. Pertanto, esiste una lunga tradizione di studi sull’etica per le tecnologie, in ambito ingegneristico abbondano le linee guida per la corretta etica professionale, e l’aspetto etico domina l’intera filosofia della tecnologia. In questo genere di studi si sono declinati tutti i possibili gusti della filosofia etica. Per chi si trova a suo agio con il conseguenzialismo, come teorizzato da John Stuart Mill, una nuova tecnologia va valutata sulla base di quanto benessere può produrre, al netto delle sue conseguenze infelici, per esempio l’estinzione di certi tipi di lavoro. I seguaci dell’etica deontologica, che trova in Immanuel Kant il suo fondatore, valuterà una tecnologia per quanto essa rispetti, ed eventualmente migliori, certi imperativi categorici, per esempio nel non ledere la dignità di alcuni individui, o nel concedere loro maggior autonomia. C’è persino chi, come la filosofa americana Shannon Vallor, rispolvera per le tecnologie una dottrina etica andata in disuso, quella delle virtù, risalente ad Aristotele e rintracciabile anche nel buddismo e nel confucianesimo. Vallor introduce una lista di “virtù tecnomorali”, che echeggiano quelle antiche, ma che possono diventare facilmente perseguibili grazie ad opportune tecnologie. Per esempio, il “coraggio tecnomorale” sarebbe la giusta virtù per implementare tecnologie che affrontino i rischi più drammatici, come l’estinzione planetaria. La “onestà tecnomorale” invece troverebbe la sua manifestazione nelle tecnologie per nuove forme di comunicazione.
Etica e intelligenza artificiale
Pertanto, quando in questi ultimi anni l’IA è emersa prepotentemente nello scenario mondiale, e sono emerse diverse questioni di tipo etico, in quanto tecnologia ha trovato un terreno già pronto per porle in discussione. Infatti, ben presto la rivista scientifica assunta a luogo elettivo di discussione etica in IA è stata la prestigiosa Philosophy & Technology, ma a dicembre 2020 è nata una nuova rivista che si chiama proprio AI and Ethics. In pochi anni sono fiorite linee guida etiche per l’IA, l’esperto di etica in tecnologia Thilo Hagendorff, dell’università di Tübingen, ne ha censite ben ventidue, a suo giudizio non troppo efficaci, comunque sintomo della crescente attenzione al problema. Qualcuno inizia persino a considerare ossessiva questa attenzione, come Pedro Domingos, figura storica dell’IA, autore del testo di successo The Master Algorithm, professore emerito all’università di Washington. Domingos ha reagito con insofferenza alle regole imposte nell’edizione 2020 della conferenza Neural Information Processing Systems (NeurIPS), principale appuntamento annuale in IA, che prevedevano la preliminare approvazione di ogni lavoro proposto, da parte di un comitato etico. La sua protesta prese forma di un articolo dal titolo eloquente, We must stop militant liberals from politicizing artificial intelligence.
Non entriamo nel merito della legittimità o meno di questo comitato per filtrare i lavori da approvare alla conferenza NeurIPS, quel che è interessante è il rivendicare da parte di Domingos l’indipendenza della ricerca in IA da valori etico-politici, che ricorda molto da vicino le posizioni dei difensori della scienza dall’ingerenza di valori. Pur essendo l’IA di per se una tecnologia, ha certe caratteristiche peculiari che rendono effettivamente pertinente una parte della questione dei rapporti tra scienza e valori. Per individuare tali caratteristiche occorre preliminarmente circoscrivere l’IA, che comprende al suo interno una notevole pluralità di metodi e di fondamenti teorici, alla sola componente che ne ha decretato l’attuale successo: le reti neurali artificiali, nella loro forma evoluta nota come deep learning.
Deep learning sotto attacco: lo scontro tra razionalisti e empiristi sulla nuova AI
Le reti neurali artificiali sono spesso impiegate in una configurazione che presenta sorprendenti analogie con scopi e persino metodi della pratica scientifica. L’uscita della rete può rappresentare una predizione riguardo certi stati del mondo, effettuata sulla base di alcuni indizi osservabili. Il modo per ottenere queste preziose prestazioni da una rete neurale, ricalcano il procedere della ricerca scientifica empirica, sfruttando pregresse osservazioni sia degli indizi che del fenomeno che si intende predire. In questa modalità di impiego le reti neurali artificiali assecondano quella che oggi viene considerata la funzione prevalente dei loro cugini biologici. Trovano sempre maggior condivisione le teorie di Karl Friston, neuroscienziato della University College London, secondo cui il cervello è una sorta di continua macchina predittiva, che genera inferenze su stati dell’ambiente circostante, partendo da percezioni sensoriali. Così come il cervello si impegna in una sorta di teoria scientifica di com’è fatto il mondo, per poterlo prevedere e agire di conseguenza, anche alcuni modelli deep learning costituiscono in piccolo un’implicita impresa scientifica, nel prevedere fatti del mondo.
Scienza, valori e filosofia: da Hume a Hempel
Trova quindi consistenza il parallelismo con la questione dei valori in scienza, quindi niente di strano che alcuni, come Domingos, vogliano rivendicare anche per l’IA una neutralità da ingerenze valoriali. Tornando alla scienza, l’idea che debba avere poco a che fare con i valori ha una radice filosofica lontana e profonda, nel pensiero del filosofo empirista David Hume. La sua osservazione, divenuta presto un famoso slogan, è che non si può dedurre nessun ought (obbligo) da degli is (fatti). Se si danno per buone certe leggi del moto, è possibile dedurre che un pianeta abbia orbita ellittica. Ma da nessuna legge di natura e da nessun tipo di fatto del mondo sarà possibile dedurre qualcosa che implica valori, per esempio che è sconveniente mettersi le dita nel naso, o che rubare è un’azione riprovevole. Questo non esclude poter effettuare deduzioni logiche di valori, se per esempio si assume che occorre evitare in pubblico azioni che inducano disgusto, e che il mettersi le dita nel naso un certo disgusto può indurlo, allora si può dedurre che sia sconveniente mettersi le dita nel naso. Ma la deduzione è possibile perché le premesse contenevano già almeno un ought, quel che Hume trova impossibile è transitare da una serie, per quanto articolata, di is, ad un solo ought. Una volta tracciata una barriera invalicabile tra valori e fatti, se la scienza, come abitualmente, si occupa solo di fatti, i valori non c’entrano.
Il punto di Hume ha influenzato profondamente l’intera filosofia occidentale, anzitutto quella morale, ma anche la filosofia della scienza. Alla luce di esso risalta l’estraneità di valori di ordine politico, etico, morale rispetto alla scienza. Tuttavia, il semplice fatto che la scienza sia operata da scienziati, la rende soggetta almeno ad un tipo particolare di categoria valoriale. Anche il più puro degli scienziati, per esempio un biologo evoluzionista che non si faccia tentare dai finanziamenti delle ricche associazioni fondamentaliste cattoliche, o un climatologo che rifugga alle lusinghe delle potenti lobby petrolifere, cercheranno di assecondare una categoria molto particolare di valori. Darà valore anzitutto al grado di verità che possano avere le sue teorie, poi all’adeguatezza e completezza delle spiegazioni, alla consistenza delle proprie teorie rispetto ad un quadro scientifico più ampio, alla semplicità di eventuali formulazioni matematiche, e l’elenco potrebbe continuare a lungo. Sono i valori denominanti “epistemici”, che sono del tutto congeniali ad una buona scienza.
Vi sono principalmente due tipologie di ricerca scientifica, quella basata su formulazioni e deduzioni matematiche, e quella basata su esperimenti empirici. Per esempio, in fisica seguono la prima strada i proponenti della teoria delle stringhe, un vero e proprio mistero per i non addetti ai lavori, mentre seguono la seconda quelli che tentano di decifrare cosa succede negli scontri tra particelle minuscole ma di grandi energie nel Large Hadron Collider di Ginevra. Su quest’ultima categoria grava un’altra delle geniali ma pesanti considerazioni di Hume, nota come “problema dell’induzione”. Qualunque teoria scientifica basata su evidenze empiriche, deve credere che in futuro certe cose vadano come in passato, quelle cose che riguardano il fenomeno, oggetto della teoria. Ma non può esistere certezza a riguardo. Proprio l’inevitabile incertezza insita in ogni procedimento induttivo apre il varco a valori, non più strettamente epistemici, che trovano giustificazione nel cosiddetto “argomento del rischio induttivo”, già sollevato mezzo secolo fa da uno dei padri della filosofia della scienza, Carl Hempel. Consapevole che la sua teoria scientifica, derivante da osservazioni oggettive, non ha certezze assolute, uno scienziato dovrebbe porsi il problema di quali conseguenze sociali potrebbero avere i suoi possibili errori predittivi. Nel soppesare quanta credibilità attribuire ad un risultato scientifico, ecco quindi rispuntare valori di tipo etico, sociale, politico.
Gli esempi della pandemia in corso
Vengono fin troppo facili esempi dall’attuale pandemia. Nello studio sugli effetti collaterali di un nuovo vaccino per il Covid, evidenze empiriche che indicano come trascurabile la correlazione tra vaccino e qualche pericolosa patologia, vanno prese con le pinze, e la loro accettazione va soppesata pensando alle possibili conseguenze nell’impiego di massa di tale vaccino.
I modelli neurali artificiali, nell’assomigliare ad impliciti gruppi di scienziati, aderiscono senza remore al metodo empirico, afflitto dal problema induttivo, e sono pertanto pienamente soggetti all’argomento del rischio induttivo. C’è di buono che, parlando di valori, la discussione in IA può avvalersi della sofisticazione teorica che si è accumulata riguardo la scienza. La filosofa Heather Douglas, dell’università del Michigan, ha focalizzato i suoi studi interamente sull’argomento del rischio induttivo, ed è oggi una delle più autorevoli studiose. Tra i diversi suoi contributi c’è l’analisi di quali ruoli siano accettabili e quali indesiderabili nel far intervenire valori non epistemici, a fronte del rischio induttivo. Sono accettabili ruoli in cui i valori dettino quali standard dover assumere per considerare evidenze empiriche sufficienti, in funzione di determinati possibili ripercussioni socioeconomiche di tali assunzioni. Sono viceversa da respingere gli utilizzi di valori nello spostare evidenze, sia nel rigettare evidenze che sarebbero sfavorevoli, oppure generare ad arte evidenze favorevoli per quei valori.
Vi sono anche posizioni che sostengono comunque la neutralità della scienza, pur di fronte al rischio induttivo, uno dei principali esponenti ne è Gregor Betz del Karlsrhue Institut of Technology. Secondo Betz in una condizione di politiche genuinamente democratiche la scienza non ha nessuna necessità di dover adottare valori non epistemici, in quanto il rischio induttivo può venire interamente esplicato, in modo oggettivo, abbinando alle evidenze gli opportuni indicatori sul margine di incertezza. È compito poi della politica abbinare evidenze e misure di incertezze nel formulare le decisioni che dipendono dalle evidenze scientifiche, tenendo conto delle conseguenze sociali del rischio.
Modelli di IA e rischi induttivi
Non entriamo nel merito di questa posizione per la scienza, essa risulta in genere inapplicabile per modelli deep learning. Spesso, infatti, tali modelli non offrono un livello separato tra previsione, correlata con misura di incertezza, e poi decisione sulla base di tali dati, ma il tutto è incorporato in un unico algoritmo. Caso tipico sono i sistemi di riconoscimento di volti, esposto precedentemente, in cui è il software a decidere se una persona, per esempio ripresa da un sistema di videosorveglianza, corrisponda ad un individuo presente nel database. Questi sistemi hanno mostrato una pericolosa deriva di falsi positivi nel caso di individui di colore.
Altri esempi di modelli IA con deleteri rischi induttivi sono quelli impiegati per valutare la tendenza alla recidiva di persone soggette a processo. Negli USA la pena viene calcolata tenendo in considerazione questa tendenza, uno dei modelli più diffusi è il Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) della Equivant, azienda americana specializzata in software nel settore forense. Il filosofo Justin Biddle ha analizzato come COMPAS sia afflitto dal rischio induttivo, aggravato proprio dal non permettere una distinzione tra il livello della predizione e relativa misura di incertezza, e il livello della decisione. Il responso di COMPAS è semplicemente un voto tra 1 e 10, con valori tra 8 e 10 indicanti elevata tendenza alla recidiva, tra 5 e 7 tendenza media. Una delle evidenti storture di questo modello deriva dalla selezione dei dati empirici, che per poter essere in numero elevato, sono tutti quelli disponibili da precedenti incarcerazioni. Pertanto, o non vi sono differenze rispetto all’esito del processo a carico di chi è in carcere. Data la ovvia disparità tra la popolazione nel suo complesso e quella carceraria, quest’ultima con una percentuale più ampia di classi disagiate, la conseguenza è che nel processare un individuo, la sua tendenza alla recidiva risulta automaticamente più alta se appartiene ad una classe disagiata. In un circolo vizioso questo indurrà il giudice ad emettere una sentenza con più anni di carcere, rinforzando così lo stesso pregiudizio automatico nei prossimi aggiornamenti del modello.
Conclusioni
In definitiva si ritiene quindi che, in aggiunta alle dovute riflessioni attualmente in corso sui risvolti etici dell’IA in quanto tecnologia, sarebbe utile considerare la sua singolare somiglianza con la pratica scientifica, e sfruttare pertanto la stratificata riflessione sui valori in scienza, in particolare nell’ambito del rischio induttivo, anche per l’IA.