Giudizi e decisioni che hanno effetti rilevanti sulle vite di esseri umani sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. In settori quali quello giudiziario, dei servizi finanziari, dell’educazione, dei servizi sociali o del reclutamento del personale, l’uso di sistemi di apprendimento automatico (machine learning) nei processi di valutazione e decisione ha dato luogo a esiti ingiusti, nocivi e assurdi – come documenta una letteratura ormai sterminata – con conseguenze che si riverberano a lungo, talora per anni, sulle vite delle vittime.
L’etica dell’intelligenza artificiale è solo una narrazione interessata
Non si tratta di malfunzionamenti occasionali, scongiurabili con interventi tecnici. Gli esiti ingiusti e assurdi derivano dall’impiego di sistemi probabilistici per la previsione del futuro di singoli individui, ossia per qualcosa che essi, semplicemente, non possono fare. Considerato il ruolo cruciale di tali sistemi nel modello di business delle grandi aziende tecnologiche e gli enormi profitti che queste ne ricavano, non sorprende che, paventando un divieto generalizzato, esse mirino a sottrarre tali prodotti all’intervento giuridico: è nata così, con l’obiettivo di rendere plausibile un regime di mera autoregolazione, l’«etica dell’intelligenza artificiale».
Si tratta di una narrazione – ossia di un’idea trasmessa nella forma di storie – finanziata dalle grandi compagnie tecnologiche al fine di scongiurare, o almeno rinviare, la regolazione giuridica.
Oggi, grazie anche all’opera di demistificazione del carattere strumentale e meramente discorsivo dell’«etica dell’intelligenza artificiale», studiosi di discipline diverse sostengono che l’impiego dei sistemi di apprendimento automatico, quando si tratti di assumere decisioni dagli effetti significativi sulle vite delle persone, sia da considerarsi illegittimo.
Le proprietà magiche dell’intelligenza artificiale: l’«olio di serpente»
Nella famiglia di tecnologie denominata «intelligenza artificiale», l’apprendimento automatico ha reso possibile, per alcuni specifici compiti, un rapido e genuino progresso. Funzioni quali la previsione e la generazione di stringhe di testo, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali, non trattabili con l’intelligenza artificiale simbolica, sono affrontate con crescente successo dai sistemi di «apprendimento profondo» (deep learning). Tali sistemi, di natura sostanzialmente statistica, consentono infatti di costruire modelli a partire da esempi, purché si abbiano a disposizione potenti infrastrutture computazionali e enormi quantità di dati.
Le grandi aziende tecnologiche che, intorno al 2010, in virtù di un modello di business fondato sulla sorveglianza, detenevano già l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati, hanno potuto perciò raggiungere, con l’applicazione di algoritmi in gran parte già noti da decenni, traguardi sorprendenti.
Quelle stesse aziende hanno colto l’opportunità di un’espansione illimitata di prodotti e servizi «intelligenti»: se un sistema di «intelligenza artificiale» è in grado di tradurre quello che scriviamo, perché non sostenere che sia anche in grado di comprenderlo? Se può identificare un singolo individuo o classificarne correttamente alcuni tratti somatici, perché non sostenere che sia in grado altresì di riconoscere un ladro o un bravo lavoratore dalle loro fattezze esteriori o un malato di mente dalla voce? Perché non trasformare un sistema statistico, grazie alla polvere magica dell’«intelligenza artificiale», in un oracolo in grado di prevedere i futuri reati di ogni individuo o il futuro rendimento scolastico di ogni singolo studente?
Con la promessa di simili prestazioni, sistemi di «intelligenza artificiale» sono oggi venduti a enti pubblici e privati, che li utilizzano per comminare pene, allocare risorse, concedere o negare opportunità rilevanti alle persone. La pratica di antropomorfizzare i sistemi di intelligenza artificiale, amplificandone oltre misura le presunte prestazioni (AI hype) costituisce un atto di persuasione, per lo più a fini di marketing, e un esercizio di potere, giacché la decisione di un sistema di apprendimento automatico non consente spiegazioni e non ammette ricorsi. L’abuso della credulità popolare è ormai così plateale da aver dato luogo all’espressione «intelligenza artificiale olio di serpente» (AI snake oil), in memoria di quell’intruglio a base di trementina, olio minerale, grasso di cottura, peperoncino, diluente per vernici e insetticida, che il cowboy Clark Stanley vendeva ai gonzi nel Far West (con la raccomandazione di diffidare delle imitazioni) come taumaturgico rimedio per tutti i mali.
Negli Stati Uniti, la Federal Trade Commission ha diffidato le aziende dal sostenere che i loro prodotti di IA possano «fare qualcosa che va oltre le attuali capacità di qualsiasi IA o tecnologia automatizzata»: «ad esempio, non viviamo ancora nel regno della fantascienza, in cui i computer siano in grado fare […] previsioni affidabili del comportamento umano». Alle aziende che avanzino pretese infondate, quanto alle prestazioni dei loro prodotti di IA, non serve una macchina, ricorda la Federal Trade Commission, per predire cosa la medesima Commissione potrebbe fare.
I sistemi di «ottimizzazione predittiva»
Tra i sistemi di apprendimento automatico che hanno la stessa natura, e un pari successo, dell’«olio di serpente», destano un interessato entusiasmo i sistemi di «ottimizzazione predittiva», ossia gli algoritmi di decisione fondati su previsioni circa il futuro di singoli individui. Sono in commercio e in uso, ormai da anni, sistemi che consentono di assumere decisioni in modo automatico, grazie alla possibilità di prevedere – si dice – se un cittadino commetterà un crimine, se un candidato per un impiego sarà efficiente e collaborativo, se uno studente abbandonerà gli studi, se un minore sarà maltrattato dai suoi familiari, se una determinata persona restituirà il prestito eventualmente concessole o se avrà bisogno di specifica assistenza medica.
La tesi che i sistemi di apprendimento automatico siano in grado di prevedere eventi o azioni future di singole persone non ha alcun fondamento scientifico: si fonda infatti sulla convinzione, caratteristica delle attività divinatorie, che il futuro sia già scritto e leggibile. Come l’astrologia, le previsioni algoritmiche si reggono su una commistione di matematica e superstizione, e, in particolare, sull’idea – caratteristica della superstizione e ascritta, nel XX secolo, al mondo della psicosi – che tutte le connessioni siano significative, indipendentemente dalla presenza di nessi causali, e che tutto spieghi tutto.
Come la fede nei pronostici dell’astrologia, la credenza nelle previsioni algoritmiche svanisce non appena si applichino i criteri di comunicabilità e riproducibilità propri della scienza moderna. A una verifica puntuale, tali sistemi risultano così poco affidabili, per la previsione di eventi e azioni individuali, che alcuni ricercatori suggeriscono piuttosto il ricorso a una lotteria tra le persone ammissibili, quando si debbano allocare risorse scarse e non sia possibile utilizzare – anziché sistemi di apprendimento automatico – semplici procedimenti di calcolo con variabili pertinenti ed esplicite.
Quando il responso dei sistemi di apprendimento automatico sia utilizzato a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell’assistenza sociale, la decisione produce ciò che pretende di prevedere: se il genere predice una paga più bassa e il colore della pelle predice la probabilità di essere fermati dalla polizia, con il passaggio dalla previsione alla decisione tale profilazione sociale si autoavvera, legittimando così, in virtù della presunta oggettività algoritmica, i pregiudizi incorporati nella descrizione statistica iniziale.
La decisione di utilizzare sistemi di apprendimento automatico in ambiti rilevanti per le vite delle persone equivale dunque, di fatto, a una presa di posizione politica a favore dello status quo, ossia alla decisione di replicare il passato, automatizzando – ossia, al tempo stesso, mascherando e amplificando – le disuguaglianze e le discriminazioni.
Il compito di rimuovere tali discriminazioni algoritmiche, come se la giustizia coincidesse con una replica automatizzata del passato, al netto delle discriminazioni, è stato affidato all’etica dell’intelligenza artificiale.
Etica dell’intelligenza artificiale e cattura culturale
L’etica dell’intelligenza artificiale richiederebbe una serie di condizioni, nessuna delle quali è attualmente soddisfatta. Dal punto di vista etico, sarebbe necessario individuare un’etica normativa che non ammetta l’esistenza di genuini dilemmi morali – e che quindi contenga i criteri per la soluzione di tutti i conflitti morali apparenti – e che sia condivisa in modo sufficientemente ampio da rendere pubblicamente ammessa la sua implementazione nei sistemi informatici. Dal punto di vista metaetico, sarebbe necessario affrontare la questione della traducibilità in termini computazionali dell’etica normativa adottata, o almeno di un suo sottoinsieme coerente.
Innanzitutto, però, dovrebbero essere soddisfatti tutti i requisiti non morali dell’etica: il giudizio morale richiede infatti la capacità di agire non solo secondo le leggi, ma anche secondo la rappresentazione delle leggi; richiede almeno il ragionamento logico, una comprensione autentica del linguaggio, la capacità di distinguere una connessione causale da una mera correlazione e, naturalmente, tutta la famiglia di intuizioni e procedure di ragionamento incluse nel senso comune umano. Pertanto, anche se sorvoliamo sui requisiti della coscienza e della libertà e accantoniamo la questione dell’empatia, limitandoci strettamente all’obiettivo del ragionamento morale, è ovvio, per chi non aderisca a una concezione animistica, che i sistemi di apprendimento automatico sono costitutivamente incapaci di formulare giudizi morali[1].
La capacità di formulare giudizi morali richiederebbe infatti un’intelligenza artificiale generale (AGI) e attualmente nessuno ha un’idea realistica non solo di come realizzarla, ma neppure di quali siano le domande di ricerca. Non può stupire, perciò, che i sistemi di intelligenza artificiale non siano in grado di formulare neppure i giudizi morali più banali e condivisi, cioè di respingere alternative universalmente considerate come moralmente ripugnanti, né che, con l’aumento della potenza e delle prestazioni dei sistemi di intelligenza artificiale – e malgrado la ricerca sull’etica dell’intelligenza artificiale, dal 2014, sia «esplosa» – sia contestualmente aumentata, anziché diminuire, la tossicità di tali sistemi, ossia la loro tendenza a riprodurre e amplificare le discriminazioni riflesse nei dati di partenza.
Nessun sistema di apprendimento automatico sarà mai in grado di formulare giudizi morali, poiché un giudizio morale non può essere formulato senza una comprensione dell’azione o della scelta da giudicare, delle sue specifiche caratteristiche e del relativo contesto.
Perché, allora, di fronte all’evidenza delle discriminazioni, dei danni e delle ingiustizie generati dall’impiego, nei processi di decisione, dei sistemi di apprendimento automatico, le grandi aziende tecnologiche hanno risposto con l’«etica dell’intelligenza artificiale»? E perché presentare l’etica, anziché il diritto, come l’ambito moralmente pertinente, considerato che ad essere violati sono diritti giuridicamente tutelati? E, infine, se i sistemi di ottimizzazione predittiva semplicemente non funzionano, che senso ha invocare l’etica?
Che cosa penseremmo se un tecnico, chiamato ad aggiustare una lavatrice difettosa, che ci allaga infallibilmente la casa ad ogni lavaggio, tentasse di convincerci che la lavatrice funziona benissimo e che occorre soltanto capire come programmarla all’«equità», onde ottenere «un allineamento dei valori»? I sistemi di apprendimento automatico non sono più intelligenti di una vecchia lavatrice e, come quella, sono artefatti, prodotti del lavoro umano.
A che (o a chi) serve l’etica dell’intelligenza artificiale
A che serve, dunque, l’etica dell’intelligenza artificiale?
Serve alle grandi aziende tecnologiche a diffondere l’idea che alle decisioni algoritmiche si debba reagire non come dinanzi a qualsiasi prodotto pericoloso e non funzionante, ossia vietandone la vendita e l’utilizzo (oltre che la pubblicità ingannevole), bensì come dinanzi a un problema di allineamento dei valori, di etica dell’intelligenza artificiale o di equità algoritmica, quasi che gli algoritmi potessero essere destinatari di un’opera di moralizzazione, in grado di aggiungere a sistemi statistici automatizzati, quale procedura computazionale tra le altre, la facoltà del giudizio morale.
L’etica dell’intelligenza artificiale è un ambito di ricerca interdisciplinare promosso e finanziato dalle medesime aziende che producono i danni e le discriminazioni che l’etica dovrebbe mitigare: il conflitto di interessi è analogo, come è stato osservato, a quello che avrebbe luogo se la ricerca sulla mitigazione degli effetti del fumo fosse finanziata e diretta dalle multinazionali del tabacco. La tradizionale attività di lobbying, di «cattura del regolatore» attraverso gli opportuni incentivi, è così accompagnata dalla cattura culturale: con un’operazione di propaganda, «colonizzando l’intero spazio dell’intermediazione scientifica», si ottiene che il regolatore – al pari dell’opinione pubblica – condivida in partenza l’impostazione desiderata e che chiunque esprima preoccupazioni sia etichettato come retrogrado o luddista.
Le centinaia di linee guida sui principi etici per lo sviluppo e l’applicazione dell’intelligenza artificiale – promosse o approvate da istituzioni, stati nazionali, enti sovranazionali e grandi imprese – si sono rivelate mere dichiarazioni di principio, reticenti su aspetti cruciali (quali lo sfruttamento del lavoro o gli effetti sull’ambiente) e prive di effetti concreti.
Da qualche anno, l’«etica dell’intelligenza artificiale» è divenuta perciò, oltre che un ambito disciplinare, essa stessa oggetto di studi critici: di fronte all’evidenza di un’operazione di cattura culturale, volta a sfuggire alla regolazione giuridica per il tramite di un discorso sull’etica e di una promessa di autoregolazione, perfino nei grandi convegni annuali dedicati all’etica dell’intelligenza artificiale sono comparsi interventi sul conflitto di interessi, denunciando la mancanza di credibilità delle ricerche presentate in quegli stessi convegni.
Le grandi aziende tecnologiche risultano in effetti finanziatrici dell’intero ambito, dai rinfreschi dei convegni fino ai fondi per la ricerca accademica e ai laboratori, e dirigono le ricerche determinandone l’impostazione, i risultati e perfino il tono, affinché siano coerenti con il loro modello di business. Non si tratta dunque di un dibattito teorico, ma di una strategia aziendale, di una «lotta per il potere», in cui le critiche sono riassorbite e neutralizzate, cooptando i critici più deboli e punendo il dissenso. I ricercatori diventano così «i fornitori di un servizio in questa nuova economia della virtù» e sono indotti alla «complicità con sistemi e attori che cercano di operazionalizzare l’etica per proteggere i propri interessi», trasformando l’etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici.
L’«etica dell’intelligenza artificiale» è assimilabile dunque a una merce, che i ricercatori e le università sono interessati a fornire, in quanto «olio che unge le ruote della collaborazione» con le grandi aziende tecnologiche, e che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale, che genera un vantaggio competitivo; è cioè un discorso, rispetto al quale le università hanno il ruolo, e l’autonomia, di un megafono; è «un’esca per catturare la fiducia» dei cittadini: un discorso pubblicitario che, in quanto declamato da altri, non appare neppure come tale.
La funzione di tale discorso è quella di tutelare, legittimandolo, un modello di business – fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali – il cui nucleo consiste nella vendita della promessa di un microtargeting fondato sulla profilazione algoritmica. Non è dunque l’azienda che diventa etica, ma l’«etica» (ossia un mero discorso sull’etica) che diventa un asset aziendale strategico, che consente di «nascondere ingiustizie sistemiche dietro la bandiera della virtù».
Poiché l’impostazione del discorso è dettata dalla sua funzione, l’etica dell’intelligenza artificiale è inquadrata nella prospettiva del determinismo tecnologico e del soluzionismo, entro la «logica del fatto compiuto». Si assume, con una prospettiva soluzionista, che risolvere un problema sociale equivalga a trattarlo con un sistema di apprendimento automatico, trovando un obiettivo rispetto al quale minimizzare la funzione di perdita. La possibilità di non costruire affatto alcuni sistemi o di non utilizzarli per alcune finalità non è mai contemplata, poiché il discorso sull’etica svuota preventivamente di significato le domande sull’opportunità e la legittimità dello sviluppo e dell’applicazione di alcune tecnologie, ponendole «come inevitabili e, purché siano adottati frameworks etici, lodevoli».
Le decisioni di business restano così al riparo dalla discussione, tramite un set di problemi e soluzioni che individua nel design tecnico il livello appropriato per la soluzione di tutti i problemi. Quando non siano ascrivibili a un emendabile errore di design, le ingiustizie sono ricondotte alle sole malefatte di singoli soggetti (bad actors) anziché a rapporti di sfruttamento o di potere strutturali o alla decisione politica di trattare le questioni sociali quali problemi di disciplinamento e controllo, passibili di soluzioni tecniche.
Il discorso sull’«etica dell’intelligenza artificiale» tematizza infatti la sola, ristretta questione dell’equità algoritmica e dell’«allineamento dei valori» (come se l’opera di moralizzazione degli algoritmi fosse un obiettivo tecnico plausibile), tacendo, come moralmente non rilevanti, le questioni relative ai danni ambientali, al colonialismo dei dati e, in particolare, allo sfruttamento del lavoro, sui quali si regge lo sviluppo e l’utilizzo dei sistemi di apprendimento automatico. A quella stessa tecnologia, concepita come immateriale e apolitica, è conferito anzi il potere di risolvere i problemi ch’essa contribuisce pesantemente a creare.
All’«etica dell’intelligenza artificiale» è attribuito anche il compito di agevolare i giganti della tecnologia nella fuga dalle loro responsabilità per gli effetti dannosi dei sistemi di apprendimento automatico: alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili gli ordinari criteri di attribuzione della responsabilità, si oppone oggi la semplice constatazione che i sistemi informatici sono artefatti, ossia oggetti, e che non c’è ragione, perciò, di mettere in discussione la dicotomia tra soggetti giuridici e oggetti. Infondata e irrealistica è stata giudicata anche la proposta ulteriore, di attribuire un ruolo decisivo agli esseri umani coinvolti nei processi automatizzati (human on the loop), affidando a una persona il compito di intervenire, con prontezza fulminea, nei casi di emergenza, o di rettificare, non si sa su quali basi, il responso imperscrutabile di un sistema automatico: l’introduzione di un inverosimile controllo umano svolge – come è stato osservato – la funzione di legittimare l’uso di sistemi che restano in realtà fuori controllo. Il ruolo dell’essere umano non può essere dunque che quello di capro espiatorio, come pare sia stato specificamente previsto nei veicoli Tesla.
Al dissolversi della narrazione sull’etica dell’intelligenza artificiale, diventa chiaro che ad intervenire, e in modo drastico, deve essere il diritto.
Tutela dei diritti e illegalità di default dei sistemi di intelligenza artificiale
Nei primi anni del loro impiego, l’evidenza dei danni prodotti dai sistemi di apprendimento automatico è stata affrontata come un problema di discriminazioni, da risolvere con interventi tecnici.
Le decisioni basate sui sistemi di apprendimento automatico sono in effetti costitutivamente discriminatorie, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.
Qualora ci si concentri sulle discriminazioni, pur drammaticamente reali, ai danni di gruppi protetti dalla legge, non si coglie, tuttavia, la natura del problema, ossia il fatto che simili sistemi, semplicemente, non funzionano: possono al massimo costruire un modello del passato, ma non possono certo, nelle situazioni costitutivamente incerte, prevedere il futuro.
La tesi che il problema sia quello di “risolvere i bias” grazie a interventi tecnici non è che un «seducente diversivo», escogitato da aziende in conflitto di interessi che mirano a depoliticizzare la questione. Le denunce del carattere mistificatorio di tale narrazione sono perciò accompagnate dalla richiesta di finanziare ricerche indipendenti dalle Big Tech e dalla proposta di concettualizzare la questione nei termini della tutela dei diritti umani.
L’evidenza delle violazioni dei diritti individuali, quando si utilizzino sistemi di apprendimento automatico per attività che hanno effetti rilevanti sulle vite delle persone, sta a fondamento della proposta – formulata da Frank Pasquale e Gianclaudio Malgieri – di una disciplina che preveda una presunzione di illegalità, ossia un regime di «illegalità di default»: fino a prova contraria, i sistemi di intelligenza artificiale ad alto rischio, incorporati in prodotti e servizi, dovrebbero essere considerati illegali, e l’onere della prova contraria dovrebbe incombere alle aziende.
La medesima proposta è formulata da altri a partire dalle caratteristiche dei sistemi di apprendimento automatico: i sistemi di ottimizzazione predittiva dovrebbero essere proibiti tout court, nei casi in cui le decisioni abbiano conseguenze rilevanti sulle vite delle persone, poiché si fondano su false promesse; per la medesima ragione, le narrazioni di chi ne sostenga, a fini commerciali, l’esistenza, sono da assimilarsi a pubblicità ingannevole.
Non si tratterebbe che di porre fine alla generale violazione di diritti giuridicamente tutelati, ossia alla «bolla giuridica»: i sistemi di ottimizzazione predittiva impediscono infatti alle persone, al di fuori di quanto previsto dalla legge, di accedere a risorse o esercitare diritti. L’adozione di tali sistemi in ambiti quali l’assistenza sociale equivale – come ha osservato il Rapporteur Speciale delle Nazioni Unite per la povertà estrema e i diritti umani– alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani» («almost human rights-free zones»).
In ambiti quali la giustizia, la salute, l’educazione o la finanza, nei quali si ha diritto a una spiegazione delle decisioni che ci riguardino, dovrebbe essere obbligatorio l’uso di sistemi che, a differenza di quelli di apprendimento automatico, siano fondati su modelli espliciti e su variabili interpretabili. Tali operazioni, che il banale buon senso suggerirebbe, non sono tuttavia intraprese, in virtù delle minori applicazioni commerciali di sistemi trasparenti, privi dell’aura magica della chiaroveggenza algoritmica. Le aziende scelgono perciò di includere, tra i costi da esternalizzare, quelli che derivano dai danni sociali prodotti dai sistemi di ottimizzazione predittiva.
A chi, in nome dell’inarrestabilità dell’innovazione tecnologica, deplori gli interventi giuridici, giova ricordare che il contrasto non è tra il rispetto dei diritti umani e un generico principio di innovazione, ma tra il rispetto dei diritti umani e il modello di business dei monopoli del capitalismo intellettuale.
Bibliografia
A. Saltelli, D.J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, «Futures», CXXXV, 2022, pp. 1-14, LINK
Economies of Virtue: The Circulation of ‘Ethics’ in AI, a cura di T. Phan, J. Goldenfein, D. Kuch, M. Mann, Amsterdam, Institute of Network Cultures, 2022, LINK
A. Wang, S. Kapoor, S. Barocas, A. Narayanan, Against Predictive Optimization: On the Legitimacy of Decision-Making Algorithms that Optimize Predictive Accuracy, October 4, 2022, pp. 1-29, LINK
M. Giraudo, Legal Bubbles, in Encyclopedia of Law and Economics, a cura di A. Marciano, G.B. Ramello, New York, Springer, 2022, LINK
F. Pasquale e G. Malgieri, From Transparency to Justification: Toward Ex Ante Accountability for AI, «Brussels Privacy Hub Working Papers», VIII, 33, 2022, pp. 1-27, LINK
[1] Su questo tema, che non posso approfondire qui, rinvio ai miei What’s wrong with “AI ethics” narratives, in «Bollettino telematico di filosofia politica», 2022, pp. 1-22, https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives; Intelligenza artificiale e impostura. Magia, etica e potere, in «Filosofia politica», 1/2023, pp. 129-148, https://dx.doi.org/10.1416/106674.