L’IA è un magnifico “marketing concept” (o storytelling che dir si voglia) per promuovere e descrivere la continua penetrazione dell’informatica e del digitale nelle nostre vite di consumatori, produttori, cittadini.
E come “marketing concept” essa appare infatti con frequenza inversamente proporzionale al grado di specializzazione del media utilizzato: più il pubblico è generalista, più si esagera negli annunci.
Raccomandazione Unesco sull’etica dell’IA: punti essenziali e prospettive
Le magnifiche e progressive sorti dell’IA
Per citare solo alcuni esempi, tutti rigorosamente autentici, c’è l’algoritmo che “inserito all’interno di ogni trattamento musicale” aiuta a sincronizzare l’utente “con le onde cerebrali proprie di una seduta di meditazione, favorendo l’allontanamento di stress e pensieri ripetitivi ad esso correlati, in meno di 16 minuti” (DMSPS, EffettoVIOLA, servizio offerto sui Frecciarossa di Trenitalia): oppure c’è il “sommelier robot, intelligenza artificiale al servizio del vino […] in grado di proporre esperienze legate ai vini d’annata attraverso suggerimenti precisi e intuitivi” e la lista potrebbe continuare.
È un approccio a metà tra il predicatore USA e il venditore di auto usate, che non sembra conoscere limiti, e che sta contaminando anche il metaverso, l’ultima invenzione futuristica dei markettari dell’Information Technology.
Questa hybris tecnologica non è da deridere, perché è certo maldestra ma in fondo la sua ispirazione è quella che ha fondato l’IA. La sua ispirazione è quella che ha fatto fare in buona fede promesse oggi ridicole da rileggere ad eminenti matematici e scienziati.
Stendiamo un velo pietoso ma non dimentichiamo, perché è questo primo slancio, quello autentico di Turing e del convegno di Dortsmouth che consente oggi di rivendicare la Filosofia come sapere privilegiato per comprendere l’IA.[1]
IA debole, molto debole, praticamente…stupida
Dall’altro lato però, l’IA a molti fa paura, non solo per i film alla Terminator ma anche per – molto – concrete questioni economiche, cioè per la legittima preoccupazione di tanti lavoratori di essere un giorno rimpiazzati da sistemi informatici attivi 24h/7gg, senza pretese economiche e cui non è stata insegnata la parola “sciopero”.
Oppure, semplicemente, perché agli esseri umani non piace l’idea di algoritmi che li seguono dappertutto e che pretendono di prendere le decisioni al posto loro. La recentissima pubblicità della Alfa Romeo a questo riguardo è a nostro avviso un indicatore formidabile di come il mood del pubblico possa cambiare velocemente.
Si vede una giovane donna evidentemente connected e al passo coi tempi, che vive immersa nella tecnologia, e cui una voce maschile dice “sono il tuo algoritmo, so quanti esercizi farai, so cosa ordinerai per cena, so cosa vuoi acquistare, so cosa desideri” e qui la giovane dopo aver visto di sfuggita l’Alfa in questione si ribella, risponde “no non lo sai” e spegne tutta la tecnologia che la circonda. La novità non è da poco.
Per la prima volta essere accompagnati ovunque da un algoritmo non è “cool”: la libertà sta nell’imprevedibile, la felicità nel dire “no” alla tecnologia. Ma appunto, non alla tecnologia in quanto tale, solo a quella ipostatizzazione della tecnologia denominata “algoritmo”, cioè, l’IA.
E allora abbiamo il movimento inverso, personificatosi nel “Manifesto per l’IA” (Sole 24Ore, 23 Maggio 2022[2]), che parla deliberatamente solo di “IA debole […] che non sostituirà l’umano, che libera energie e creatività, non qualcosa che subiamo passivamente”, insomma un manifesto “tecno-ottimista” perorante la causa di un “semplice strumento di calcolo”.
Nei convegni più specialistici si arriva addirittura a lamentare l’espressione “Intelligenza Artificiale”, troppo carica semanticamente, cui sarebbero da preferire diciture più tranquillizzanti come i buoni vecchi “sistemi esperti” o al limite il più semplice “machine learning” (del resto la nouvelle vague di IA, quella degli expert systems degli anni ’80, si posizionava anch’essa in opposizione all’Intelligenza Artificiale troppo futuristica e generale, e ambiva anch’essa ad essere semplicemente di supporto all’attività umana come l’IA “debole” di oggi).
Questa seconda “anima” dell’IA si vuole rassicurante, non invasiva, completamente tornata nell’alveo della Computer Science. Essa aspira ad una intelligenza “riproduttiva e non cognitiva[…] efficiente proprio perché il suo agire è separato dall’intelligenza […] (una IA che) non concerne la capacità di riprodurre l’intelligenza umana ma la capacità di farne a meno.”[3] Forzando – ma neanche troppo – questa posizione anche una semplice calcolatrice elettronica può essere definita come un sistema di IA.
Ovviamente tutto ciò ha precisi interessi economici alle sue spalle, quelli della Trasformazione Digitale che non può permettersi utenti, clienti e cittadini dubbiosi sui vantaggi di ciò che l’industria informatica promette, e deve dunque riportare l’IA ad un livello comprensibile per il grande pubblico (soprattutto in un momento storico dove fake news e teorie complottiste imperano).
Perché la filosofia è lo strumento per comprendere l’IA
Anche qui è facile mostrare, come ci sforziamo di fare da anni, che la Filosofia è lo strumento più adeguato per comprendere quel che succede. In primis, perché la definizione stessa di IA “debole” ci viene da un filosofo, John Searle, e dal suo esperimento mentale della Stanza Cinese che (proprio nel 1980) confutava la possibilità di una Intelligenza Artificiale “forte” e apriva la strada così a quella “debole”.
Ed infatti questa definizione non è più riconducibile ad una tecnologia o ad una serie di tecnologie, ma piuttosto ad una forma di “ideologia” finalizzata a scopi politico-economici ben precisi, come ha ben mostrato Glen Weyl (Office of the Chief Technology Officer Politcal Economist and Social technologist, o più semplicemente OCTOPEST di Microsoft) in un mirabile articolo su Wired[4].
Più interessante però è il fatto che questa neutralizzazione dell’IA è ciò che spiega l’esplosione del dibattito “etico” sull’IA, che tanto inchiostro fa versare oggi e tante opportunità di lavoro per “AI ethicist” sta creando.
Se l’IA è solo uno strumento, allora la sua potenza deve essere assoggettata a regole precise, che però non possono che rimanere astratte e purtroppo inapplicabili.
Per capire questo movimento occorre rileggersi il buon Kant, che limitava la conoscenza al mondo dei fenomeni, negando che all’uomo fosse possibile giungere alla conoscenza del noumeno (la cosa-in-sé).
In cambio di questa limitazione, Kant prometteva però la garanzia della certezza delle conclusioni. Esattamente allo stesso modo, l’IA “debole” nega la possibilità per una macchina di essere cosciente, di avere sentimenti, e ne limita le funzionalità alla facoltà dell’intelletto, del calcolare (il computing).
Per tutto quello che non si può calcolare, per esempio per il libero arbitrio e dunque della morale, la soluzione di Kant è la fede, la legge morale, il “devo perché devo” senza ulteriori elaborazioni.
Se la regola è “non mentire”, dice Kant, io non posso mentire neanche per salvare una persona che si rifugia a casa mia inseguita da un assassino, cui “devo” rivelare la presenza della vittima (posso magari sperare che riesca a scappare ma non coprirne la presenza con una menzogna). Una morale così astratta, ovviamente, nella vita reale serve a poco perché è solo forma e niente contenuto.
Ed è quello che accade nell’Ethics of AI, che produce metodologie molto valide (ethics-by-design, data-ethics, ethics-based assessment) ma completamente astratte, nel senso che possono essere utilizzate, per esempio, in Europa per proteggere i diritti dell’individuo contro la società e magari in Cina per proteggere i diritti della società contro l’individuo.
Il social scoring, per fare un esempio, è secondo le metodologie dell’Ethics of AI giustificabile tanto quanto il GDPR, dipende dal punto di vista che adottiamo. Di qui quel senso di formalità e di vuoto che ci coglie quando leggiamo le raccomandazioni pur animate da buone intenzioni di “mantenere l’umano al centro” o simili.
Solo una PedagogIA ci può salvare
Torniamo al dilemma dell’industria informatica da cui siamo partiti. L’hype attuale che circonda l’IA non può far dimenticare che nella sua breve storia essa è fallita già ben due volte, e oggi assistiamo alla terza rinascita. Ovviamente si dice che questa è la volta buona, ma poiché lo si diceva anche nelle due occasioni passate, il dubbio è lecito.
Fatta l’analisi, può la Filosofia aiutare a trovare una soluzione al dilemma? La nostra risposta è sì, certamente, nella sola forma che l’autentica Filosofia può prendere quando diventa prassi, e cioè nella forma di una pedagogia.
Occorre insegnare, far capire, spiegare l’intelligenza Artificiale a tutti i livelli della società, occorre mostrarne la rilevanza agli studenti, ai professori, ai giuristi, ai politici, agli imprenditori, ai cittadini.
Ma perché questa operazione sia proficua, la pedagogia non può risolversi solo in corsi di formazione; non si parla qui di computer literacy, né di far diventare tutti noi degli informatici. La formazione “forma”, cioè ha come obiettivo di modellare chi apprende ad un ambiente diverso, mentre la pedagogia (quella socratica per intenderci) fa emergere nell’apprendista una conoscenza e una consapevolezza che c’è già, e cui si tratta di dare la giusta illuminazione.
Per questo una pedagogia dell’Intelligenza Artificiale può riuscire solo se l’IA è concepita non come una disciplina STEM ma come una disciplina umanistica a tutti gli effetti, come una “continuazione della Filosofia con altri mezzi”.
____________________________________________________________________
Note
- Si veda: Luigi Maiello “Il dibattito sull’intelligenza artificiale rischia di diventare improduttivo ed autoreferenziale , Il Fatto Quotidiano”; David Deutsch, “Philosophy will be the key that unlocks artificial intelligence, The Guardian; Giovanni Landi, “L’Intelligenza Artificiale come Filosofia”, Tangram Edizioni Scientifiche, 2020. ↑
- “L’intelligenza artificiale non è nemica: dobbiamo imparare a lavorarci insieme”, Il Sole 24 ORE ↑
- “All’Intelligenza Artificiale non serve l’intelligenza”, La Stampa ↑
- “AI is An Ideology, Not A Technology”, WIRED ↑