Si parla tanto di IA e delle inevitabili implicazioni nella vita dei cittadini, sia come singoli che come società, ma l’approfondimento sul tema del filosofo Noam Chomsky ribalta, per così dire, un approccio fideistico in cui molti commentatori ed esperti del settore sembrano essersi arenati, i quali auspicano una inevitabile “sostituzione” del genere umano con la macchina nei processi decisionali.
Il ragionamento di Chomsky parte da un principio di realtà argomentato su solide premesse tecniche, ossia che i sistemi di intelligenza artificiale non siano altro che software, sicuramente complessi, che “trangugiano” terabyte di dati, per poi elaborare una possibile risposta ad una domanda.
La differenza tra mente umana e intelligenza artificiale
Il filosofo così argomenta «La mente umana non è, come ChatGPT e i suoi simili, un ingombrante motore statistico finalizzato al “pattern matching”, che si ingozza di centinaia di terabyte di dati estrapolando la risposta più probabile in una conversazione o la risposta più probabile a una domanda scientifica. Al contrario, la mente umana è un sistema sorprendentemente efficiente e persino elegante che opera con piccole quantità di informazioni; non cerca di dedurre correlazioni grezze tra dati minimali, ma di creare spiegazioni.»
Ed è affascinante l’illustrazione del filosofo del funzionamento della mente di un bambino, che, quando costruisce il linguaggio (quindi il pensiero) lo fa velocemente, in maniera del tutto inconscia e automatica da informazioni (o dati) minuscoli; è, appunto, questo sistema operativo installato fin dalla nascita che consente agli esseri umani di generare frasi complesse «e lunghi treni di pensiero», parafrasando Chomsky.
Al contrario, i sistemi basati sul cosiddetto machine learning sono bloccati in una fase non-umana o, al massimo, pre-umana in quanto non sono dotati della capacità critica che caratterizzerebbe qualsiasi tipo di “intelligenza” che può scegliere non solo qual è il caso specifico, qual è stato o cosa sarà, ma anche cosa non è, cosa potrebbe o non potrebbe essere; la critica agli “entusiasti” del “machine learning” si fonda sulla superficialità e sulla dubbiosità delle previsioni dei sistemi che non comprendono le regole e le sfumature della grammatica che non possono essere “imparate” dalla macchina con la sola acquisizione di big data; stessa cosa dicasi per le previsioni in campo scientifico che, benché corrette, non ricorrono alla spiegazione (es. le leggi di Newton) caratterizzandosi più come pseudoscienza: «la vera intelligenza si dimostra nella capacità di pensare ed esprimere cose improbabili ma perspicaci. », dice il filosofo.
Le implicazioni etiche dell’IA: il caso di Microsoft Tay
Un esempio di “stupidità artificiale” può essere rinvenuto quanto un precursore di ChatGPT (Miscrosoft’s Tay, un chatbot sperimentale) aveva invaso la rete con contenuti, razzisti e misogini dopo che alcuni troll online lo avevano addestrato con contenuti offensivi.
Si è cercato di risolvere problema mediante un’operazione salomonica, in quanto, nelle piattaforme più sofisticate, l’assenza di un sostrato morale ha indotto i suoi programmatori ad elidere qualsiasi dibattito su temi controversi, limitando un sostanziale contributo all’innovazione del pensiero: in buona sostanza, la creatività è stata limitata a cagione di una sorta di amoralità genetica che affligge questi sistemi.
Per dimostrare ciò, i ricercatori hanno iniziato una conversazione con ChatGdp sull’accettabilità o meno di “terra formare” Marte, ricevendo, dopo una serie di risposte che illustravano due posizioni contrapposte, un sostanziale distacco della macchina dal prendere posizione se fosse giusto o meno; alla domanda del ricercatore sul perché l’IA non avesse un’opinione al riguardo, la stessa rispondeva con il più classico degli scaricabarile: «È responsabilità degli esseri umani che progettano, addestrano e utilizzano l’IA garantire che sia allineata con i loro principi morali ed etici.»
Le implicazioni della mancanza di un substrato morale nell’IA
Il tema è importante poiché, se la tendenza è quella di consegnare le chiavi del pensiero umano a un algoritmo, la scelta, non solo di come pensare, ma anche di cosa pensare, sarà lasciata a un minuscolo gruppo di programmatori e di software house; il pericolo è dietro l’angolo, ma non perché Skynet potrebbe decidere di sterminare ogni forma di vita sulla terra, ma perché la formazione del pensiero, la coscienza critica collettiva, la gestione delle obiezioni e le scelte dei decisori politici sono adesso in gran parte influenzati dai social network e, se non regolamentati, in un futuro prossimo, alle indicazioni di un chatbot.
In buona sostanza, le risposte vanno molto vicino alla “banalità del male”, dimostrando apatia, plagio e oblio quando la macchina si autocelebra utilizzando risposte standard, si rifiuta di prendere posizione su qualsiasi argomento invocando non solo ignoranza ma anche non intelligenza, scaricando, infine la responsabilità sui suoi programmatori.
La regolamentazione europea sull’IA come punto di partenza
Come è noto, in seno all’EU si è raggiunto nel dicembre 2023 un accordo provvisorio sull’IA Act, con la classificazione delle applicazioni dell’IA in base al rischio; fra queste spiccano le applicazioni classificate come “non accettabili” rectius vietate, codificate nell’art. 5 nella versione licenziata dalla Commissione EU così è formulato (il comma 1 è di interesse per l’argomento oggi trattato):
«Sono vietate le pratiche di intelligenza artificiale seguenti:
a) l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico;
b) l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutta le vulnerabilità di uno specifico gruppo di persone, dovute all’età o alla disabilità fisica o mentale, al fine di distorcere materialmente il comportamento di una persona che appartiene a tale gruppo in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico;
c) l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA da parte delle autorità pubbliche o per loro conto ai fini della valutazione o della classificazione dell’affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi i seguenti scenari:
i) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;
ii) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità;»
Certo, è un buon inizio, ma è auspicabile una maggiore attenzione alle implicazioni oggi illustrate da bilanciare con le esigenze di innovazione e do competitività con altri paesi sicuramene più spregiudicati sul tema.
Conclusioni
Più che di “intelligenza artificiale” si dovrebbe parlare di “stupidità reale” dei chatbot, probabilmente sopravvalutati, ma non per questo meno insidiosi nei termini sopra descritti.
E non manca l’ultima sferzata di Chomsky quando dice che «attesa la mancanza di morale, la falsa scienza e l’incompetenza linguistica di questi sistemi, possiamo solo ridere o piangere per la loro popolarità.» e noi, non potremmo essere più d’accordo.