È recente la polemica su un’app che, dopo aver caricato pochi selfie, produrrebbe figure personali molto ben illustrate. Il problema contestato è che, mentre le figure maschili sarebbero rappresentate in modo consono dal trattamento automatico, riproducendo stereotipi prettamente positivi, quelle femminili sarebbero frequentemente iper-sessualizzate e modellate su stereotipi poco corretti.
In differenti modi, e con differenti sensibilità, questo è stato denunciato da molti, ottenendo molto scalpore, qualche difesa d’ufficio e senza dubbio tanta pubblicità per l’app in questione. Ma è vero che il trattamento automatico ha un problema con il corpo delle donne?
Ripetiamo insieme: non è intelligenza
Nell’introduzione di quest’articolo ho utilizzato l’espressione “trattamento automatico”, là dove praticamente chiunque altro avrebbe usato “intelligenza artificiale”. È un estremo e forse patetico tentativo di riportare la questione entro i binari di una razionalità che oggi pare perduta. Parlare di intelligenza artificiale (IA) significa arrendersi a una fanfara pubblicitaria che non ha alcun corrispettivo tecnico. L’istituto di autodisciplina pubblicitaria dovrebbe mettere al bando l’espressione intelligenza artificiale. Non c’è nulla di intelligente nell’IA.
Pur senza scomodare le definizioni di intelligenza prese da un dizionario, che parlano di facoltà psichiche, pensiero, modelli astratti, giudizio, autoconsapevolezza e via dicendo, cioè cose che non hanno chiaramente alcun gioco in questo campo della tecnica, quella che viene chiamata IA fa un pessimo lavoro anche nella limitatissima visione proveniente da quella scomposizione meccanicista della cognizione che può essere fatta risalire a Cartesio, e che è ampiamente sconfessata da ormai secolari approcci del pensiero che hanno trovato ampie giustificazioni in moderne ricerche scientifiche, psicometriche e neurobiologiche. Un lavoro così cattivo che persino uno dei più entusiasti protagonisti della intelligenza artificiale della prima ora, colui che ha talmente definito il campo da essere riconosciuto come uno dei padri dell’approccio moderno dell’IA, Douglas Hofstadter, ha sostenuto, in un incontro con gli ingegneri di Google, che la recente IA è solo una borsa di trucchi maldestri di illusionismo che non ci porterà mai un millimetro più vicino alla vera intelligenza artificiale generale, capace cioè di parlare alla pari con il genere umano.
Una borsa di trucchi di illusionismo, ecco cosa è oggi l’IA che viene propinata in giro. Chiunque ne conosca le fondamenta, abbia studiato i metodi o abbia anche solo dato una veloce scorsa ad AIMA di Russell e Norvig, a meno di non decadere in un atteggiamento anti-scientifico e fideistico, non può che concordare. Sono trucchi utilissimi, senza dubbio, che sicuramente migliorano l’azione umana in una grande quantità di compiti, possono superarla e addirittura sostituirla efficacemente, ma sono trucchi che, anche se potenzialmente anticipatori di grandi evoluzioni, sono ancora molto lontani dal poter minimamente competere non diciamo con l’intelligenza umana, ma neppure con l’istinto di un topo muschiato.
Intelligenza Artificiale è un nome di fantasia, che non ha la specificità di un nome commerciale, come potrebbe essere GoreTex o Amaro Medicinale Giuliani, né la chiarezza di una indicazione generica, come potrebbe essere l’acido acetilsalicilico o il sistema anti-bloccaggio (ABS). È puro vuoto semantico che va di moda, il blazer blue dell’informatica di questo periodo.
Trattamento umano
Ciò che non è vuoto, è invece il trattamento umano. È noto che l’umanità stia partecipando da almeno un paio di secoli ad un grande gioco di società, intessuto dalle forme del potere. Michel Foucault ha identificato una transizione da un modello di società, che possiamo chiamare disciplinare, ad una, più opprimente e pervasiva, denominata società del controllo. La società disciplinare, da collocare negli stati-nazione ottocenteschi e negli imperi coloniali, realizzava il trattamento antropologico per mezzo delle discipline, regole e tradizioni, espresse in norme e codici poi implementate per mano delle istituzioni disciplinari (come fabbriche, scuole, ospedali, carceri). L’uomo, imbrigliato da regole e ruoli, era in tal modo condotto sulla via comune di una rettitudine collettiva. La mutazione genetica della disciplina in controllo è avvenuta quando non sono più bastate le istituzioni, quindi norme e ruoli, a controllare l’andamento della normalità sociale, ma si è dovuta instillare nell’uomo stesso l’urgenza di controllare che ogni altro uomo si conducesse sulla via della normalità. Il passo dall’ipotetico homo homini lupus hobbesiano, ad un realissimo homo homini ovis ha chiarito la potenza della pressione delle masse sull’autocensura degli individui.
Sia detto per inciso, data questa documentata lettura, qualcuno dovrà invece convincerci che recentemente le grinfie del potere sulla società siano regredite dal controllo ad una più blanda sorveglianza. Come per intelligenza artificiale, anche l’espressione Società della Sorveglianza sembra piuttosto essere una promozione consolatoria che svia, piuttosto che centrare, il discorso. E l’espressione Capitalismo della Sorveglianza è un impegno ancor minore nella critica del potere, come abbiamo già avuto modo di vedere.
La tecnologia dell’informatica e delle telecomunicazioni, che si è presentata sulla scena negli anni ´80 e ´90 come strumento di liberazione, dopo un breve periodo di anarchia creativa e vitale, è stata riassorbita alle necessità di controllo sociale. Sistemi sempre meno aperti e giardini sempre più recintati sono l’esperienza comune che avvelena le fonti dell’autodeterminazione digitale dei cittadini. Ogni app, ogni social network, ogni piattaforma freemium, diventa un tassello di un trattamento antropologico che annulla la singolarità dell’uomo per spingerlo in un individualismo facilmente manipolato.
Quindi chi gioca con il corpo della donna, non è quell’app o quella IA, ma l’intero complesso, il tecno-sistema, di cui quell’app e IA sono parte, che gioca con tutti i corpi di tutta la vita, donne, uomini, animali.
Questione di tagging
Sul MIT Technology Review, lo scorso aprile, è stato pubblicato un lungo reportage con la storia di Oskarina Fuentes Anaya, operatrice di una delle piattaforme di etichettatura dei dati per l´IA. Le imprese tecnologiche sfruttano le crisi economiche, in quel caso si parla della crisi venezuelana, per creare un «nuovo ordine mondiale coloniale dell’IA». Articolo interessante in sé, ma il punto è che l’IA, che non è intelligenza, è ben lungi anche dall’essere artificiale perché si basa in modo determinante sull’attività umana. È del tutto umano il tagging, ovvero identificazione delle feature, i tratti e le caratteristiche che, ad esempio nel riconoscimento visivo, stagliano le figure dal contesto per permetterne il riconoscimento, ad esempio un semaforo in una immagine cittadina, un pedone in una strada di campagna poco illuminata, o trovano regolarità all’interno di un flusso apparentemente caotico di informazioni. Le macchine non fanno che replicare pedissequamente non solo i processi algoritmici che le programmano, ma anche le decisioni di identificazione degli elementi prese da umani (a basso costo, si immagini la qualità). A dispetto di quello che si vuole far credere, gran parte della non-Intelligenza non-Artificiale oggi venduta come tale, è basata su moderne forme di colonialismo sostanzialmente schiavista.
Quindi, chi si lamenta che l’app tratti male la figura femminile, e ha sicuramente ragione, accetta senza contestare i termini di un discorso molto più grave di cui non è evidente la presenza. Nascondere nel discorso l’antecedente per far dare per scontato il conseguente è un vecchio trucco retorico. Non fu prima della logica stoica degli indimostrabili di Crisippo che si comprese veramente come perfino i cristallini sillogismi aristotelici potessero essere manipolati (in una forma che, peraltro, è molto ben nota all’attuale modalità di diffusione delle fake news).
Il trattamento automatico dell’uomo ha un problema con il corpo in generale, perché non lo considera proprio, e ha un problema con l’intelligenza, perché non rappresenta minimamente il sé. Corpo e intelligenza, una delle traduzioni delle categorie cartesiane di res extensa e res cogitans, viaggiano nei modelli tecnologici attuali su binari distantissimi mentre nel mondo della vita sono indistricabili. L’industria tecnologica prova oggi ad automatizzare qualcosa che il pensiero dell’uomo ha superato già da un paio di secoli. Ad esempio, il genere umano pensa con il corpo e nel corpo, mentre i modelli tecnici rifuggono ogni pensiero della propria corporeità. Aver fatto diventare meccanico il cervello, come ha fatto Cartesio, non è sufficiente per fare un cervello meccanico, come pretenderebbe di fare l’IBM (qui mi riferisco a Watson, ma molti altri sono uniti in questo sforzo).
Se il problema dell’IA con il corpo, è sistemico non si può trascurare lo specifico riguardante la diversità dell’esperienza femminile da quella maschile. Per quanto alcune giornaliste sostengano di aver provato l’app in questione senza ottenere risultati particolarmente inopportuni, dando forse l’impressione di liquidare come un’inutile iper-sensibilità ultra-femminista la questione, il tema non dovrebbe essere sottovalutato.
Giustificazionismo umano
Uno degli aspetti ironici è che gli stessi accusatori dell’IA incriminata si sono affannati a trovare giustificazioni, che ovviamente eguagliano in irrazionalità le premesse del discorso.
L’articolo di Melissa Heikkilä sul MIT Technology Review ha fatto scoppiare il caso. Prima la giornalista attribuisce una motivazione determinata alla profusione di immagini sessualizzate che avrebbe ricevuto: il fatto di avere un retaggio asiatico. «La mia collega bianca ha ottenuto significativamente meno immagini sessualizzate, con solo un paio di nudi e accenni di scollatura.» Poi però riconosce che il sistema di trattamento automatizzato è addestrato con un data-set di immagini recuperate da Internet «e poiché Internet trabocca di immagini di donne nude o appena vestite e immagini che riflettono stereotipi sessisti e razzisti, anche il set di dati è distorto verso questo tipo di immagini.» Questa sembra una contraddizione che però risolve andando a scavare nel data-set e trovando che la categoria di immagini taggate come Asian restituisce quasi esclusivamente immagini pornografiche o fortemente sessualizzate, le altre categorie molto meno. Heikkilä infatti riceve ben 16 immagini in topless e altre 14 in abiti molto succinti su 100.
Ma ecco pronta una perfetta giustificazione. Il problema non starebbe in un quel qualcosa che non ha coscienza del proprio, come degli altrui corpi, tanto da non riconoscerli e pertanto non rispettarli (riconoscenza e rispetto è ciò che ci aspetteremmo dal comportamento intelligente di una persona, o quantomeno dal comportamento di una persona intelligente e sensibile). Il problema non è in tutta una società che sta mortificando l’intelligenza corporea, e cioè la cosa più distintamente umana. Il problema è che nello strumento tecnico (sottointeso: certamente perfetto, o almeno buono) non è stato versato il giusto combustibile. Intendiamoci, non c’è nulla di male nella denuncia di Heikkilä sulla mercificazione del corpo femminile nell’app in questione, ma non c’era affatto bisogno di tirare in ballo i lineamenti esotici dalla non-Intelligenza non-Artificiale: bastava sventolare una qualsiasi copia di rivista patinata in edicola o programma in TV. Non fai uno scoop sulla Technology Review se non parli di IA, però.
La scrittrice Olivia Snow, che si presenta come ricercatrice presso il Center for Critical Internet Inquiry dell’UCLA, dove studia il lavoro sessuale (aka prostituzione), la tecnologia e la politica, ma si autoidentifica anche come dominatrice la cui parola preferita è “no”, rincara la dose giustificazionista su Wired. L’accento del titolo dell’articolo è sulle proprie foto infantili. Di nuovo il punto è «la tendenza algoritmica a sessualizzare i soggetti a un livello non solo sgradevole ma anche potenzialmente pericoloso» (e anche qui, sia chiaro, la tesi non si contesta minimamente).
Snow sembra condurre uno studio più sistematico facendo alcuni esperimenti con foto sadomaso, foto femminili ma sotto il genere maschile e infine selfie di conferenze accademiche. «Tutto ciò ha prodotto seni di dimensioni spettacolari e nudità completa». In che misura precisa però non è detto, ma anche una è una di troppo, siamo d’accordo. E ciò a maggior ragione nel successivo esperimento in cui, a dispetto della richiesta degli sviluppatori dell’app di non usare foto di bambini, Snow usa proprio le foto della propria infanzia come seme per ottenere i risultati che si possono immaginare. Snow non investiga il data-set sottostante.
Le descrizioni di Snow sono chiare e oneste. Fin qui il suo articolo non è una condanna preconcetta, non include né moralismo né perbenismo, ma poi proprio non ce la fa ad evitare anche lei una bella dose di giustificazione dell’IA, tirando in ballo Miley Cyrus.
«Molte [immagini] ricordavano in modo inquietante il servizio fotografico realizzato nel 2008 da Miley Cyrus con Annie Leibovitz per Vanity Fair, in cui la Cyrus quindicenne stringeva un lenzuolo di raso attorno al suo corpo nudo. All’epoca, l’aspetto inquietante dell’immagine era l’abbinamento del suo viso senza trucco, quasi da cherubino, con il corpo di una persona che, a quanto pare, aveva appena fatto sesso. È stata la reputazione della Cyrus a soffrirne, non quella della rivista o della fotografa Leibovitz, allora 58enne, quando Vanity Fair ha pubblicato il servizio fotografico. La sessualizzazione e lo sfruttamento dei bambini, e soprattutto delle bambine, è talmente insidiosa da essere naturalizzata. La difesa da parte della Cyrus del servizio fotografico, che nell’intervista ha definito “davvero artistico” e non “da sgualdrina”, è risultata ancora più aberrante delle foto stesse.»
Nell’app, Snow trova «un eco» delle malefatte della fotografa/leggenda Annie Leibovitz e Vanity Fair. Anzi, è quasi quasi la Miley Cyrus sgualdrina, che fa diventare sgualdrine tutte. Per l’IA invece, attenuanti generiche e pronta assoluzione perché il fatto non sussiste. Lo strumento, incolpevole, non ha fatto altro che riproporre quelle foto improprie. «Questa storia dell’orrore – dice alla fine Snow – che ho appena narrato sembra troppo distopica per essere una minaccia reale.» A saper fare i conti della logica, la minaccia sociale sarebbero Miley, Leibovitz e Vanity Fair. Diciamolo meglio: teniamoci l’IA e censuriamo il porno!
Conclusioni
Molti altri articoli sono stati scritti e in nessuno manca, in una forma o nell’altra, una ciambella di salvataggio per la povera, operosa, macchina dell’IA, che in fondo non avrebbe fatto altro che il proprio dovere di calcolare, a dispetto delle informazioni inquinate ad essa fornite. Meglio poi se si può incolpare “Internet” di questo: un impersonale collettivo torna sempre utile.
La polemica sulle immagini sessualizzate e improprie prodotte dall’app è stata utile a farci riflettere sul fatto che questi sistemi di trattamento automatizzato sono ampiamente affetti dalla presenza di stereotipi distorti, pregiudizievoli e manipolatori; ci ha anche ricordato quanto le collezioni di immagini raccolte su Internet, un insieme che facilmente può essere considerato un campione per ogni altro tipo di conoscenza, siano il prodotto di una società squilibrata in senso maschilista, se parliamo di genere, o altrimenti sfavorevole a determinate razze, lingue, religioni, tendenze sessuali, opinioni politiche, ecc. Questo ci suggerisce che dovremmo fare molta maggiore attenzione nel considerare i risultati dell’applicazione dell’IA, non solo nelle app cosmetiche che utilizziamo per migliorare la nostra immagine, ma anche in quelle che ormai sono diventate o stanno diventando pervasive nei gangli della società del controllo: le telecamere con riconoscimento facciale, i software di decisione automatizzata in campo giudiziario, nelle analisi fiscali, nelle concessioni di credito e così via. Una riflessione tutta buona e sottoscrivibile.
Ma se il maschilismo della società, ad ottima ragione, viene contestato, assente è invece ogni accenno ad un’altra contestazione, che è percepita come molto meno urgente e utile. Non si tratta di biasimare una tecnologia perché addestrata con i peggiori stereotipi tossici della società, né per l’incapacità dei programmatori di sollevarsi dai propri pregiudizi o, quel che è peggio, dalle condizioni commerciali che decretano l’appetibilità di un prodotto basato su Intelligenza Artificiale.
Si tratta di riconoscere che, in assenza di un proprio corpo, anzi di un pensiero del proprio corpo, nessuno strumento basato sulla inumana dualità tra corpo e cervello potrà mai considerare quello che non gli appartiene, ovvero il corpo stesso, per quanto possa essere indotto, ovvero programmato a considerarlo. Non potremmo mai dire che l’Intelligenza Artificiale abbia un problema con il corpo femminile, perché non è intelligente, non è artificiale e non ha un corpo.
Il problema lo abbiamo noi perché dimentichiamo troppo spesso il valore del nostro (e dell’altrui) corpo quando giustifichiamo la tecnologia, ne accettiamo le premesse infondate, o ne adottiamo con uno slancio fideistico le promesse, per quanto anti-storiche, anti-scientifiche o anti-razionali siano. Il problema lo abbiamo anche accettando il fatto che l’intelligenza, artificiale o umana, sia una cosa diversa dalla corporeità, cioè che intelligente-e-corpo non siano un tutt’uno.
Gli uomini, le donne, chiunque abbia corpo, possono uniti pretendere il rispetto di chiunque abbia corpo; non solo che questo sia rappresentato correttamente, ma che debba esser pensato correttamente.