Non c’è dubbio che l’intelligenza artificiale, la robotica e l’utilizzo dei dati abbiano un enorme potenziale, dalla medicina alla sicurezza. Per coglierne appieno i vantaggi dobbiamo però avere il coraggio e la determinazione di affrontare realisticamente le possibili conseguenze sulle generazioni più giovani, così da poter correggere ove si può.
Proviamo allora a comprendere quale sia l’impatto di certe tecnologie proprio sulle giovani generazioni, in particolare i bambini. Un tema che non è possibile trattare senza definire contorni più ampi per il dibattito.
Datificazione, monetizzazione dei dati e flessibilità
Partiamo da quella che potremmo definire la rottura degli argini tra ambiente digitale e ambiente fisico, di cui mai come nell’anno appena passato abbiamo compreso la vera portata. Mi spiego: non c’è dubbio che la fusione tra le due realtà sia avvenuta nel tempo, abituandoci a sperimentare il nostro mondo fisico con l’avallo delle tecnologie, da Google Maps ai suggerimenti che ci hanno portato a scegliere un ristorante invece di un altro. In fondo, le sperimentazioni con il mondo fisico intorno a noi sono da sempre mediate dalla tecnologia. Basti pensare alle dune per il controllo del traffico, o alle rotatorie. La tecnologia ha mitigato, definito, controllato e guidato i nostri comportamenti fin dai primordi.
Cosa è cambiato dunque? Il processo di datificazione, la monetizzazione dei dati e l’imperscrutabile mito della flessibilità. Vogliamo analizzare questi elementi separatamente.
La datificazione, dalla società alla vita familiare
I nostri dati vengono collezionati ovunque, ad esempio: le tracce che il nostro browser lascia online; gli smart meter; le impressioni della nostra faccia di fronte ad una inserzione pubblicitaria; le emozioni che possiamo condividere volontariamente o involontariamente su Facebook. Informazioni che seminiamo noi stessi, o che vengono estratte da algoritmi complessi di machine learning.
Non c’è attività quotidiana senza cessione o collezione di dati. Il consenso il più delle volte non viene espresso o, anche quando esiste, finisce per essere poco informato (e certamente poco libero) a causa dei meccanismi di nudging, uniti a un design spesso ingannevole. C’è da aggiungere che di fronte alla pervasività di certe tecnologie diventa superfluo anche parlare di consenso; vista la posizione dominante di certe aziende, l’alternativa è talmente scarsa che non c’è scelta.
La disponibilità di dati ha significato, nel tempo, che ogni fenomeno sociale ha subito un processo di datificazione: con questo si indica che tale fenomeno viene compreso solo attraverso il suo processo di traduzione in dato. È come se i dati fossero divenuti il solo modo di comprendere, interpretare e sentire la realtà intorno a noi. Questo processo, per esempio, permette a emozioni e sentimenti di divenire materiale per allenare gli algoritmi. Nelle relazioni sociali, siamo ora capaci di cronicizzare le interazioni, di seguire passo passo le reti di rapporti e di illuderci di comprendere il mondo in questo modo.
Questo processo di datificazione non ha risparmiato nessuno, e ne siamo parte anche noi, nel senso che siamo noi stessi a lasciare tracce del nostro passaggio ovunque, e non possiamo farne a meno. Sia chiaro, non per colpa nostra! La dipendenza (non casuale) da smartphone e altre tecnologie, l’utilizzo di Alexa e delle comodità delle smart home sono la ragione per cui la datificazione continua imperturbata.
Chiaramente, le proposte legislative del tipo del recente pacchetto europeo sul digitale sono importantissime[1], sia per fare in modo che l’accumulo di dati non avvenga a svantaggio delle imprese più piccole, ma anche per imporre quella trasparenza di cui abbiamo bisogno come incentivo a comportamenti meno predatori (anche se, sia ben chiaro, senza severe penalità si va poco lontano…)
Il processo di datificazione significa che ogni passaggio della vita diventa un qualcosa da trasformare in dato, da dare poi in pasto ad algoritmi per identificare i pattern, analizzare i comportamenti, individuare i trend e, alla fine, definire le politiche.
L’impatto delle tracce digitali sul futuro dei più piccoli
In un libro molto interessante[2], l’antropologa Veronica Barassi si interroga su cosa questo possa significare per le generazioni che hanno avuto il “privilegio” di una vita digitalizzata fino dall’inizio: dal monitoraggio in fase embrionale, a quello da piccoli tramite gli smart toys, passando per le foto su Facebook fino alla datificazione del sistema educativo.
Partendo da un racconto anche personale, in cui molti genitori si ritroveranno, Veronica si domanda quale impatto le tracce digitali potranno lasciare nel futuro dei più piccoli di oggi. In altre parole, le tracce digitali dei giovanissimi sono un racconto pubblico e intimo insieme, che mai come ora riduce la propria identità a una visualizzazione oramai condivisa con il mondo, spesso su scelta (non necessariamente conscia o volontaria) di un genitore.
In una serie di colloqui e interviste, il libro snocciola una realtà fatta di tracciamento dei dati personali (la famiglia, la casa) che per molti è diventato un fattore essenziale della gestione familiare. Specialmente per le donne, l’elemento tecnologico, lungi dall’essere una semplificazione dell’esistenza, diventa spesso un ulteriore strumento di pressione verso prestazioni da Wonder Woman. C’è poco da fare, ma i frigoriferi smart, lo shopping online con tanto di suggerimenti, i sistemi di monitoraggio dei bambini che consentono di lavorare, non hanno liberato le donne; al contrario, sembra che il traguardo della perfezione si allontani sempre più.
Strapotere degli algoritmi, le conseguenze della datificazione sulle giovani generazioni
La monetizzazione: dati come capitale
Sia chiaro, i dati sono importantissimi; la datificazione come progetto ideologico invece no. Con questo intendo dire che i dati sono essenziali per aiutarci a comprendere e analizzare, ma non vanno considerati come verità di base.
I dati come specchio della società
Come argomento nel mio libro An Artificial Revolution[3], i dati sono lo specchio della società, delle sue stratificazioni sociali ed economiche. La decisione di elevare una persona a data subject è una scelta mai neutra. Basti pensare alle statistiche sulla violenza, che spesso si riferiscono ad aree dove i dati vengono collezionati di più perché storicamente più violente per ragioni economiche e sociali. Quando questi dati verranno poi utilizzati per decisioni politiche, ci sarà il rischio di costruire politiche discriminatorie e nel lungo termine peggiorative. Oppure, altro esempio: se le decisioni di assegnazione del credito si basassero sulle capacità di guadagno così come registrate in passato, sarebbe giusto concedere meno credito alle donne, solo perché storicamente hanno avuto stipendi inferiori?
I dati non sono oggettivi
I dati non sono oggettivi; tutt’altro. Rappresentano la scelta di chi ha voluto collezionarli. Quando poi sono dati in pasto agli algoritmi, al bias di quella scelta si aggiunge il bias di chi costruisce l’algoritmo – dalla sua ideazione, alla scelta di etichette e criteri.
Perché dico questo? Perché con i dati divenuti parte così importante della nostra economia, si corre un rischio elevatissimo che “data driven” si traduca come “consolidazione delle condizioni attuali”.
I rischi di un sistema scolastico guidato dall’AI
Questo problema esiste in particolare per le giovani generazioni. In fondo, che cosa è la gioventù se non la possibilità di rompere con schemi e passato e sperimentare il mondo, guidati dai propri sogni e secondo la propria personalità? In modo simile a quanto accade con le raccomandazioni online e gli annunci pubblicitari personalizzati, certi algoritmi usati nel sistema educativo rischiano di intaccare proprio questo percorso di individualizzazione collettiva che è la crescita, trasformandola nel suo opposto: una collettivizzazione individuale fondata su algoritmi in grado di dirigere la navigazione dei più giovani, filtrando il loro accesso al mondo. Quasi come se fossero gli algoritmi stessi a costruire la realtà, selezionando quali articoli, news e argomenti presentare e quali nascondere.
“Datizzati” alla nascita: a rischio i diritti delle nuove generazioni
Nel sistema educativo, dove l’istruzione personalizzata sembra essere diventata il nuovo miraggio nella marcia verso un sistema scolastico guidato dalla AI, tutto questo assume un significato importantissimo. In fondo, è il sistema educativo la vera leva dell’emancipazione dell’individuo. C’è da chiedersi come sia possibile conciliare il ruolo della scuola con l’introduzione della personalizzazione in ambito scolastico. O, per metterla in maniera più positiva, come la personalizzazione dell’istruzione, l’assistenza robotica, i programmi di apprendimento modellati sull’analisi dei dati di ciascuno, possano contribuire a un progetto di scuola come leva sociale.
In An Artificial Revolution, discuto di come i dati siano diventati un capitale, e di come adottino le stesse logiche di accumulazione. Nel pacchetto digitale che ha appena cominciato il suo iter legislativo, l’Unione Europea ha previsto una serie di misure per evitare che l’accentramento dei dati nuoccia non solo alla competizione ma anche ai diritti degli individui. Un passo avanti importante nel dibattito sulle big tech e sul ruolo quasi infrastrutturale che sono arrivate a ricoprire.
Flessibilità, ad ogni costo
Leggendo il libro di Veronica, ho trovato molto interessante la sua digressione sul concetto di tempo. Non ho qui lo spazio per approfondire come le unità di misura del tempo si siano evolute insieme alla organizzazione capitalista della nostra società. È un argomento interessante, ma in questa sede ne valuteremo un altro: come la flessibilità, intesa come rottura del tradizionale schema aziendale, sia andata di pari passo con i processi discussi sopra.
Nel processo di datificazione e di accumulazione di dati, la distruzione della distinzione casa/lavoro, oppure tra spazio privato/pubblico, è essenziale per accelerare la produzione costante di informazioni. Più troviamo gratificazione dallo scrolling dei social media, più produciamo quei dati che servono ai social media stessi. Ne deriva che l’immediatezza, la gratificazione istantanea e l’assorbimento tipici del browsing sono un elemento cruciale della data economy.
Danni della AI: la dimensione individuale e collettiva
Di certi danni della AI si parla tantissimo, specialmente in merito agli algoritmi che assumono la funzione di filtro sulla realtà tramite la gestione editoriale delle news. Si parla meno dei danni collettivi, che credo invece siano di portata enorme quando si tratta di bambini.
L’umanizzazione della macchina
Mi spiego con un esempio, di umanizzazione della robotica. Il Dynamics Lab di Boston ci ha regalato l’immagine di robot che ballano. Una immagine inquietante, e per vari motivi[4].
Intanto, è l’umanizzazione stessa dei robot terrificante, a mio parere. È quella che conduce alla loro sessualizzazione (e alla legittimazione della violenza e dello stupro, se si pensa alle sex dolls, oggetti a completa disposizione maschile, ora presenti anche in veri e propri sex brothels); ma è anche quella che conduce al servilismo di Alexa, Siri e Cortana, assistenti virtuali dalle suadenti voci femminili.
L’umanizzazione della macchina, la creazione della vita hanno una origine arcaica; si pensi a Pigmalione, o Eva di Villiers; ma quello che inquieta è l’umanizzazione intesa come trasferimento alla macchina di quelle cose che ci fanno ridere, danno piacere o quelle che desideriamo dagli esseri umani stessi.
I robot che ballano ci fanno sorridere – e questo deve spaventarci. Deve farlo perché, guardando quelle machine, abbiamo l’illusione che danzino – è un illusione dell’essere, che essere non è. Le macchine sono artefatti: oggetti creati dagli esseri umani, che come tali devono essere trattati. Con ciò non si vuole asserire la centralità dell’essere umano ad ogni costo, che forse sarebbe il frutto di una hybris di cui abbiamo visto fin troppi danni, a partire dall’ambiente che ci circonda. Ma si vuole rifiutare che quella stessa hybris trovi nella macchina una sua nuova espressione.
La rappresentazione femminile nella robotica
Robot come Sofia, che in Arabia Saudita riceve anche la cittadinanza mentre le donne non possono neanche lasciare il paese senza permesso maschile, sono l’esempio cardine di questa pericolosa umanizzazione.
Il danno collettivo (o “rappresentazionale”) si riferisce, ad esempio, a come la rappresentazione femminile nella robotica possa contribuire all’immagine delle donne, al rafforzamento degli stereotipi e alla perpetuazione delle disuguaglianze esistenti.
In modo simile, c’è da chiedersi se il microtargeting non abbia lo stesso rischio. Dal momento che le generazioni più giovani vengono nutrite in continuazione di una realtà composta da inserzioni pubblicitarie e raccomandazioni basate su dati storici, si dovrebbe valutare quanto questo flusso ostacoli la liberazione da quegli stereotipi, ancora troppo presenti.
Una nuova dimensione dell’etica: l’artificiale per ripensare l’infanzia
Si parla molto di dimensione etica della tecnologia; troppo spesso però la discussione etica diviene una copertura per giustificare un prodotto già pronto per il mercato. Questo avviene senza dubbio perché l’etica è complessa, ma soprattutto perché la prima domanda da porsi dovrebbe sempre essere se lo scopo della discussione etica sia di supportare i valori e obiettivi che ci siamo posti.
Il dibattito etico si è intrecciato con quello sull’intersezionalità della disuguaglianza, e da questo connubio stanno nascendo finalmente delle riflessioni interessanti. La prima è che una soluzione tecnologica non basterà mai: anche il prodotto tecnologicamente idoneo, che non produce bias (possibile?) può essere utilizzato in modo malevolo. Un esempio per tutti? Il riconoscimento facciale. Ci concentriamo cosi tanto sul danno, e a ragione, perché non riconoscere correttamente una persona nera vuol dire condannarla a un destino di ingiustizia e di errori. Ma anche se queste macchine di riconoscimento facciale non avessero più bias, c’è sempre il rischio che la scelta di come utilizzarle produca essa stessa una discriminazione. Sicuramente verrebbero usate in certe parti della città, e non in altre, e solo in determinate occasioni.
Con questo voglio dire che finalmente, e grazie al talento, al coraggio e alla passione di tante e tanti che lavorano nella tecnologia, nella filosofia e nei diritti umani, stiamo adesso comprendendo la natura politica dei dati e degli stessi artefatti tecnologici. E quindi, prima di pensare alle correzioni, cominciamo a chiederci in primo luogo se quell’artefatto vada o no realizzato.
Questa domanda è importantissima quando si parla di infanzia, scuola e nuove generazioni. Perché quello è il terreno della libertà e dell’autonomia, della emancipazione dalle provenienze. E quindi, forse, è proprio in questo terreno che l’etica può assumere la dimensione più vera, e la tecnologia può tornare ad adattarsi a noi, invece di doverci noi adattare alla tecnologia.
__________________________________________________________________________
- The Digital Services Act package, https://ec.europa.eu/digital-single-market/en/digital-services-act-package ↑
- Veronica Barassi, Child | Data | Citizen, MIT Press 2020, https://mitpress.mit.edu/books/child-data-citizen ↑
- Ivana Bartoletti, An Artificial Revolution: on Power, Politics and AI, Indigo Press 2020, https://www.theindigopress.com/an-artificial-revolution ↑
- James J. Ward, Why the Dancing Robots Are a Really, Really Big Problem, The StartUp, 30 Dicembre 2020, https://medium.com/swlh/why-the-dancing-robots-are-a-really-really-big-problem-4faa22c7f899 ↑