L’AI ci rende la vita più comoda e ci semplifica tante attività quotidiane, ma le ombre, in tema di trasparenza degli algoritmi e di eccesso di potere, forse superano le luci. L’AI sembra aiutarci a vivere meglio, ma ha contraddizioni e criticità. E non è solo una questione di ambiguità etica, come ammonisce anche il libro “The Loop: How Technology Is Creating a World Without Choices and How to Fight Back” di Jacob Ward.
Gli algoritmi di intelligenza artificiale sono sempre più efficienti, ma mostrano eccesso di potere nell’influenzare i comportamenti umani e sfruttare le nostre fragilità. Ne abbiamo parlato con gli esperti per capire se noi essere umani stiamo perdendo la libertà di scelta e come correre ai ripari.
AI: algoritmi troppo efficienti
Quando cerchiamo musica nuova, spesso per comodità e per non perdere tempo, ci affidiamo l’algoritmo di raccomandazione del servizio di streaming, permettendogli di suggerirci canzoni simili alla musica che già ci piace.
Tuttavia queste tipologie di algoritmi tendono a focalizzarci e a “rinchiuderci” in un feedback loop che tende a mitigare il nostro pensiero critico.
“La nuova generazione di AI”, commenta Giuseppe Riva (ordinario di Psicologia generale, Università Cattolica del Sacro Cuore), autore del saggio “Zero Sales Resistance: The dark side of Big Data and Artificial Intelligence“, “basata sul machine learning che simula i meccanismi di apprendimento automatico del nostro cervello è ormai diventata efficacissima nel prevedere e influenzare i comportamenti umani. E davanti alla potenza degli algoritmi l’unica arma di difesa è bloccare i nostri processi automatici di decisione e dedicare del tempo a riflettere sull’impatto delle nostre scelte”.
The Loop svela gli eccessi dell’AI
Il 2022 sembra iniziato sotto il segno di un sentimento mainstream anti-tech. Dieci anni dopo libri che hanno coniato i termini del cambiamento dell’umore della pubblica opinione sulle Big tech, come “The filter bubble” e “l’Era del capitalismo della sorveglianza”, ora vediamo documentari su Netflix sulla sorveglianza di massa, sui danni che ciò comporta e come gli algoritmi delle piattaforme sull’artificial-intelligence (AI) minaccino la nostra stessa società.
Inoltre, Lina Khan e Meredith Whittaker, che avevano espresso critiche contro certi eccessi o abusi da parte della tecnologia, sono entrate nell’amministrazione Biden, mentre Jacob Ward di NBC News ha dato alle stampe “The Loop”, un libro che indaga come “l’AI in ambito capitalistico stia depredando le nostre fragilità psicologiche, minacciando di creare un mondo in cui le tecnologie restringono le nostre scelte, limitano il nostro agire umano e i nostri peggiori impulsi inconsci finiscono per dominare la società”.
Quando noi esseri umani prendono decisioni, il cervello è veloce a prendere scorciatoie. Nel farlo, commettiamo errori prevedibili e sistematici come calcolare male i rischi e fidarci troppo dell’autorità. Ward ci avverte che le aziende di tecnologia, per aumentare i profitti, sfruttano algoritmi per dirottare questi pattern inconsci. Il “loop” di cui parla Ward è la nostra crescente dipendenza su prodotti basati sull’AI — Spotify per i suggerimenti musicali, gli algoritmi dei social media per le news, le armi automatiche per fare la guerra — che trainano questa sconsideratezza che ci rende sempre dipendenti dall’AI, in un loop infinito.
“In una generazione o due”, teme Ward, “saremo una specie differente — distratta, obbediente, impotente a opporre resistenza alle tecnologie che usiamo per fare le nostre scelte, anche se sono quelle sbagliate”.
Il caso David Dao
Ward cita un grave incidente causato da overbooking nel 2017. Un anziano medico vietnamita, David Dao, finì in ospedale a causa di una lite, provocata da un algoritmo. L’overbooking sul volo costrinse Dao ed altre tre persone, scelte a caso, a scendere dall’aereo, per fare spazio a quattro dipendenti della compagnia aerea, ma si ribellò alla stupidità e al potere di misteriosi algoritmi all’origine dell’overbooking. Il medico rimase ferito. L’autore di The Loop commenta che la tecnologia dovrebbe aiutare a prendere decisioni e noi dovremmo imparare a comunicare bene queste decisioni, senza creare danni a esseri umani, invece non sempre avviene.
coParenter, l’app in cui l’AI rende più civili i divorzi
L’AI migliora la vita delle persone, ma Ward sottolinea le ombre anche laddove a prima vista si vedono solo luci. Un esempio: l’app coParenter permette a chi divorzia di comunicare in maniera civile, mitigando l’uso del linguaggio ostile che incita a essere diffidenti e a contrapporsi. Ma l’autore di “The Loop” teme che l’AI, invece di allenarci a un uso consapevole e responsabile della collegialità delle decisioni durante un divorzio, ci impedisca di imparare a gestire i conflitti, una competenza essenziale per vivere, e non solo per dialogare con l’ex durante una separazione.
AI e l’irriducibile libertà di scelta
Cerchiamo nuova musica, lasciamo la scelta delle canzoni all’algoritmo di raccomandazione del nostro servizio di streaming preferito. La scelta è facile e comoda, in fondo proviamo gratitudine di vivere in un’era in cui scopriamo tutta la musica che ci piace e gratifica.
Tuttavia dovremmo domandarci se la tecnologia stia contribuendo a creare un modo senza possibilità di scelta. Le scienze comportamentali stanno aiutando gli algoritmi a diventare sempre più efficienti.
Ne abbiamo parlato con Guido Vetere, professore di Intelligenza Artificiale del Corso di Laurea in Ingegneria Informatica dell’Università degli Studi Guglielmo Marconi: “Intanto diciamo che non tutti gli algoritmi di raccomandazione usano un’intelligenza artificiale particolarmente innovativa, molti sistemi di raccomandazione analizzano semplicemente i cluster: tutti quelli che hanno ascoltato Vivaldi, ascoltano Locatelli, quindi in base alle mie scelte iniziali vengo clusterizzato, finisco in un cluster in cui ci sono alcune preferenze.
C’è non solo intelligenza artificiale, ma statistica eccetera. Gli algoritmi che usano queste tecniche possono essere molto semplici o al contrario estremamente sofisticati. A fare la vera differenza non è tanto l’algoritmo, quanto i dati. I sistemi che vedono che mi piacciono i Gialli mi raccomandano questo genere. Poi ci sono i sistemi che associano un contenuto a un set classificatore, attraverso il machine learning. Ma a fare la differenza non è tanto l’algoritmo di classificazione, la cui logica è open source, ma a fare la differenza sono i dati. Dati che diamo in pasto noi, mettendo i Like sui social media eccetera: tutto contribuisce a profilarci. Sono dati che noi forniamo, in cambio di un servizio che ci fa comodo. Ora il pericolo è il collasso dei luoghi comuni: chi ascolta Vivaldi, sentirà sempre l’autore delle Quattro Stagioni, Cimarosa eccetera.
Tuttavia alcune piattaforme come Spotify cercano di divergere, introducendo una variabilità, del rumore per scuotere un po’ le acque. E comunque c’è da considerare che se ascolto Locatelli perché me lo ha suggerito Spotify, in quanto ho ascoltato Vivaldi, quella è una mia scelta: lì avviene l’irriducibile libertà.
Invece è diverso quando Facebook compone la mia Timeline: la piattaforma opera delle scelte e nasconde dei post. I meccanismi di raccomandazione sono diversi: in alcune piattaforme gli algoritmi causano fenomeni di collasso, in altre piattaforme la libertà di scelta invece non viene sottratta. E quindi c’è spazio e tutela per la nostra soggettività. In fondo, a noi rimane sempre la possibilità di chiudere Facebook, perché la libertà è sempre una scelta“, conclude Guido Vetere.
Le Black box
La tecnologia che le aziende usano, impiega il pattern recognition per suggerirci cosa ci piace. Le decisioni istintive, nove volte su 10 ci fanno scegliere i pattern, e solo una volta su dieci sono più smart.
La maggior parte delle aziende non vuole che gli utenti siano consapevoli del funzionamento degli algoritmi. La nostra vita ha sempre influenzato l’esperienza e plasmato i nostri gusti musicali, ma ora l’algoritmo fa tutto per noi e al nostro posto.
Prima sapevamo tutto della nostra band preferita o della tendenza musicale che seguiamo di più, ora, se qualcuno ci chiede cosa stiamo ascoltando, possiamo a volte limitarci a rispondere: “Ascolto ciò che mi raccomanda l’algoritmo di Spotify”. La tecnologia è così efficiente che ci sta inducendo a rinunciare alle nostre facoltà critiche.
Dovremmo domandarci quale sia la differenza fra essere dipendente da qualcosa che ci fa bene e da qualcosa che ci fa male. La differenza è un uso non consapevole della tecnologia, un utilizzo che ci rende dipendenti da essa.
Infatti, le tecnologie che aiutano ad aumentare la polarizzazione e a simulare meccanismi di apprendimento automatico del nostro cervello sono molto pericolose.
Tuttavia, per scongiurare i rischi insiti nell’AI, sarebbe utile introdurre maggiore trasparenza negli algoritmi, perché nessuno deve poter giocare con il nostro inconscio, con gli impulsi peggiori. Le modalità tipiche del marketing dell’analisi predittiva possono influenzare le nostre vite e società.
Molti algoritmi sono opachi e sembrano vere Black box dal lato consumatori. Le black box hanno un impatto su di noi e la nostra dipendenza dall’AI ci paralizza. Le aziende sanno che i sistemi AI funzionano, e sono talmente efficienti e performanti che nessuno sembra voler assumersi le proprie responsabilità.
Tuttavia possiamo trovare efficaci contromisure per evitare un mondo plasmato dall’AI.
Serve una regolamentazione: bisogna pretendere trasparenza degli algoritmi, perché l’uso dell’AI sta rimodellando le nostre società future. Bisogna essere veloci a capire cosa sta succedendo perché la tecnologia progredisce a passi da gigante. Ed è giunta l’ora di sedersi a un tavolo per trattare con le aziende che usano l’AI e insegnare alle nuove generazioni l’uso consapevole delle tecnologia, il senso critico e la libertà di scegliere.