L’Intelligenza Artificiale gode oggi di un nuovo picco di notorietà dovuto alla sua progressiva popolarizzazione d’uso che è diventata tangibile e visibile attorno a software di immagini come a DALL·E 2 e Midjourney (probabilmente in molti avranno visto diffuse in rete le immagini di Donald Trump arrestato, Putin in manette o, ancora, Papa Francesco con un piumino bianco in stile rapper) o come ChatGPT che è capace di produrre testi che sembrano scritti una persona e di alimentare conversazioni, e per questo è implementato in chatbot oltre che in un motore di ricerca come Bing di Microsoft.
Una quotidianizzazione d’uso, sia per produzione sia di fruizione, che crescerà con l’implementazione dell’AI generativa nei prodotti Microsoft con Microsoft 365 Copilot che entra attraverso le app di Office nei nostri desktop degli uffici e delle scuole, quando sarà possibile farsi suggerire da Word come continuare a scrivere un documento aziendale e chiedere a PowerPoint di farne delle slide. O quando l’AI conversazionale di Alphabet, Bard, sarà implementata su Google, uno dei più diffusi motori di ricerca al mondo e lasciata sperimentare a centinaia di milioni di utenti.
L’Intelligenza Artificiale di massa
Il fatto che l’AI diventi di massa ha per ora un’accezione sperimentale. Tutti i prodotti che ho nominato si stanno infatti aprendo alle persone perché hanno bisogno di sperimentarsi sul campo e, poiché apprendono dai ed evolvono nei contesti d’uso, devono stare dove le persone, in tutta la loro complessità, stanno. E quando penso al “dove stanno” e al “come stanno” le persone penso ad una rete che utilizziamo sì per informarci, per intrattenerci e stare connessi, ma in un contesto che nel tempo si è fortemente caratterizzato per derive polarizzanti e tossiche, per alimentare le nostre inquietudini e i nostri desideri, in cui ci muoviamo tra forme di disinformazione e misinformazione e tra linguaggi incivili.
La lettera di Sundar Pichai ai dipendenti
Il CEO di Alphabet Sundar Pichai ha inviato una email ai propri dipendenti in cui scrive che il futuro di Bard AI dipende adesso dai test pubblici e chiarisce che “Man mano che sempre più persone inizieranno a utilizzare Bard e a testarne le capacità, ci sorprenderanno. Le cose andranno male. Ma il feedback degli utenti è fondamentale per migliorare il prodotto e la tecnologia sottostante.”
Il punto è che Bard potrebbe commettere errori, potrebbe dare risposte imprecise o inappropriate. E questa via sperimentale in cui l’immagine pubblica dell’AI di massa passa necessariamente da una fase di scarsa accuratezza e dai rischi di errori che spesso possono essere invisibili, sembra un’invitabile conseguenza per il progresso: “le cose andranno male”. Non ci si pone domande sullo sfruttamento del lavoro umano (il nostro) per addestrare la macchina o di quanto sia etico mettere nelle mani delle persone uno strumento che simula una conversazione dandoci risposte imprecise come se fossero certezze. E non basta sostenere, in modo paradossale, con una sorta di alert che le risposte date per vere potrebbero essere false. I contesti d’uso delle tecnologie che abitiamo per le nostre pratiche quotidiane non funzionano così: chiediamo una strada a Google Maps e ci aspettiamo che ci mostri la direzione da prendere; cerchiamo un tutorial sulla carbonara e lo seguiamo passo passo… coltivare il dubbio, nell’era dei motori di ricerca, non è esattamente ciò che pratichiamo di più; quanti di voi facendo una ricerca su Google si chiedono perché quella determinata risposta sia al primo posto e a che titolo?
Il primo punto su cui riflettere mi pare proprio questo: quale immagine pubblica dell’AI si sta producendo attraverso software che la sperimentano fra e con le persone, i cui usi sono i più vaghi e diversi – in fondo è un test sperimentale –: dall’aiuto per scrivere righe di codice, alle discussioni esistenziali, alla produzione di immagini fake divertenti o significativamente politiche, all’uso da parte di studentesse e studenti per avvantaggiarsi nei compiti di scuola o come ausilio per impostare una tesi di laurea. Il tutto con uno spirito imprenditoriale che dà per scontato che le cose, per ora, “andranno male” e in un contesto in cui, portata al centro dell’attenzione dei media, è assoggettata alla ricerca di ogni stortura e stranezza da parte di chi vuole raccontarla come i giornalisti: dalle AI che interrogate in modo insistente producono risposte stizzite, ai tentativi per capire come aggirare le limitazioni e mostrare come diano le istruzioni per costruire una bomba.
Tra panico morale istituzionale e orientamento all’innovazione a misura delle persone
Le conseguenze sono una sorta di panico morale istituzionale le cui conseguenze stiamo cominciando ad osservare adesso. Lo stato di New York ha vietato già a inizio d’anno l’uso di ChatGPT su tutti i dispositivi e le reti nelle scuole pubbliche e Jenna Lyle, che è la portavoce del dipartimento dell’educazione cittadino, ha affermato che la decisione deriva da “preoccupazioni per gli impatti negativi sull’apprendimento degli studenti e preoccupazioni per quanto riguarda la sicurezza e l’accuratezza dei contenuti”.
In questi giorni abbiamo assistito ad un appello pubblico del Future of Life Institute (FLI) firmato da alcune migliaia di persone, compreso il CEO di Twitter Elon Musk, che chiede una moratoria di sei mesi sull’uso dell’AI. Il presidente del FLI è Max Tegmark, professore di fisica al MIT di Boston, leader di una corrente di pensiero cosiddetta dell’AI benefica che si rifà ad una visione polarizzata che vede, da una parte, lo sviluppo dell’AI come parte del progresso dell’umanità e, dall’altra, come possa essere uno strumento di cybersorveglianza globale. Il FLI raccoglie le preoccupazioni un po’ estreme della prospettiva di sviluppo di una super-intelligenza delle macchine che potrebbe portare alla sparizione dell’umanità. Attorno a queste tensioni distopiche, l’appello sottolinea come “l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate” e si chiede: “dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?”. La pausa di sei mesi richiesta dovrebbe avere il compito di consentire ai laboratori di AI di sviluppare protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale e agli sviluppatori di collaborare con la politica per delineare sistemi solidi di governance dell’AI. Curioso che l’appello sia firmato da imprenditori, come Elon Musk – che è stato tra i fondatori di Open Ai, l’azienda che promuove ChatGPT e ora se ne è allontanato – ma anche da Emad Mostaque – che dirige Stability AI che di Chat GPT è competitor – e che hanno interessi imprenditoriali in gioco forse più che morali. D’altra parte, questo appello, nei fatti irrealizzabile se non ci fosse un intervento regolatorio da parte degli Stati, è la cartina al tornasole di un’inquietudine per un’accelerazione dell’uso sociale dell’AI guidata dal laissez-faire del mercato e in cui le trasformazioni future saranno guidate da una mano invisibile sintetica.
Lo stop del Garante privacy italiano a ChatGPT
Più concreta in questa direzione la scelta italiana del Garante di fermare l’uso di ChatGPT nel nostro Paese finché non si adeguerà a rispettare la disciplina sulla privacy, poiché viene rilevata “la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma” e “l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti [che espone] i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”.
Stop al quale ChatGPT ha risposto positivamente bloccando l’uso per chi vive in Italia e rendendosi disponibile a collaborare. D’altra parte, muoversi in Europa per l’AI di massa significherà confrontarsi con il GDPR e con una propensione alla regolamentazione da parte dello Stato che non ha corrispondenze nella visione americo-centrica che spesso permea lo sviluppo del digitale in particolare nella rete. D’altra parte, Ursula von der Leyen ha parlato di un’agenda politica europea sull’intelligenza artificiale da quando è entrata in carica. Quella del Garante è un’azione che ha il merito di portare l’attenzione su problematiche reali relative alla diffusione di massa delle AI più che prefigurare fughe allarmiste in avanti, concentrandosi sui rischi dello sfruttamento di dati di massa anche personali rilasciati inconsapevolmente per addestrare le macchine e sulle possibilità che dati personali reali vengano associati a informazioni false: facendo l’equivalente del googlare il proprio nome su ChatGPT spesso il risultato è una miscela di informazioni vere su di sé e di pure invenzioni algoritmiche.
Come precisa Guido Scorza, avvocato che siede nel Collegio del Garante, “davvero si tratta di scegliere se imboccare la strada dell’innovazione o quella del rispetto dei diritti, delle libertà e della dignità delle persone ed è impossibile pensare di orientare l’innovazione in una direzione più rispettosa delle persone?”.
Nonostante le corrette premesse circa le ragioni della scelta del Garante, le conseguenze che hanno portato a bloccare in Italia ChatGPT sono fuori misura: pare più una battaglia di retroguardia di sapore luddista. Sicuramente non sono queste le intenzioni ma gli effetti nell’opinione pubblica sì.
Un secondo punto su cui soffermarci nella costruzione di un immaginario pubblico sull’AI è relativo proprio a questo: abbiamo bisogno di sviluppare un pensiero più ecologicamente orientato, che tenga conto dei costi sociali e morali dell’innovazione sulle persone e del rischio di costruire un ambiente digitale con derive tossiche dovute a un’idea di liberismo tecnologico che porta a sperimentare in modo diffuso la tecnologia senza porsi domande sulle conseguenze se non a sperimentazione avvenuta.
Un’AI di massa mediocre e populista?
Esiste poi un terzo punto che ha a che fare con l’orientare, come opinione pubblica, la nostra preoccupazione sullo sviluppo dell’AI nella corretta direzione. Non credo – e così come me molti altri come Gary Markus che ha scritto con Ernest Davis Rebooting AI: Building Artificial Intelligence We Can Trust – che il principale problema della diffusione di massa dell’AI abbia a che fare con il rischio di produzione di macchine super-intelligenti capaci di sfuggire al controllo umano o di uno sviluppo di una artificial general intelligence in cui le macchine evolvono imparando da se stesse, ma piuttosto che il vero problema sia la diffusione di un’AI mediocre e populista. La versione dell’AI che sperimentiamo oggi è quella dei Large Language Models (LLM) che si aprono a una pluralità di utenti che le sperimentano per compiti soprattutto banali e che si accontentano di risposte mediocri e spesso inesatte, rinforzando in qualche modo la “medietà” più che l’eccellenza, questo almeno mi pare sia uno dei problemi. LLM che hanno poi accesso a una molteplicità di dati di massa, un mix fra conoscenze certificate e contenuti i più bizzarri. Gli LLM come ChatGPT sono come dei JPEG sfuocati di internet, cioè sono essenzialmente delle istantanee a bassa risoluzione di internet che non possiamo quindi pretendere siano prive di sciocchezze. Così come un JPEG comprime i dati approssimando l’immagine, l’AI “sintetizza” milioni di informazioni e opera per interpolazione, stimando cioè quello che manda e ricostruendolo. Per questo la falsa citazione, l’errore in una data di nascita, l’associazione di un contenuto alla persona sbagliata, sono errori sempre dietro l’angolo. Come per l’immagine compressa, vale la figura a condizione che non ci concentriamo sul dettaglio.
Inoltre, non stiamo parlando di intelligenze artificiali applicate a contesti definiti e interrogate da esperti – come potrebbero essere sviluppate nella variante AI dei sistemi esperti in ambiti quali quello medico-scientifico o normativo. Stiamo parlando di AI usata come una commodity nelle attività quotidiane e che trae la sua base dati da quei contenuti quotidiani che incontriamo ogni giorno in rete, nel bene e nel male. Se chiediamo a ChatGPT di scrivere un riassunto di un capitolo della Divina Commedia il compito sarà eseguito in modo corretto ma per ora molto mediocre nei risultati. Certo, una sufficienza può essere garantita ma a scapito di una diffusione spinta di mediocrità. Ci concentriamo sulla figura, appunto, non sui dettagli, che possono fare la differenza per produrre eccellenza.
E quanta della nostra mediocrità e dei nostri pregiudizi sociali verranno riprodotti nell’uso quotidiano dell’AI? Se la base di dati su cui si forma è a rischio di sessismo, di razzismo e di visioni stereotipiche della realtà, i risultati scritti o per immagini quanto, anche involontariamente, conterranno questi bias?
Il rapporto, poi, tra AI e populismo è tra le minacce più evidenziate dagli analisti, visto come l’AI possa essere messa al servizio della disinformazione o della cattiva informazione o come possa essere utile per esporre l’elettorato a versioni della realtà manipolate – fino al limite dei casi di deep fake, ma se ci siamo occupati molto seriamente del Papa in piumino bianco prima di capire che era un falso qualche domanda dobbiamo porcela – ma vicine alle loro preferenze. Infatti, più in generale, la capacità di LLM di rilevare e costruire modelli linguistici può essere usata per impersonare lo stile di discorso di individui o specifici gruppi sociali e l’applicazione su larga scala di questa capacità lascia prevedere nuove inesplorate possibilità per la propaganda politica.
Il tema vero qui è la dimensione di potere sottesa all’AI, che resta implicito in una logica da black box dovuta all’addestramento dell’AI stessa in repertori linguistici non controllabili e nell’uso manipolatorio che malintenzionati di ogni natura – abbiamo descritto la politica ma il mondo delle truffe online è avvantaggiato da questi software così come il terrorismo – possono esercitare.
Aprire quindi oggi un dibattito credibile sul reale impatto sociale di una AI di massa nel quotidiano, delle relazioni delle persone con le AI, più che concentrarsi sulle visioni distopiche delle macchine che diventano intelligenti come gli umani, è la sfida che dobbiamo affrontare, attrezzandoci criticamente più che ideologicamente. Pensiamo infatti anche a quanto di positivo una AI di massa potrà portare nelle vite quotidiane delle persone.
Ma per approfondire meglio questo aspetto mi concentrerei su un esperimento.
Il futuro dell’AI di massa: parlarne con la macchina
Da sociologo, ho imparato che chiedere a coloro di cui si parla facendo ricerca di dare voce alle proprie istanze (ad esempio attraverso forme quali il questionario o l’intervista) è metodologicamente utile per avviare un’interpretazione fondata su dati, piuttosto che dare vita a speculazioni, sicuramente legittime, ma che tendono a muovere da convinzioni personali, per quanto fondate sullo studio.
Quindi quando si parla delle conseguenze di un uso allargato dell’IA possiamo tentare un esperimento che chiede al soggetto di cui si parla (la macchina) di diventare soggetto parlante. Per questo ho chiesto a ChatGPT, poche ore prima della sua chiusura in Italia, “quali problemi può provocare l’uso allargato a tutta la popolazione di ChatGPT?”.
La risposta è questa:
L’uso allargato di ChatGPT potrebbe portare a diversi problemi, tra cui:
- Diffusione di disinformazione: se ChatGPT non viene utilizzato in modo responsabile, potrebbe essere utilizzato per diffondere disinformazione o false informazioni. Questo potrebbe portare a gravi conseguenze, ad esempio la diffusione di teorie del complotto o di notizie false che potrebbero causare panico o danni a persone o organizzazioni.
- Dipendenza dalla tecnologia: l’uso diffuso di ChatGPT potrebbe portare a una dipendenza dalla tecnologia. Ciò potrebbe portare a problemi di salute mentale, tra cui ansia, depressione e isolamento sociale.
- Difficoltà nella comunicazione umana: se le persone utilizzano ChatGPT come mezzo principale di comunicazione, potrebbero perdere l’abilità di comunicare efficacemente con gli altri esseri umani. Questo potrebbe portare a problemi di relazione e alla mancanza di empatia e comprensione reciproca.
- Violazione della privacy: l’utilizzo di ChatGPT richiede l’accesso ai dati personali e alle conversazioni degli utenti. Se questi dati vengono utilizzati in modo improprio o violati, potrebbe esserci una grave violazione della privacy degli utenti.
- Sostituzione del lavoro umano: se ChatGPT viene utilizzato per scopi lavorativi, potrebbe portare alla sostituzione di lavori umani con algoritmi. Ciò potrebbe portare a una maggiore disoccupazione e a problemi economici.
Allo stesso modo, in maniera non pregiudiziale, ho chiesto a ChatGPT “quali vantaggi può provocare l’uso allargato a tutta la popolazione di ChatGPT?”
L’uso allargato di un assistente virtuale avanzato come ChatGPT potrebbe portare a diversi vantaggi per la popolazione. Alcuni di questi vantaggi potrebbero includere:
- Accesso istantaneo a informazioni: ChatGPT può fornire informazioni su qualsiasi argomento in modo istantaneo, fornendo una risposta precisa e affidabile a qualsiasi domanda posta.
- Miglioramento dell’efficienza: ChatGPT può essere utilizzato per automatizzare i processi ripetitivi, consentendo alle persone di concentrarsi su attività più significative e creativi.
- Assistenza in caso di emergenze: in caso di emergenza, ChatGPT può fornire informazioni immediate e accurate, come le istruzioni di primo soccorso o i numeri di emergenza locali.
- Accessibilità: ChatGPT può essere utilizzato da qualsiasi persona, indipendentemente dalla loro capacità fisica o cognitiva, poiché non richiede l’utilizzo di dispositivi specifici.
- Miglioramento dell’apprendimento: ChatGPT può essere utilizzato come strumento di apprendimento per fornire informazioni didattiche in modo interattivo e personalizzato.
- Supporto emotivo: ChatGPT può fornire supporto emotivo e benessere mentale, ad esempio suggerendo esercizi di meditazione o fornendo informazioni su risorse di supporto.
- Riduzione dei costi: l’utilizzo di ChatGPT può ridurre i costi delle organizzazioni, poiché non richiede la presenza di un essere umano per rispondere alle richieste.
Questi sono solo alcuni dei vantaggi che potrebbero derivare dall’uso allargato di ChatGPT a tutta la popolazione. Tuttavia, ci sono anche alcune preoccupazioni riguardanti la privacy e la sicurezza dei dati che dovrebbero essere affrontate per garantire che l’uso di ChatGPT sia sicuro e protetto.
Trovo entrambe le “risposte” algoritmiche equilibrate e degne di attenzione. La consapevolezza nella macchina è lo specchio di una consapevolezza che cominciamo a costruire nel nostro dibattito pubblico sull’AI ma anche con l’AI. Perché probabilmente il vero punto della questione non è tanto sull’intelligenza (termine fuorviante rispetto a quanto sta accadendo) ma sull’artificiale che sta diventando una realtà con cui comunichiamo e interagiamo in modi nuovi e inediti e in un contesto non specialistico ma quotidiano e di massa.