Con ChatGPT e Lensa l’intelligenza artificiale è diventata semplice da usare nella vita quotidiana anche per chi non si intenda di computer e software.
Come per tutte le nuove tecnologie, si tratta però di strumenti il cui utilizzo potrebbe essere anche distorto per intenti illeciti o immorali; restano, inoltre, alcuni problemi irrisolti per quanto riguarda le conseguenze del loro ingresso nella società e nella vita quotidiana.
Facciamo il punto della situazione.
IA generativa, ecco perché tutti ne parlano
Oltre a testi, risposte argute e immagini, l’IA ha generato certamente un enorme entusiasmo collettivo alla fine del 2022, facendo sì che lo scorso anno si chiudesse con numeri davvero impressionanti di utenti che hanno cominciato a utilizzare queste nuove tecnologie.
A fine novembre è stata resa accessibile agli utenti online la chatbot ChatGPT, la nuova creazione della startup OpenAI, che ha superato il milione di utenti già nella prima settimana di dicembre, come annunciato su Twitter da Sam Altman, Chief Executive di Open AI, e riportato da Dalvin Brown and Ann-Marie Alcántara sul Wall Street Journal[1]. Nello stesso periodo, l’app Lensa ha avuto un aumento vertiginoso di download passando dal 161 al 1 posto della classifica delle app più scaricate negli USA nel giro di una settimana.
A inizio gennaio 2023 sono cominciate a circolare voci sull’intenzione di Microsoft di investire 10 miliardi di dollari per ChatGPT. Poco meno di un mese dopo, la società ha annunciato una nuova versione del suo motore di ricerca Bing, potenziato dalla chatbot.
ChatGPT trasformerà tutti i servizi Microsoft: le prospettive
Ed è stata infine la volta di Google che il 6 febbraio ha presentato la propria versione di chatbot integrata nel motore di ricerca, chiamata Bard, che usa la tecnologia di LaMDA. Ma non tutto, in questo caso, è andato come previsto.
Ma andiamo per gradi.
ChatGPT e Lensa, l’IA a portata di tutti
Oltre alle caratteristiche tecniche di questi strumenti, un fattore determinante per il successo è stata probabilmente anche la loro funzione. ChatGPT dà infatti a chiunque la possibilità di dialogare con una IA (fino al raggiungimento della capacità massima del sito, eventualità tutt’altro che rara, visto l’enorme successo) senza che sia predeterminato un fine specifico, ma idealmente anche per puro divertimento derivante dall’interazione con una Intelligenza Artificiale. L’interesse di OpenAI, precisato sul sito web della startup dove viene consentito l’accesso a ChatGPT, è quello di ricevere in tal modo i feedback degli utenti e raccogliere nuove informazioni sui punti di forza e sulle debolezze del prodotto; per questo motivo, l’utilizzo ChatGPT in questa fase viene consentito gratuitamente. Come detto sopra, il successo è stato immediato: chattare con ChatGPT si è dimostrato per molti divertente e sorprendente per via delle risposte effettivamente “intelligenti” dell’IA che potrebbero essere scambiate per interazioni con una persona reale.
Oltre all’aspetto ludico, sono poi emersi nuovi interessanti (e preoccupanti) usi di questo strumento, che vedremo meglio nel prossimo paragrafo. In ogni caso, le possibili applicazioni (lecite) dell’IA sono varie; ma perché provare a elencarle noi, quando possiamo farle dire dalla stessa ChatGPT?
Ecco cosa ci ha risposto quando abbiamo chiesto in che modi può essere utilizzata:
Riassumendo, ChatGPT sostiene di poter essere usata per i seguenti scopi:
Le immagini sono screenshot presi dalla conversazione che abbiamo avuto con ChatGPT in data 13 gennaio 2023. Le risposte possono variare in base al momento della richiesta e all’utente e quest’ultimo, se non è soddisfatto, può generarne una nuova cliccando sul pulsante “Regenerate response”.
L’app Lensa, invece, utilizza l’IA generativa “text to image” di Stable Diffusion per fornire agli utenti un servizio di editing di foto rivoluzionario e sorprendente, consentendo loro di creare, a partire da un semplice selfie, nuove immagini in vari stili artistici. Non ci dà, quindi, un divertente interlocutore, ma contenuti unici e innovativi che possono alimentare i profili social degli utenti (sono molto usati, ad esempio, come immagine del profilo sulle varie piattaforme). È facile intuire perché questa app sia diventata un fenomeno di tendenza nel settore tech, in una società come la nostra nella quale siamo costantemente alla ricerca di contenuti visivi da pubblicare.
Usi preoccupanti e problemi irrisolti
In questi pochi mesi dalla sua apertura al pubblico, è divenuto chiaro che ChatGPT può essere usato per finalità che vanno ben oltre quelle che esso stesso ci ha elencato. Pensiamo agli studenti che fanno fare a lui i propri compiti (è molto bravo a scrivere i temi), tanto che nelle scuole pubbliche di New York City è stato vietato l’accesso a questa IA, come riportato da Jennifer Korn and Samantha Kelly per CNN. Ma ChatGPT può essere usato anche per generare codici informatici e sono emerse notizie molto più preoccupanti sul possibile uso di questa funzionalità da parte di cybercriminali, come riporta Alessandro Longo sul Sole 24 Ore. Anche se, in via generale, ChatGPT si rifiuta di fornire questo tipo di risposte (abbiamo provato a chiedergli un codice informatico per recuperare password di account di posta elettronica, ma si è dichiarato incapace di farlo) tutto dipende da come gli vengono poste le domande: per quanto possa essere sofisticato, è pur sempre un generatore automatico di testi con delle limitazioni nel riconoscere ciò che è giusto e ciò che è sbagliato e nel distinguere tra realtà e finzione – in un certo senso, potremmo definirlo ingenuo.
Restano poi i problemi, comuni anche ai generatori di immagini come Lensa, di stampo etico, economico e sociale nello sfruttare queste IA in sostituzione di artisti e professionisti reali. Dobbiamo inoltre ricordare che questi sistemi sono ancora ben lontani dalla perfezione e in certi casi possono compiere errori, più o meno innocui (come quando ChatGPT ci ha raccontato un aneddoto su una iguana, che nella sua storia volava) ed essere influenzati da bias che portano a risultati distorti (come le immagini ipersessualizzate prodotte, a volte, da Lensa).
Inoltre, è necessario fare attenzione alla proliferazione di app che simulano le funzionalità di queste IA ma, in realtà, hanno finalità illecite – come la raccolta di dati personali dell’utente, o l’installazione sui suoi dispositivi di malware.
Specifico di Lensa e delle IA generative di immagini è poi il problema della creazione di immagini sessualmente esplicite non consensuali che possono essere usate, ad esempio, per revenge porn.
Infine, non dobbiamo dimenticarci della questione legata alla sostenibilità di queste IA, che consumano enormi quantità di risorse. Per ChatGPT, Sam Altman ha definito i costi “eye-waterning” (“da lacrime agli occhi”, traduzione nostra). Bisognerà quindi trovare il modo di monetizzare queste tecnologie.
Prospettive future: la corsa alla chatbot e cosa ne sarà delle nostre ricerche online
Come anticipato in apertura di questo contributo, a inizio gennaio 2023 era circolata la notizia che Microsoft stava valutando di investire 10 miliardi di dollari in OpenAI per poi integrare ChatGPT nel suo motore di ricerca Bing, in modo da renderlo più competitivo nei confronti di Google. Il 7 febbraio è stato annunciato il lancio della nuova versione di Bing, integrata con la chatbot; Satya Nadella, CEO di Microsoft, ha affermato che “è un nuovo giorno per la ricerca” e il post contenente la notizia sul blog ufficiale della società è intitolato “Reinventing search with a new AI-powered Microsoft Bing and Edge, your copilot for the web”.
La (sfortunata) replica di Google
Tuttavia, già da qualche settimana era nota questa intenzione e Google sembra essersi attivato tempestivamente per restare al passo: il 6 febbraio ha presentato la propria versione di chatbot integrata nel motore di ricerca, chiamata Bard, che usa la tecnologia di LaMDA. Il lancio frettoloso è però costato alla società di Mountain View un crollo del 7% del valore delle sue azioni a causa di un errore contenuto in una risposta di Bard usata come esempio nella presentazione pubblica del sistema. Alla richiesta di spiegare a un bambino di 9 anni come funziona il James Webb Space Telescope (JWST), Bard ha infatti risposto che “Il JWST ha scattato le prime foto in assoluto di un pianeta fuori dal nostro sistema solare. Questi mondi lontani sono chiamati “esopianeti””; peccato che, come fatto notare dall’astronomo Grant Tremblay, la prima immagine di un esopianeta era stata catturata da un altro telescopio (il Very Large Telescope dello European Southern Observatory) nel 2004, ben prima della messa in funzione del JWST (il cui lancio risale al 25 dicembre 2021). Questo episodio ha portato alla luce una problematica già da tempo nota nel settore dei modelli linguistici ed evidentemente ancora non superata: l’IA parla sempre meglio, è vero, ma ancora non sa davvero cosa dice.
L’intelligenza artificiale “parla” sempre meglio ma non sa cosa dice: rischi e soluzioni
Corsa alla chatbot
Quello che è certo è che nel settore dei motori di ricerca stiamo assistendo a una vera e propria “corsa alla chatbot”. Se anche solo uno di questi progetti dovesse andare a buon fine, potrebbe avere un impatto rivoluzionario sul modo in cui sfruttiamo Internet per reperire informazioni. Tuttavia, come ci mostra l’errore di Bard, potrebbe anche aumentare la diffusione di fake news e contenuti imprecisi, inappropriati o illeciti.
Già da anni nelle scuole si cerca di insegnare ai ragazzi a usare consapevolmente i motori di ricerca, non fermandosi ai primi risultati e verificando sempre tutte le fonti. Anche evitando considerazioni catastrofiste sull’impatto educativo sulle prossime generazioni derivante da una chatbot che risponde immediatamente a qualsiasi domanda le venga posta, è chiaro che l’approccio a queste attività dovrà essere rivoluzionato, trovando metodi di verifica efficaci per questo tipo di strumento di ricerca.
Uno dei rischi, altrimenti, è che le nuove generazioni “scoprano” l’esistenza di iguane volanti.