L’intelligenza artificiale generativa ha occupato gli onori della cronaca nel 2023, e chi l’ha provata ha cercato di capirne l’impatto concreto nella vita reale. Sappiamo tutti che oltre alle grandi potenzialità di queste nuove tecnologie vi sono numerose insidie, molto prima di arrivare a vivere l’incubo fantascientifico di Skynet che cerca di eliminare il genere umano.
L’IA per amplificare le capacità umane
Un gruppo di ricercatori dell’Harvard Business School, dell’MIT e del Boston Consulting Group, ha recentemente pubblicato un “working paper”, ovvero un lavoro scientifico ancora in corso di sviluppo, dedicato ad investigare l’impatto sulla produttività di consulenti nell’adozione di ChatGPT come strumento a supporto dell’attività di consulenza.
Si tratta di un lavoro decisamente articolato e in qualche modo rassicurante: l’intuizione che l’AI generativa possa funzionare da amplificatore delle capacità personali sembra trovare riscontro oggettivo nella ricerca, aiutando a delineare un futuro meno solitario per l’AI.
Le storie fantascientifiche di assistenti intelligenti come K.I.T.T. in super car o Jarvis in Iron Man prendono oggi forma ed entrano in quella parte della fantascienza dello scorso secolo che è divenuta rapidamente realtà. È infatti notizia altrettanto recente che OpenAI sta rilasciando una nuova versione di ChatGPT capace di interagire vocalmente e di “guardare” il mondo attraverso scatti presi con la fotocamera.
Ecco, quindi, che si aprono nuovi scenari, in cui si chiedono cose puntuali scattando foto col nostro smartphone e chiedendo aiuto o informazioni su oggetti o scene del mondo reale senza doverle descrivere.
Tutte queste nuove abilità sembrano essere centrali per i recatori di Boston per “amplificare” le capacità umane, proprio come hanno immaginato gli scrittori di fantascienza.
L’impatto dell’IA sulle attività di consulenza
I ricercatori hanno confrontato i risultati prodotti da consulenti con e senza l’aiuto di ChatGPT-4 nello svolgimento di 18 compiti. I risultati sono presto riassunti nel seguente grafico:
I consulenti che hanno usato l’AI nello svolgere il proprio compito hanno svolto il proprio compito in modo decisamente migliore. In accordo al lavoro di ricerca chi si è avvalso dell’AI ha finito il 12,2% in più dei compiti, completandoli mediamente il 25,1% più rapidamente e con una qualità del 40% superiore a chi non ha ricevuto il supporto di ChatGPT.
Si tratta di un risultato, almeno per me, largamente atteso: anche se non ho delle misure la mia percezione è che l’AI abbia contribuito ad accelerare il mio lavoro nel corso dell’ultimo anno. Nello studio però, oltre alle conferme, vi sono anche considerazioni ed elementi meno ovvi, almeno a prima vista.
L’AI è una livella
Un primo effetto che sicuramente offre spunti di riflessione è l’effetto di una sorta di livella che l’amplificazione delle capacità dei consulenti da parte dell’AI ha comportato: i consulenti meno “abili” hanno ottenuto un aumento della propria performance del 43% a parità di compito contro un miglioramento del “solo” 17% che hanno ottenuto quelli invece più “abili”. Se intuitivamente si tratta di un fatto facilmente accettabile visto che l’AI sicuramente può aiutare meglio a colmare “lacune” più basilari rispetto a contributi più originali, l’effetto numerico fa pensare: l’AI generativa potrebbe essere un fattore migliorativo della forza lavoro di un’organizzazione agendo in modo più efficace sulle componenti del personale medio. Sicuramente queste percentuali dipenderanno dalla tipologia di lavoro, ma sicuramente le nuove capacità multimodali che non solo OpenAI (ma anche Google, Amazon, e Microsoft) sta mettendo in campo, contribuirà ad un affiancamento da parte dell’AI di sempre più attività lavorative.
I rischi di affidarsi all’AI in modo acritico
Il lavoro scientifico ci mette però in guardia: su compiti selezionati appositamente per mettere in difficoltà l’AI al punto da far produrre risultati sbagliati, i consulenti che hanno fatto uso dell’AI hanno “sbagliato” di più di chi non la ha usata. Ancora una volta troviamo una conferma ad un’intuizione diffusa: c’è il rischio di “affidarsi” troppo all’AI e accettarne le risposte errate in modo acritico. Appare evidente però come anche chi ha revisionato in maniera critica il responso ha sbagliato mediamente di più di chi non ha fatto uso dell’AI.
Si tratta di un fattore molto importante da considerare poiché il rischio di accettare in modo acritico l’output dell’AI generativa lo corrono soprattutto le nuove generazioni che hanno meno strumenti per valutare autonomamente e in modo critico il risultato di una domanda. Ecco, quindi, che il ruolo della formazione sarà sempre più importante per evitare che la popolazione subisca l’AI invece di utilizzarla come un amplificatore delle proprie capacità, ma questa non è una buona notizia se osserviamo il sistema della formazione nazionale, spesso ritroso nell’introduzione di novità e di nuove forme di didattica.
Differenti stili d’uso
La ricerca ha anche evidenziato differenti stili d’uso dell’AI che uno degli autori, Ethan Mollick, ha sintetizzato così in un suo blog post: ci sono i centauri, ovverosia coloro che separano nettamente il proprio contributo rispetto a quello dell’AI a cui si rivolgono quando devono affrontare compiti in cui non si sentono particolarmente forti (da cui la netta separazione tra parte umana e parte centauro); ci sono poi i cyborg, ovvero coloro che fanno un uso decisamente più pervasivo e intermezzato dell’AI al punto da rendere il contributo delle due entità difficile da separare (come appunto per un cyborg).
Personalmente mi identifico in entrambi gli stili d’uso dopo un po’ di riflessione: è il compito che sto svolgendo a determinare se agisco più come un centauro o come un cyborg. Sicuramente ricorro all’AI generativa per compiti che trovo noiosi o in cui ritengo di ottenere un contributo migliore rispetto a quello che potrei dare io, e in questo senso credo di ragionare da centauro.
Oltre la ricerca
Se pensate che in fondo si tratta solo di esperimenti di ricerca si è sulla cattiva strada: è notizia fresca l’impiego massiccio da parte di Coca-Cola delle tecnologie OpenAI usando gli strumenti forniti dalla società di consulenza Bain. Sarà quindi interessante osservare le prossime campagne di marketing del famoso brand, e se effettivamente l’AI confermerà di fornire una marcia in più in questo settore strategico per un’azienda come Coca-Cola.
Conclusioni
Che abbia la forma di C3PO o di R2D2, la voce di Jarvis, la capacità di HAL in 2001 Odissea nello spazio, o l’ironia di K.I.T.T. in Supercar, il nostro futuro è sicuramente costellato di assistenti “intelligenti” che ci supporteranno nello svolgimento di un numero sempre maggiore di compiti. Personalmente non appartengo alla categoria di coloro che ritengono che questo peggiorerà l’uomo (non più di quanto non lo sia già perlomeno), ma semplicemente consentirà di spostare l’attenzione su altri temi liberando tempo che non possiamo che sperare che sarà impiegato al meglio. L’arrivo Duet di Google e di Microsoft Copilot non fanno che sancire questo nuovo mondo in cui ci relazioneremo con le macchine, accettandone i difetti poiché queste macchine sbagliano, non sono più le ma