tecnologie e lavoro

Come adottare l’IA generativa per potenziare (non sostituire) il lavoro intellettuale



Indirizzo copiato

I campi di applicazione dell’IA generativa impattano tutti i lavori cosiddetti “della conoscenza”. Ma l’intelligenza artificiale non è un sostituto per l’expertise umana: rimane fondamentale il ruolo di professionisti esperti per valutare e interpretare i risultati prodotti dai modelli linguistici

Pubblicato il 9 giu 2023

Mauro Napoli

Partner PwC Italia Responsabile del CoE AI

Anna Elisabetta Ziri

Senior Manager PwC Italia ed esperta di AI



Hnad,Working,With,Digital,Transformation,Change,Management,And,Internet,Of

“Il nostro lavoro di tutti i giorni, fatto in larga parte di analisi di informazioni e di elaborazione di documenti, subirà un cambiamento radicale“: ne sono convinti gli addetti ai lavori di PwC Digital Innovation, che guidano la trasformazione digitale della storica azienda di consulenza.

Questa è ormai una percezione diffusa tra i cosiddetti “lavoratori della conoscenza” che stanno sperimentando come ChatGPT o altri modelli analoghi possano cambiare il loro lavoro quotidiano. Analizzare, creare, elaborare e sintetizzare testo fornendo semplici istruzioni in linguaggio naturale ora è alla portata di tutti, tecnici e non.

Da avvocati che decifrano contratti, a manager che analizzano report aziendali, da giornalisti che producono bozze di articoli a insegnanti che articolano le lezioni, i campi di applicazione di questa tecnologia impattano tutti i lavori cosiddetti “della conoscenza”.

Ma non è solo una sensazione quella che il futuro del lavoro sia già qui. Un recente studio del MIT ha rilevato che questa tecnologia può fare tanto per aumentare la produttività sul lavoro. Gli esperti hanno dato a quasi 500 professionisti vari compiti di scrittura, e metà di loro hanno avuto l’aiuto di ChatGPT. 

Ne risulta che quelli che hanno usato lo strumento hanno lavorato più velocemente e prodotto risultati di migliore qualità. È stato un grande aiuto soprattutto per chi era meno avvezzo al compito, quindi i profili con minore esperienza. E c’è di più: lo strumento ha spinto i professionisti a concentrarsi di più sulla creazione di nuove idee e sull’editing, piuttosto che sulla scrittura di bozze. Coloro che hanno avuto l’opportunità di lavorare con ChatGPT hanno riferito di essere più soddisfatti del loro lavoro e di sentirsi più capaci. Allo stesso tempo, l’utilizzo di questa tecnologia ha generato sia un po’ di preoccupazione sia molto entusiasmo per le possibilità future dell’automazione.

Le implicazioni potenziali dei Large Language Models

Altri studi recenti hanno esaminato le implicazioni potenziali dei Large Language Models (LLM), quali quello che alimenta ChatGPT, sul mercato del lavoro statunitense. I risultati suggeriscono che l’introduzione degli LLM potrebbe influenzare almeno il 10% delle attività lavorative dell’80% della forza lavoro. Questi cambiamenti non si limiterebbero solo ai settori con una recente crescita della produttività, ma si estenderebbero a tutte le fasce salariali, con le posizioni ad alto reddito che potrebbero essere maggiormente esposte alle capacità degli LLM.

Inoltre, l’analisi suggerisce che, con l’accesso a un LLM, circa il 15% di tutte le attività lavorative potrebbe essere svolto in modo significativamente più rapido e con la stessa qualità. Questa percentuale aumenta a tra il 47% e il 56% quando a supportare l’attività lavorativa sono soluzioni software articolate basate sui sistemi generativi, indicando che le strategie aziendali che incorporano l’IA nei loro processi avranno un impatto considerevole sulla scalabilità del loro business.

Se, infatti, prima i progetti in ambito IA però, pur garantendo un enorme ritorno in termini di efficienza, richiedevano mesi di sviluppo e tuning per essere pronti per l’utilizzo quotidiano, ora l’accuratezza del risultato e la velocità di implementazione di una nuova soluzione, grazie all’arrivo dei nuovi modelli LLM, stanno aprendo la strada a una diffusione massiva, consentendo l’ottimizzazione di processi che fino a poco tempo fa erano considerati troppo onerosi in termini di costi rispetto ai benefici ottenuti.

Prendiamo come esempio l’estrazione di dati da documenti: alcuni anni fa era necessario addestrare un modello specifico per analizzare il testo non strutturato di contratti o report e catturare le informazioni salienti. Ora si è in grado di addestrare o riutilizzare i nuovi modelli linguistici molto più rapidamente e con meno dati. Di conseguenza, il supporto all’analisi di documenti, che rappresenta una parte significativa del lavoro intellettuale, è diventato più efficiente e può essere esteso anche a settori in cui prima non veniva applicato.

L’intelligenza artificiale non è un sostituto per l’expertise umana

È importante ricordare che l’intelligenza artificiale non è un sostituto per l’expertise umana. Nonostante i notevoli progressi e le potenzialità offerte da queste nuove tecnologie, rimane fondamentale il ruolo di professionisti esperti per valutare e interpretare i risultati prodotti dai modelli linguistici. L’intelligenza artificiale può fornire strumenti potenti e innovativi, ma alla fine è la competenza umana a guidare l’interpretazione e l’applicazione di queste tecnologie.

Anche l’avvocato o il fiscalista oggi deve quindi essere guidato a sviluppare nuove capacità e imparare nuove tecniche per ottenere questi risultati: tecniche che hanno nomi esotici come “prompt engineering” e “few shot learning”. Si tratta in pratica di imparare il modo migliore di dire al sistema cosa fare, oppure insegnare a un modello a fare qualcosa di nuovo mostrandogli solo pochi esempi, un po’ come quando mostri a qualcuno un oggetto o un’attività e la persona riesce poi a generalizzare e riconoscerla se si ripresenta sotto forma diversa.

In questo scenario, la startup Harvey, rappresenta un esempio di come le risorse e i sistemi derivati da OpenAI, l’azienda che ha creato ChatGPT, stiano ridefinendo il settore dei servizi professionali. La piattaforma multi-funzionale di Harvey è infatti in grado di assistere avvocati e professionisti in qualsiasi area di pratica con i loro flussi di lavoro quotidiani, offrendo servizi come interrogazioni aperte, elaborazione di memorandum di ricerca legali, creazione di bozze di documenti e analisi di documenti caricati.

PwC vuole implementare con l’IA quanto già ha compiuto grazie all’automazione e ai data analytics negli ultimi anni. L’azienda ha risparmiato 220.000 ore uomo su attività ripetitive con la robotic process automation, assumendo esperti e formando internamente le nostre persone grazie a programmi intensivi di upskilling. Nel farlo ha valutato i risultati secondo metriche prestabilite, dimostrando di aver diminuito gli errori umani e guadagnato in efficienza. Ormai considera anche l’IA una tecnologia matura per essere utilizzata su larga scala. Il modello da implementare è costruire valide use case interne per portare poi le stesse competenze verso i clienti, accompagnando questi servizi l’esperienza di governance, minimizzazione del rischio e affidabilità per cui PwC è nota.

L‘adozione degli LLM non è priva di rischi

In effetti, l’adozione di queste nuove tecnologie non è priva di rischi: per contenerli ed eliminarli, PwC Italia ha composto un team di esperti in Intelligenza Artificiale Responsabile, che nel caso di applicazione degli LLM ha impostato metriche e guardrail per controllare le cosiddette “allucinazioni“, ovvero risultati inesatti o dannosi.

L’allucinazione, benché non sia un termine tecnico, descrive bene un possibile rischio in cui un modello di IA genera una risposta basandosi su informazioni errate o fuorvianti. È come una persona compiacente che, pur di darti una risposta, inventa basandosi su informazioni verosimili, anche se non corrette. Per evitarlo, le applicazioni IA in PwC attingono da una knowledge base controllata e le risposte dell’IA vengono ricondotte a precise casistiche.

Un’altra delle principali preoccupazioni riguarda la sicurezza delle informazioni confidenziali, interne o dei clienti. Per questo, è fondamentale affidarsi a provider che garantiscano la segregazione dei dati e il rispetto delle normative, nel rispetto del GDPR.

I problemi del meccanismo RLHF

I dati sono a maggior rischio in quanto, per imparare a capire le istruzioni degli utenti e essere così veloci a rispondere e imparare dagli esempi, questi nuovi LLM utilizzano un particolare meccanismo denominato RLHF (Reinforcement Learning from Human Feedback).

Il RLHF è un processo attraverso il quale il modello di IA apprende dalle interazioni con gli umani, migliorando le proprie performance attraverso il feedback ricevuto. Il che significa che le interazioni con l’utente vengono registrate per migliorare il modello. È molto importante tenere presente che il miglioramento continuo è collegato a come noi interagiamo con l’applicazione e al testo che immettiamo. E che, se non facciamo attenzione ai termini di uso, quanto condividiamo potrebbe andare a fare parte della conoscenza del modello, rendendolo così indirettamente disponibile agli altri utenti.

Questo scenario in rapida evoluzione richiede quindi una regolamentazione attenta e consapevole. Anche in questo caso la tecnologia sta evolvendo ad una velocità che permette al legislatore di agire in modo tempestivo. Le scuole di pensiero sono diverse, anche tra personalità che hanno portato avanti la ricerca nel campo in modo attivo.

Molti di loro, tra cui Elon Musk, hanno proposto una moratoria sui nuovi modelli generativi, colpevoli di simulare troppo bene l’interazione e la creatività umana senza che l’utente sia pienamente consapevole dei rischi che vi sono collegati. Questa sospensione temporanea mirerebbe proprio a consentire regolamentazioni adeguate a prevenire possibili usi pericolosi o eticamente discutibili dell’IA. Persino Sam Altman, CEO di OpenAI, fautore dell’apertura dei nuovi modelli al pubblico proprio per raccogliere feedback sui possibili impatti, ha proposto un piano che prevede la creazione di un’agenzia governativa per la licenza dei grandi modelli di IA, la definizione di standard di sicurezza per i modelli di IA e l’obbligo di audit indipendenti sulle performance dei modelli. Perché “La pressione regolamentare dovrebbe essere su di noi, su Google e sui big. Se questa tecnologia va male, può andare molto male”, ha detto Altman di fronte al Senato americano.

OpenAI non è certo l’unico player in campo: è partita una corsa a perdifiato in cui tantissimi contribuiscono ad un avanzamento costante e rapidissimo della ricerca sui modelli generativi. Google, ad esempio, ha appena rilasciato PaLM2 e nel mondo Open Source vengono condivisi ogni giorno nuovi large language models. E stiamo già assistendo alla diffusione dei modelli multimodali, che permettono quindi l’analisi congiunta di testo e immagini. Un panorama in continua evoluzione, che va monitorato con un continuo processo di scouting e di fine-tuning. La vera sfida per le aziende è ora trovare il modello più adatto per ogni task per lo sviluppo locale di soluzioni, specialmente in lingue meno rappresentate come quella Italiana.

Conclusioni

In definitiva, l’intelligenza artificiale generativa è una tecnologia rivoluzionaria che, come la stessa internet, sta ridefinendo i paradigmi di interazione, comunicazione e lavoro. Le sue implicazioni economiche, sociali e politiche sono ancora sconosciute e richiedono una riflessione approfondita e un’attenta regolamentazione. Le aziende, come fa PwC Italia, attraverso il suo Centro di Eccellenza per l’IA, devono imparare a navigare in questo panorama in continua evoluzione, sfruttando le opportunità offerte dalla nuova ondata di algoritmi per ottimizzare i processi, migliorare l’offerta ai clienti e, allo stesso tempo, garantire la sicurezza e la protezione dei dati.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3