Il mercato digitale ha registrato nel 2022 una crescita del 2,4%, per un valore complessivo di 77,1 miliardi di euro (secondo l’ultimo report di Anitec – Assinform Digitale in Italia – Vol. 1, 2023).
I numeri del mercato digitale e dell’IA
La crescita più rilevante ha riguardato i Servizi ICT (+8,5% e 14,8 miliardi di euro), sostenuta principalmente dai servizi di Cloud Computing, Cybersecurity e AI.
Ed è proprio la crescita registrata dai sistemi di Intelligenza Artificiale/Cognitive (+32,4% e 435 milioni di euro) a imporre alcune riflessioni. Si tratta infatti di un complesso ecosistema di soluzioni che promette di mutare in maniera radicale molte funzioni aziendali.
Ma può farlo in autonomia? Digital enabler in grado di sostenere la transizione, come l’AI, di quali elementi al contorno hanno bisogno per esprimere tutta la propria efficacia? In altre parole: quanta intelligenza naturale è necessario affiancare a quella artificiale? Molta, come vedremo.
E’ il ruolo del Knowledge Management.
La svolta di ChatGPT
Questo tipo di riflessione, che è da almeno un decennio nell’agenda di chi si occupa di sapere aziendale, è oggi più attuale (e mainstream) che mai per l’ingresso in campo di un attore il cui ruolo promette di essere dirompente: ChatGPT, la forma di intelligenza artificiale generativa di OpenAI.
ChatGPT è un Large Language Model basato su deep learning, una forma di apprendimento automatico che sfrutta reti neurali artificiali. La sua capacità – affinata attraverso l’addestramento con miliardi di variabili e miliardi di testi online – di generare contenuti sempre diversi e sufficientemente mimetici rispetto al linguaggio naturale, ne fa il candidato ideale per svolgere alcune funzioni strettamente connesse alla gestione del sapere aziendale e al rapporto con il cliente. Ma non può svolgerle in maniera autonoma e senza intervento umano. Vediamo perché.
I limiti dell’intelligenza artificiale
La prima tara dello strumento che è utile rilevare, è insita in quella che è la sua qualità più evidente: la creatività. In un ambito – come quello del Customer Care, in cui è necessario assicurare costanza di risposta a medesime richieste da parte dei clienti – la variabilità e la creatività non possono essere tollerate. La risposta che una forma di AI può fornire (sotto forma di chatbot, per fare un esempio ampiamente riconoscibile e sperimentato da moltissimi utenti) non può essere diversa ogni volta. E il perché è evidente: un’azienda che fornisce risposte diverse a medesime richieste perde in credibilità, reputazione e rapidamente dissipa la propria posizione di mercato a favore di competitor più costanti e coerenti nei confronti dei clienti.
La seconda problematicità è da ricercarsi invece nel modo in cui avviene l’addestramento dell’AI, ovvero attraverso l’esposizione a miliardi di testi e variabili online in una logica di input set. Un approccio che è alla portata soltanto di aziende con ingenti capitali a disposizione (come Microsoft) in grado di gestire le enormi quantità di dati necessarie all’addestramento, e che invece risulta inapplicabile per aziende più piccole.
Tale addestramento avviene secondo tecniche differenti (essenzialmente due: con supervisione, oppure senza) e con modalità diverse. Tra le modalità adottabili dalle aziende con meno “forza di fuoco” rispetto a Microsoft, vi è quella definita di fine tuning, ovvero l’esposizione del modello pre-addestrato (ChatGPT, per esempio) a una Knowledge Base specifica. Una sorta di specializzazione post laurea della nostra AI, che dopo aver brillantemente superato il percorso magistrale, formandosi sui miliardi di referenze presenti online, compie una formazione specifica su quelle di dominio esclusivo di un’azienda.
L’antropomorfizzazione insita nella metafora è ovviamente una forzatura, perché l’intelligenza artificiale, per quanto abile nella mimesi del linguaggio naturale, è qualcosa di altro e profondamento diverso dall’intelligenza umana. Tuttavia le qualità dell’AI (rapidità di risposta, prima di tutte) sono preziose per le aziende. È proprio in questa fase di “specializzazione post laurea” che risulta essenziale l’intervento dell’intelligenza naturale per un’implementazione efficace.
Introdurre l’IA in azienda: una questione di knowledge management
Per mitigare la creatività delle intelligenze artificiali generative è necessario agire su due fronti:
- In fase di preparazione della base tecnologica con un’azione di prompt engineering (per gradare la libertà dell’AI nel fornire risposte diverse ogni volta, e in questo ChatGPT è molto più pronta e performante di altre forme di AI);
- In fase di esposizione alla Knowledge Base aziendale, che va predisposta e “premasticata” perché il modello generativo possa digerirla al meglio.
Le intelligenze generative, infatti, risultano essere più efficaci, precise, meno soggette a quelle che in gergo vengono definite allucinazioni, quando la base informativa su cui vengono formate è ben organizzata. Grazie a una metodologia proprietaria sviluppata in oltre 15 anni di esperienza la mia società di consulenza Aryanna è in grado di elaborare il sapere aziendale (sia formale che informale) in un processo di Knowledge Management atomizzandolo, riorganizzandolo e infine riscrivendolo, per costituire dei pacchetti di informazione coesi e coerenti. Tali pacchetti sono quelli su cui l’AI andrà a operare restituendo, finalmente, all’operatore di Customer Care delle risposte utili e utilizzabili verso il cliente.
In questa fase di riorganizzazione della Knowledge Base vengono prese in considerazione tutte le fonti di sapere a disposizione: FAQ, prontuari, procedure, vademecum, cataloghi, documenti di trouble shooting. Questi costituiscono il sapere cosiddetto formale e cristallizzato di un’azienda. Vi è poi una parte di sapere ben più volatile e disorganica (ma non per questo meno preziosa) che è costituita dalle conoscenze possedute dai subject matter expert, gli esperti di una specifica tematica in un’azienda, che va estratto secondo il workflow della matrice SECI. Ovvero va Socializzato (condiviso al fuori “della testa delle persone”), Esternalizzato (raccolto in documenti), Combinato (messo a confronto con altri parti della knowledge base) e infine Interiorizzato (cioè applicato da quegli stessi operatori nella quotidianità lavorativa).
Questo processo ha due effetti. Il primo, ampiamente annunciato nei paragrafi precedenti, di rendere più efficace e pertinente la risposta fornita dagli strumenti tecnologici come l’AI nel rapporto con i clienti, e quindi di contribuire a migliorare molti dei KPI aziendali connessi alla funzione di Customer Care. Il secondo, meno ovvio forse, è quello di un contestuale miglioramento del clima lavorativo sotto molti aspetti: operatività degli addetti più snella, riduzione dell’errore e della frustrazione, minore fatica nel reperimento delle informazioni, maggiore soddisfazione del cliente.
Va oltretutto considerato un aspetto importante di questo processo: è essenziale per la scelta del corretto strumento tecnologico da adottare. Infatti gli strumenti di gestione del sapere aziendale (che siano CRM tradizionali come Salesforce, o Search Engine come Coveo e IBM, dotati o meno di AI) hanno caratteristiche diverse e rispondono a esigenze diverse, ma con un obiettivo comune: facilitare gli operatori nel rapporto con i clienti. In questo deve essere chiaro, dunque, che risultano tanto più efficaci quanto più sono compatibili con la base di sapere che devono raccogliere. Conoscere la forma della propria Knowledge Base è quindi garanzia di scelta dello strumento più adatto, e quindi più efficace.
Conclusioni
La transizione digitale dei processi delle imprese non può quindi limitarsi soltanto all’adozione di uno strumento tecnologico, ma deve essere preceduta da un cambio di mentalità teso a riconoscere al sapere aziendale il suo vero valore di asset, prima di tutto economico.