Nell’ambito della gestione dei processi aziendali o BPM – Business Process Mangagement, si va sempre più diffondendo l’idea, spesso corroborata da positive esperienze sul campo, che la disponibilità di dati continuamente prodotti durante l’attività, e conservati in modo da preservarne il valore informativo, sia un asset di enorme valore per il monitoraggio di processo, l’intercettazione di errori, e, in ultima analisi, si collochi idealmente al centro di ogni strategia aziendale di continuous quality contol & improvement.
Cos’è il process mining e come aiuta a migliorare i processi operativi aziendali
Il process mining, tecnologia nata alla fine dei primi anni 2000, e codificata nel testo [W.M.P. van der Aalst, Process Mining, DOI 10.1007/978-3-642-19345-3_2, © Springer-Verlag Berlin Heidelberg 2011], con i suoi notevoli sviluppi teorici e applicativi degli anni successivi, è un potente strumento operativo che si pone in questo contesto, con l’ambizione di contribuire a migliorare i processi operativi aziendali combinando conoscenze e metodi tipici della Information Technology con quelle della Scienza dell’Organizzazione Aziendale.
Il pregio fondamentale del Process Mining è quello di essere totalmente data-driven: non vi è soggettività nelle valutazioni, ma soltanto la lettura delle informazioni contenute all’interno dei log di processo registrati da diversi applicativi informatici durante lo svolgimento della vita aziendale. L’unico bias umano è quello della rappresentazione scelta per i processi fra le molte che la scienza dell’Organizzazione mette a disposizione (ad esempio, le reti di Petri), ma questo, se la scelta è oculata, può tradursi in un vantaggio, dal momento che si tenderà a privilegiare le rappresentazioni più espressive rispetto alla specifica cultura aziendale.
A titolo di esempio, prendiamo in considerazione l’event log dell’unità Customer Relationship di un’azienda. Ogni richiesta da parte di un cliente è considerata un processo, e quest’ultimo sarà un elenco ordinato di eventi, alcuni dei quali svolti in parallelo da persone diverse all’interno dell’azienda. Ognuno di questi eventi è uno step del processo; tutti gli eventi sono ordinatamente registrati in un archivio aziendale. Come si intuisce, il primo requisito per poter condurre un’analisi mediante il PM è che questo archivio sia ben strutturato e facilmente accessibile: il Process Mining comincia dai dati; l’estrazione e messa a disposizione dei dati necessari è parte integrante e indispensabile dell’applicazione della tecnologia.
Che cos’è l’event log
Dunque, possiamo immaginare l’event log come una successione di attività, ciascuna caratterizzata da un istante di tempo, una descrizione, e altri dati caratteristici, come ad esempio la risorsa che ha curato la sua esecuzione. Il Sistema Informativo Aziendale potrà contenere, direttamente o tramite collegamenti con altre tabelle dati, moltissime ulteriori informazioni riguardanti ciascun evento. In tal modo, l’analisi possibile mediante il Process Mining diverrà multidimensionale, potendo prendere in considerazione aspetti diversi dello stesso processo.
Il Process Mining mette a disposizione diversi metodi, implementati in librerie di codice liberamente disponibili su repository gratuiti, come Github. Si veda, ad esempio, pm4py.
Le tre applicazioni principali del process mining
Esaminiamo nel seguito le tre applicazioni principali del PM: il Process Discovery, il Conformance Checking, e il Process Enhancement.
Process Discovery
Un event log contiene le catene di eventi relative a diverse ripetizioni di uno stesso processo. Tornando all’esempio del Customer Care, la chiamata da parte di un cliente è un’istanza dello stesso processo. Le chiamate possono aver avuto sviluppi diversi: talvolta c’è risoluzione immediata, in altre circostanze sono necessarie alcune interlocuzioni interne, che allungano sensibilmente i tempi di risoluzione. Ognuno di questi diversi modi che l’azienda adotta (consapevolmente o meno) per affrontare il problema da luogo a implementazioni diverse dello stesso processo, che prendono il nome di casi. L’event log contiene le rappresentazioni di tutti questi casi.
Si intende per process discovery l’insieme di metodi di data science utilizzati nel PM, per estrarre dall’event log i casi più rappresentativi del processo. In altri termini, tramite il process discovery, diventa possibile, in maniera automatica e non condizionata da bias dovuto all’osservatore, cogliere le modalità tipiche (i casi più frequenti) con cui l’azienda ha implementato quel processo nella realtà.
DIDA: Il Process Discvery consiste nel passaggio da un event log alla rappresentazione, mediante un opportuno paradigma, delle diverse modalità con cui un processo è implementato nella realtà aziendale.
Come è facile comprendere, questo risultato, opportunamente rappresentato in forma grafica, già contiene numerosi elementi informativi, utilizzabili dal management per individuare flussi organizzativi indesiderati, colli di bottiglia, inefficienze contingenti o strutturali. Come si è sottolineato, infatti, alcuni casi potrebbero essere sconosciuti al management aziendale; potrebbero esserci procedure mai codificate e neppure discusse, che nel tempo si sono affermate implicitamente in base a dinamiche aziendali non note.
Il conformance checking
Un ulteriore strumento di indagine a disposizione del Process Mining prende il nome di Conformance Checking.
Supponiamo che per il processo in esame siano stabilite delle linee guida precise e già ottimizzate: un vero e proprio modello che illustra come dovrebbe svilupparsi il processo in esame in condizioni ideali. In quest’ottica, nella ricerca di esempi reali, è naturale rivolgere l’attenzione al mondo Health, dove i percorsi clinici dei pazienti (esami, terapie, trattamenti) sono indirizzati da precise linee guida, ben rappresentabili mediante diagrammi funzionali.
Il Conformance Checking permette al medico di effettuare la verifica di aderenza di un processo di cura implementato al’interno dell’ospedale alla corrispondente linea guida. L’unico sforzo richiesto è quello di formalizzare la linea guida in un modello e tradurla, facendo uso di un opportuno linguaggio. L’algoritmo di Conformance Checking fornirà al medico l’elenco delle eccezioni che si sono verificate, cioè di tutti i casi reali di applicazione di quel processo, in cui si sono registrate deviazioni rispetto a quanto indicato dalle linee guida. Verrà anche fornito il tracciato di quali attività siano state svolte, fornendo al medico informazioni sufficienti per approfondire i motivi alla base dele scelte effettuate e intraprendere eventuali percorsi correttivi.
Il process enhancement
Se le prime due forme di Process Mining producono già fonti di informazioni preziose per il management aziendale, è di particolare interesse la terza forma, quella del Process Enhancement. Esistono, infatti, diverse prospettive sotto le quali un processo può essere misurato e migliorato. Fra le più importanti, c’è sicuramente quella organizzativa, che si concentra sulla individuazione degli specifici attori (persone, sistemi, ruoli, dipartimenti …) coinvolti nel processo e le relazioni che li legano, fino a costruire un diagramma organizzativo che classifica le persone in termini di ruoli e unità organizzative.
Altra prospettiva interessante è quella dell’analisi dei casi: può verificarsi, e qui citiamo l’esempio di una catena di approvvigionamento, che le inefficienze si manifestino con una certa ripetitività quando è coinvolto un dato fornitore. Ovviamente, se gli eventi sono contrassegnati da opportuni timestamp, l’analisi consente di individuare i colli di bottiglia che rallentano l’attività aziendale.
Come si vede, ogni prospettiva fornisce insight diversi e utili ai fini di uno studio della qualità e delle dinamiche aziendali sotto svariati punti di vista.
DIDA: Il Process Mining si inserisce naturalmente come strumento di analisi nel classico diagramma circolare della Qualità, in cui Discovery, Conformance e Enhancement sono al servizio del ciclo virtuoso del controllo e miglioramento continuo.
In sintesi, quindi, il Process Mining è una disciplina che, unendo Data Science e Scienza dell’Organizzazione, consente analisi a diversi livelli e sotto diverse prospettive delle dinamiche aziendali. Si basa sull’estrazione di informazioni presenti all’interno degli Event Log prodotti ormai continuamente dalle applicazioni informatiche, presentandosi come strumento oggettivo di studio delle dinamiche, di verifica della qualità, e di creazione di scenari di miglioramento continuo.