Negli ultimi anni – grazie anche alla possibilità di godere di benefici fiscali che ha permesso di avere uno svecchiamento del parco macchine in ambito manufatturiero – l’evoluzione della tecnologia per la raccolta dei dati dalle linee di produzione ed in generale dagli oggetti (connessi) ha permesso alle aziende di avere tanti dati a disposizione: quello che manca è il focus sul ‘cosa farci’ (rendendo ‘azionabili’ i dati), definendo use cases applicativi, possibili impatti su nuovi modelli di business e misurandone i benefici.
L’Artificial Intelligence (‘ombrello’ che racchiude anche il Machine Learning), così come IoT ed I 4.0, stanno diventando temi e termini ‘trend topic’, ma il percorso di adozione nelle aziende varia a seconda della cultura sulle ‘decisioni data-driven’: è molto importante, partendo eventualmente dalle basi con l’utilizzo di KPI di sintesi, fare sì che si capisca l’importanza dell’utilizzo delle informazioni, prima di dare in mano all’azienda strumenti di predictive maintenance o quality control.
Le nostre soluzioni – powered by IBM – hanno per natura un approccio a step, in grado di partire dalle Analytics in Motion (alerting, task assignment, feedback collection) fino ad arrivare, grazie alla storicizzazione di dati significativi, alle Analytics at Rest (dove si applicano algoritmi di AI, affrontando tematiche dalla root-cause-analysis fino all’ottimizzazione).
Ma un elemento imprescindibile è l’importanza del business: l’approccio che vediamo essere differenziante è usare tecniche e metodologie innovative, ma sempre coinvolgendo nel percorso il business che non solo porterà lo use case aziendale, ma parteciperà con il team di data scientist sul progetto. Questo anche a garanzia di continuità del progetto, che se non viene ‘adottato’ dal business rimarrà un esercizio scolastico
L’esperienza degli ultimi anni ci porta a dire che chi intraprende un percorso di cambiamento del proprio approccio, del servizio o del business stesso, lo fa senza appoggiarsi a black box predefinite o embeddate all’interno delle proprie macchine, ma vuole avere – eventualmente con un percorso di knowledge transfer – la governance dell’informazione ed essere in grado di capire le dinamiche che portano ad una certa tipologia di risultati.