Malgrado l’hype sull’intelligenza artificiale, i progetti all’interno delle organizzazioni fanno fatica a decollare.
I decisori italiani spesso non hanno chiaro a cosa può essere utile l’IA e in che modo si può gestire e di fronte al possibile fallimento preferiscono aspettare o non agire. Eppure, nei paesi dove si è cominciato ad applicare l’intelligenza artificiale i benefici sono notevoli, certo anche i rischi come sempre.
Tuttavia, senza cominciare ad utilizzare e a confrontarsi con i progetti e le iniziative concrete è difficile fare esperienza e acquisire confidenza con la tecnologia e con i problemi associati.
Gli aiuti necessari per navigare nell’IA
Viene di aiuto potersi appoggiare su studi e ricerche effettuate in organizzazioni che hanno già in opera dei progetti per trarne delle indicazioni da tenere in conto nei progetti che si stanno avviando. Al fianco della letteratura è meglio farsi affiancare da persone con esperienza sia di Intelligenza Artificiale che di business e “vita aziendale” da utilizzare come skipper durante la navigazione.
Infatti, la navigazione nell’Intelligenza Artificiale ha anche una parte ingegneristica ma non bisogna dimenticare che molti dei risultati e degli errori sono dovuti alla pratica e alla esperienza di chi guida. Molti dei risultati ottenuti dalle reti neurali e dalle loro architetture sono dovuti a meccanismi che nessuno riesce a spiegare completamente e il loro comportamento non di rado va in direzioni che non erano ipotizzabili prima, tuttavia, anche se è un ossimoro, funzionano benissimo.
Il rapporto di Rand: le principali cause di fallimento dei progetti di AI
Il rapporto[1] di RAND[2] è stato realizzato coinvolgendo 65 esperti di AI provenienti da diverse industrie e settori. Questi esperti comprendevano data scientist, manager, leader aziendali e professionisti tecnici che hanno esperienza diretta nello sviluppo e nell’implementazione di soluzioni AI. Lo studio è rilevante perché copre diversi settori e si basa su esperienze reali, mira ad individuare le cause profonde dei problemi e a dare delle raccomandazioni utili a chi si approccia a questi progetti.
Nonostante gli investimenti crescenti e l’entusiasmo per le sue applicazioni, oltre l’80% dei progetti di AI fallisce nel raggiungere gli obiettivi prefissati. Questa statistica allarmante solleva interrogativi importanti sulla gestione e l’implementazione di queste tecnologie avanzate. Basandoci sul rapporto citato e su altre esperienze sul campo, in questo articolo analizzeremo le principali cause di fallimento dei progetti di AI ricavandone delle indicazioni pratiche e raccomandazioni, evidenziando come le organizzazioni possano affrontare queste sfide e migliorare le probabilità di successo.
Il rapporto individua quattro cause principali:
Definizione errata del problema da risolvere
Difficoltà nell’identificare correttamente il problema da risolvere. Senza una chiara comprensione degli obiettivi, le aziende possono sviluppare soluzioni che non sono allineate con le esigenze di business. Spesso i vertici aziendali non comunicano efficacemente le aspettative e le esigenze, in molti casi non le hanno nemmeno chiare prima di iniziare. Dall’altra parte i tecnici tendono più a concentrarsi sulla tecnologia che sul problema da risolvere, con il risultato che si creano soluzioni complesse a problemi semplici o si perde l’attenzione sugli obiettivi.
Dati di bassa qualità
La maggior parte dei progetti AI si basa su dati, e se questi non sono accurati, completi e pertinenti, i modelli non funzioneranno correttamente. Spesso nelle organizzazioni i dati sono “sporchi” o “incompleti”, nei database ci sono dati errati, incompleti o duplicati e i dati risiedono su database diversi non integrati. Le applicazioni costruite a “silos” nei decenni scorsi non sono state adeguate per consentire ai dati di integrarsi tra loro consentendo una visione completa e coerente delle informazioni.
Sottovalutazione dell’infrastruttura tecnologica
L’AI richiede un’infrastruttura tecnologica robusta, che comprenda hardware adeguato, software specializzato e sistemi di gestione dei dati nonché persone.
Negli anni gli investimenti nell’infrastruttura tecnologia è scemato, il cloud ha spinto alcune aziende a non investire in competenze interne e infrastruttura interna ma non sempre i player riescono a fornire tutto ciò che serve. La mancanza di investimenti ha prodotto “debito tecnico” ed oggi molte organizzazioni si trovano in affanno sull’AI che ha messo al centro la capacità di calcolo.
Mancanza di impegno a lungo termine
La mancanza di impegno a lungo termine è un altro fattore critico nel fallimento dei progetti di AI. Le aziende possono avere aspettative irrealistiche riguardo ai tempi di sviluppo e ai risultati immediati.
Molte organizzazioni spingono per risultati veloci ma ottenere risultati veloci non sempre significa ottenere buoni risultati. L’AI implica un grande lavoro di preparazione dei dati, prove e verifiche prima di rilasciare modelli in grado di rispondere al meglio alle esigenze mentre molte organizzazioni tendono a cambiare le priorità, interrompere prematuramente le iniziative avviate generando insuccessi che possono portare a una generale sfiducia nei confronti dell’AI.
Incapacità di comprendere i limiti dell’AI
Le interviste dei manager delle big tech e delle aziende che hanno bisogno di grandi finanziamenti per la loro crescita spesso generano aspettative eccessive. Questo non di rado ha un risvolto pratico per chi le fa spingendo piccoli e grandi investitori a comprare azioni e finanziare iniziative. Poi esistono una serie di opinion leader che seguono questo “mood” generando hype approfittando del fatto che i leader aziendali non possono avere una formazione adeguata e persone critiche di supporto. Questo genera l’idea che l’AI possa ogni cosa e lo possa fare subito, si generano aspettative irrealistiche e si avviano iniziative destinate a fallire.
Concentrazione sulla tecnologia, non sul problema
Questo punto è in forte relazione con il primo. Se i tecnici non hanno chiaro l’obiettivo che gli viene richiesto di raggiungere e che il driver a cui sono chiamati a rispondere è il business e non la tecnologia rischiano di perdersi dietro novità continue e volontà di provarle. La tecnologia predomina sugli obiettivi aziendali e i progetti cominciano a richiedere sempre più investimenti senza arrivare a nulla ma con presentazioni sempre più fantascientifiche che sono disconnesse dalla realtà e dalla cultura aziendale.
Allineare business, tecnologie, cultura aziendale e persone è punto critico nello sviluppo di qualsiasi iniziativa di innovazione e l’AI non è da meno.
Il tasso di fallimento elevato dei progetti di intelligenza artificiale non è solo una questione di tecnologia, ma è profondamente radicato in problemi di gestione, strategia e comprensione. Affrontare queste cause richiede un approccio olistico che coinvolga la definizione chiara dei problemi, la gestione dei dati, l’investimento in infrastrutture, l’impegno a lungo termine, e una comprensione realistica delle capacità e dei limiti dell’AI.
I singoli punti, esaminati nel dettaglio
Proviamo ad esaminare in maggior dettaglio i singoli punti.
Definizione errata del problema
La definizione errata del problema può essere spiegata a sua volta con diverse cause.
Uno dei motivi principali per cui i gruppi di progetto falliscono nell’identificare il problema corretto è la disconnessione tra chi guida l’azienda e chi sviluppa le soluzioni tecniche. Spesso, i leader aziendali, che sono responsabili di definire le priorità strategiche, non hanno una comprensione approfondita delle capacità e dei limiti dell’AI. Questo porta a obiettivi mal definiti o a una cattiva comunicazione degli stessi ai tecnici.
Questo accade perché il management potrebbe non avere una formazione o una conoscenza approfondita delle tecnologie AI. Spesso, si limita a dare direttive generali o troppo vaghe, lasciando al team tecnico l’interpretazione del problema da risolvere. Questo crea il rischio che i tecnici si concentrino su aspetti sbagliati o non rilevanti per gli obiettivi aziendali.
Un’altra causa potrebbe essere associata a metriche di valutazione del progetto che non sono strettamente collegate al successo degli obiettivi di business, portando il team a ottimizzare soluzioni tecniche per indicatori poco utili. Ad esempio, possono richiedere un algoritmo per massimizzare le vendite, ma il vero obiettivo potrebbe essere migliorare la redditività, richiedendo quindi una strategia completamente diversa.
Un esempio tipico è lo sviluppo di modelli che migliorano l’accuratezza tecnica senza generare valore per il business o lo sviluppo di una soluzione che funziona tecnicamente, ma che non è compatibile con i processi aziendali esistenti, rendendo difficile la messa a terra e l’adozione interna.
La struttura tecnica coinvolta potrebbe non avere una conoscenza approfondita del dominio aziendale in cui stanno lavorando. L’AI è uno strumento molto potente, ma richiede una profonda comprensione del contesto per essere applicata correttamente. In alcuni casi si è visto che i team di AI lavorano isolati dal resto dell’azienda. Senza un contatto diretto e continuo con gli esperti di dominio (coloro che conoscono i dettagli operativi e strategici dell’azienda), i tecnici possono fare ipotesi errate su quali siano i problemi più critici da risolvere. Ne nascono soluzioni fuori contesto e si sviluppa un algoritmo sofisticato che non risolve il vero problema aziendale perché non ha considerato aspetti cruciali legati al settore. Ad esempio, in un progetto di retail, il modello può ottimizzare la gestione dell’inventario, ma ignorare la stagionalità dei prodotti, che è un fattore determinante nel settore.
La fase di analisi del problema è spesso sacrificata per risparmiare tempo, con l’obiettivo di mostrare rapidamente risultati. Questo porta a definizioni superficiali e incomprensioni sulla reale natura del problema con soluzioni premature che portano a sviluppare un modello di AI prima di avere una chiara comprensione del problema da risolvere con conseguenti iterazioni costose e progetti che devono essere completamente ripensati a metà strada. Non di rado si confonde la metodologia “AGILE” per un approccio non strutturato ai problemi e alla loro risoluzione con risultati disastrosi anche se le iniziative sono avviate con i migliori auspici.
Per evitare di fallire nell’identificazione del problema corretto, i leader aziendali e il personale tecnico devono lavorare a stretto contatto fin dalle prime fasi del progetto. Le organizzazioni devono investire nella comunicazione tra esperti di dominio e data scientist, adottare un approccio rigoroso alla definizione del problema e assicurarsi che ci sia una comprensione comune degli obiettivi da raggiungere. Solo così è possibile sfruttare appieno il potenziale dell’AI per risolvere problemi di business concreti e generare valore duraturo.
Dati di bassa qualità
Un errore comune che porta al fallimento dei progetti di AI è la convinzione che l’azienda abbia già a disposizione tutti i dati necessari per addestrare un modello. Tuttavia, spesso i dataset aziendali non sono sufficientemente ampi, aggiornati o rilevanti per il problema che si intende risolvere.
Questo accade perché molte organizzazioni dispongono di grandi quantità di dati storici che sono stati raccolti per scopi diversi rispetto all’intelligenza artificiale. Questi dati potrebbero essere inadatti per l’addestramento dei modelli perché sono stati raccolti senza una struttura idonea. In molti casi, i dati disponibili sono insufficienti per coprire tutte le variabili o i casi d’uso necessari per addestrare correttamente un modello. Per esempio, un’azienda potrebbe avere dati sulle vendite, ma non disporre delle informazioni sui comportamenti dei clienti che influenzano quelle vendite. Questo può anche generare errori sulle previsioni, bias e falsi negativi e positivi. I modelli AI possono fallire perché non riescono a generalizzare quando vengono utilizzati su nuovi dati o in scenari non inclusi nei dati di addestramento originali. Questo accade quando i dati non sono abbastanza rappresentativi delle situazioni reali che il modello deve affrontare. Se i dati sono incompleti o raccolti in modo non bilanciato (per esempio, rappresentano solo alcune tipologie di clienti o solo certi periodi), il modello può sviluppare pregiudizi che lo rendono inefficace o addirittura dannoso nelle applicazioni pratiche.
Anche la qualità dei dati è cruciale per l’efficacia di un progetto AI. Dati sporchi o mal strutturati possono causare errori significativi nei modelli, che si basano su di essi per apprendere schemi e prendere decisioni. I dati aziendali possono contenere errori (come duplicati, dati mancanti o voci errate), che necessitano di una pulizia approfondita prima di poter essere utilizzati. Questo processo è spesso sottovalutato o trascurato, portando a modelli addestrati su informazioni errate. Le organizzazioni spesso aggregano dati da diverse fonti o sistemi (ad esempio CRM, ERP, sensori IoT), ognuno dei quali può avere formati o standard differenti. Questi dati non sempre sono facilmente compatibili, creando difficoltà nel consolidamento e nell’integrazione.
I modelli addestrati su dati inconsistenti o incompleti possono produrre previsioni errate, con conseguenze negative per l’azienda, come decisioni aziendali sbagliate basate su output imprecisi.
Il gruppo di progetto può trovarsi a passare gran parte del tempo a ripulire e sistemare i dati, piuttosto che sviluppare e ottimizzare il modello ma è un passaggio ineludibile.
Un punto importante è la mancanza di personale, in questo momento la richiesta supera la domanda e molte aziende non vogliono investire adeguatamente, in più molti giovani stanno spostandosi nella AI ma non hanno la necessaria esperienza e la necessaria guida esperta per evitare errori di gestione e valutazione dei dati. Data l’alta domanda di data engineer, molte aziende faticano a trattenere talenti in questo settore. La mancanza di una documentazione adeguata e la perdita di personale chiave può rallentare il lavoro e causare errori significativi quando si lavora sui dati.
Molti progetti di AI falliscono a causa della sottostima dei costi e della complessità associati alla raccolta e alla gestione dei dati. L’acquisizione di dati sufficienti e di qualità può essere un processo lungo e costoso, specialmente quando si richiedono dati molto specifici o su larga scala.
Anche la governance dei dati è un aspetto spesso sottovalutato, ma critico per il successo dei progetti di AI. La mancanza di politiche chiare per la gestione dei dati può portare a problemi nella loro qualità e nella loro accessibilità. Molte organizzazioni non hanno politiche strutturate per la gestione dei dati. Non ci sono regole stabilite su chi possiede i dati, come devono essere gestiti o chi è responsabile della loro qualità. Nelle grandi organizzazioni, i dati sono spesso distribuiti tra diversi dipartimenti o unità, che li gestiscono in modo indipendente e senza una visione condivisa. Veri e propri “Silos” gestiti da business unit diverse che non vogliono cedere il controllo o mettere a disposizione le informazioni ad altri, col risultato che il “portafoglio informativo” dell’azienda non viene valorizzato ma disperso. La mancanza di una gestione centralizzata e integrata dei dati rende difficile per i team AI accedere a tutte le informazioni necessarie. I dati potrebbero essere “intrappolati” in silos o gestiti in modi diversi in base alle funzioni aziendali. Non esiste un catalogo dei dati, non viene gestito in modo appropriato, non viene documentato adeguatamente e, non meno grave, a gestirlo non è il business ma i tecnici. Il successo di un progetto di intelligenza artificiale dipende in gran parte dalla qualità e disponibilità dei dati. Per evitare i fallimenti, le aziende devono investire adeguatamente nelle infrastrutture per la gestione dei dati, nel talento tecnico e in processi di governance efficaci.
In generale una attenta analisi dei dati preventiva da parte di esperti data scientist diventa fondamentale, qui l’applicazione della matematica diventa fondamentale per validare i dati e comprendere se riescono a rispondere in modo adeguato alle esigenze di progetto. Anche la validazione dei modelli è estremamente importante. La scelta dei professionisti in grado di applicare argomenti di matematica e statistica complessi alla realtà aziendale e un aspetto molto rilevante.
Sottovalutazione dell’infrastruttura tecnologica
Il fallimento dei progetti di intelligenza artificiale (AI) a causa della sottovalutazione dell’infrastruttura tecnologica si è visto essere un problema ricorrente nelle organizzazioni che cercano di implementare soluzioni avanzate.
Una delle principali ragioni per cui i progetti di AI falliscono è l’assenza di risorse tecnologiche adeguate. Molte aziende iniziano i loro progetti senza una comprensione chiara delle esigenze tecniche necessarie per sostenere i modelli di AI. Le organizzazioni possono non allocare fondi adeguati per l’acquisto di hardware, software e strumenti di gestione dei dati. Questo porta a un’infrastruttura carente che non supporta le esigenze dei progetti di AI. In fase di progettazione, le aziende spesso trascurano la necessità di valutare e pianificare l’infrastruttura tecnologica, concentrandosi invece sulle applicazioni AI e sui modelli stessi.
Eppure, se l’infrastruttura tecnologica non è in grado di gestire la quantità e la complessità dei dati richiesti, i modelli AI possono funzionare lentamente o in modo inefficace. Questo può portare a risultati imprecisi o inaffidabili (soprattutto nella fase di addestramento).
In molte aziende, l’infrastruttura tecnologica esistente si è visto essere obsoleta o incompatibile con le nuove soluzioni di AI. Questo è particolarmente problematico per le aziende che non hanno aggiornato le loro tecnologie in anni recenti (come dicevamo lasciando che il “debito tecnico” crescesse). Alcune aziende possono avere difficoltà a trovare ascolto della Direzione negli investimenti in nuove tecnologie o non avere stimoli nel cambiamento e l’aggiornamento, preferendo continuare a utilizzare sistemi già in uso. Questo porta a una dipendenza da tecnologie obsolete che non possono supportare le nuove soluzioni AI. Tutto ciò porta ritardi e costi aggiuntivi e a scoprire che le loro infrastrutture non sono in grado di gestire l’aumento della domanda per far fronte alle soluzioni di AI sempre più importanti per il business.
Un’infrastruttura tecnologica inadeguata può anche comportare problemi di scalabilità e manutenzione nel lungo termine. Se l’infrastruttura non è scalabile, l’azienda potrebbe trovarsi in difficoltà nel gestire l’aumento dei dati richiesti per l’addestramento e l’implementazione di modelli di AI, limitando la capacità di innovare e migliorare. La necessità di mantenere sistemi obsoleti o inadeguati può portare a costi di manutenzione elevati e a inefficienze operative, aumentando il rischio di fallimenti nei progetti di AI.
Per garantire il successo dei progetti di intelligenza artificiale, le aziende devono investire seriamente nell’infrastruttura tecnologica necessaria per sostenere queste iniziative. Ciò implica la creazione di sistemi scalabili e di qualità, la garanzia della governance dei dati e la promozione della collaborazione tra team tecnici e di gestione. Solo così sarà possibile sfruttare appieno il potenziale dell’AI e garantire risultati concreti e misurabili nel tempo.
Mancanza di impegno a lungo termine
Questo tipo di fallimento si manifesta quando le organizzazioni non comprendono che i progetti di AI richiedono tempo, iterazione e adattamento per produrre risultati significativi. L’AI non è una soluzione rapida e richiede investimenti continui, ma molte aziende non riescono a mantenere la costanza e la dedizione necessarie.
Secondo il rapporto RAND uno dei motivi principali per cui le aziende falliscono nell’impegno a lungo termine è la convinzione che i progetti di AI debbano produrre risultati immediati. L’AI, specialmente in applicazioni complesse, richiede tempo per la raccolta dei dati, l’addestramento dei modelli, la messa a punto e l’implementazione. Tuttavia, molti dirigenti e stakeholder si aspettano che i benefici si materializzino rapidamente, sottovalutando la complessità del processo. In una citazione attribuita ad Einstein si dice “La gente adora spaccare la legna. In quest’attività i risultati si vedono subito.” E appare quanto mai azzeccata nel contesto.
Le narrazioni mediatiche sull’AI spesso enfatizzano i successi rapidi, creando un’aspettativa sbagliata che l’AI possa fornire soluzioni immediate. Le aziende sottovalutano i cicli di sviluppo iterativi e la necessità di raffinamento continuo dei modelli. Le organizzazioni, spesso spinte da scadenze trimestrali o dalla pressione del consiglio di amministrazione, cercano risultati rapidi e tangibili per giustificare gli investimenti, non considerando che l’AI richiede tempo per produrre valore sostenibile. Il risultato è che quando i primi risultati non sono all’altezza delle aspettative, i progetti di AI vengono abbandonati o subiscono riduzioni di budget, anche se si trovano in una fase iniziale di sviluppo. Ciò riduce la possibilità di migliorare o correggere i modelli per ottenere risultati validi a lungo termine. Il “fallimento” di progetti che vengono interrotti prematuramente a sua volta può portare a una perdita di fiducia nell’AI da parte del management, che può essere riluttante a investire in progetti futuri di intelligenza artificiale aumentando il gap nell’adozione della stessa.
Un altro fattore determinante è l’instabilità delle priorità aziendali. Le organizzazioni che non mantengono una strategia coerente a lungo termine rischiano di cambiare frequentemente direzione, reindirizzando risorse e attenzione verso altre iniziative prima che i progetti di AI possano maturare.
Spesso le aziende che operano in mercati dinamici o competitivi possono sentirsi obbligate a rivedere costantemente le loro strategie, sacrificando iniziative a lungo termine come l’AI in favore di soluzioni che sembrano offrire benefici immediati. Le aziende non pianificano adeguatamente il percorso a lungo termine per l’AI, risultando in una mancanza di visione strategica che le rende vulnerabili ai cambiamenti improvvisi delle priorità. Così i progetti di AI possono essere messi da parte o subire una riduzione di risorse quando nuove iniziative prendono il sopravvento, impedendo che vengano sviluppati fino a un livello di maturità sufficiente per produrre risultati tangibili. L’interruzione frequente di progetti, inoltre, riduce la capacità delle aziende di apprendere dai propri errori o successi. Poiché l’AI richiede un ciclo iterativo di miglioramento continuo, ogni stop prematuro rappresenta una perdita di know-how e impedisce l’innovazione.
Anche quando esiste una volontà iniziale di investire nell’AI, alcune organizzazioni tuttavia non riescono a garantire un impegno sostenuto in termini di risorse. Il supporto a lungo termine in termini di budget, personale qualificato e infrastruttura tecnologica è fondamentale per il successo di questi progetti.
Le aziende possono sottovalutare il costo a lungo termine dei progetti di AI, considerando solo le fasi iniziali di sviluppo e non i continui aggiornamenti, manutenzione e iterazioni necessarie per mantenere la qualità delle soluzioni. I progetti di AI richiedono personale altamente qualificato e stabili. Tuttavia, il turnover elevato o la mancanza di formazione interna può privare l’azienda delle competenze necessarie per continuare a migliorare i modelli nel tempo.
I progetti possono essere lanciati con entusiasmo, ma successivamente fallire a causa della mancanza di risorse per mantenerli e aggiornarli, portando a modelli che diventano rapidamente obsoleti o inefficaci. Senza un impegno a lungo termine per formare e trattenere il personale chiave, le organizzazioni faticano a costruire una base solida di conoscenze e competenze in AI, limitando la loro capacità di evolversi nel tempo.
Molte aziende tendono a trattare i modelli di AI come soluzioni “una tantum”, non riuscendo a riconoscere che i modelli richiedono monitoraggio, manutenzione e aggiornamenti continui per mantenere le loro prestazioni nel tempo.
Alcune organizzazioni vedono l’implementazione di modelli di AI come un progetto finito, piuttosto che un processo continuo di miglioramento e adattamento. Le aziende spesso non organizzano le strutture necessarie per monitorare le prestazioni dei modelli di AI in produzione, ignorando i cambiamenti nei dati o nelle condizioni operative che possono influenzare i risultati.
Senza un monitoraggio continuo, i modelli di AI possono diventare meno efficaci a causa del cambiamento nei dati o nei comportamenti degli utenti. Questo degrado può passare inosservato fino a quando il modello non diventa inutilizzabile. L’incapacità di aggiornare i modelli o adattarli a nuove esigenze può comportare costi nascosti, in quanto l’azienda si affida a soluzioni inefficaci che richiedono risorse aggiuntive per essere corrette successivamente.
La resistenza al cambiamento all’interno dell’organizzazione
Infine, un’altra barriera all’impegno a lungo termine per l’AI è la resistenza al cambiamento all’interno dell’organizzazione. Molti dipendenti e manager possono non essere pronti a gestire le trasformazioni radicali che l’AI porta in termini di processi aziendali e gestione delle competenze. Alcuni dipendenti possono vedere l’AI come una minaccia ai loro posti di lavoro, creando resistenza alla sua implementazione e un atteggiamento negativo verso i progetti di AI. Se i dipendenti non ricevono formazione adeguata, potrebbero sentirsi impreparati a utilizzare le nuove tecnologie, riducendo l’efficacia dei progetti di AI e scoraggiando ulteriori investimenti.
Anche quando i progetti vengono completati, la mancanza di accettazione da parte del personale può portare a un utilizzo limitato delle soluzioni di AI, riducendo il ritorno sull’investimento. Se l’adozione è scarsa, il management potrebbe interpretare i risultati come fallimenti, diminuendo la propensione a impegnarsi ulteriormente in iniziative di Intelligenza Artificiale in futuro.
La mancanza di impegno a lungo termine è una delle cause più comuni e pericolose di fallimento dei progetti di AI, secondo il rapporto. Le aziende devono riconoscere che l’AI richiede investimenti continui, monitoraggio e adattamento per avere successo. Adottare una visione a lungo termine, basata su una roadmap strategica e su investimenti in risorse e formazione, è cruciale per garantire che i progetti di AI raggiungano il loro pieno potenziale.
Incapacità di comprendere i limiti dell’AI
La comprensione dei limiti dell’Intelligenza Artificiale è cruciale per il successo dei progetti in questo campo. Tuttavia, molte aziende falliscono proprio in questo aspetto, creandosi aspettative irrealistiche.
Molte aziende, a causa di hype mediatico e racconti di successo, sviluppano aspettative eccessivamente ottimistiche riguardo alle capacità dell’AI. Questa situazione è alimentata da storie di aziende che hanno raggiunto risultati straordinari grazie all’AI, portando a una visione distorta delle sue reali potenzialità.
Le campagne di marketing possono dare l’impressione che l’AI sia una soluzione “magica” in grado di risolvere qualsiasi problema. Questa narrativa può portare le aziende a sovrastimare cosa l’AI possa realmente fare in breve tempo. I leader aziendali, che spesso non hanno una formazione tecnica, possono non essere in grado di valutare criticamente le capacità e i limiti della tecnologia AI, lasciando che le aspettative siano influenzate da fattori esterni piuttosto che da un’analisi obiettiva. Il rischio è che si possano sviluppare modelli che non affrontano correttamente il problema o che non sono adeguati per le esigenze specifiche, perché si basano su supposizioni errate sulle capacità dell’AI.
Nelle aziende talvolta non si comprendono le limitazioni intrinseche dei modelli di AI, come la loro dipendenza dai dati, le loro capacità predittive e la loro interpretabilità. Questa mancanza di comprensione può portare a scelte sbagliate riguardo a quali problemi affrontare con l’AI. Ci si concentra nel cercare risultati rapidi e non si prende il tempo necessario per comprendere le complessità e i limiti delle soluzioni di AI.
Molti team non considerano che i modelli di AI sono tanto buoni quanto i dati su cui sono addestrati. Se i dati sono scarsi, obsoleti o non rappresentativi, anche i migliori algoritmi non daranno risultati validi.
I modelli possono fornire risultati inaccurati o fuorvianti, portando a decisioni aziendali sbagliate. Le aziende, quindi, faranno affidamento su previsioni basate su modelli difettosi, causando danni a lungo termine. Il management può trovarsi di fronte a risultati difficili da interpretare o comprendere, rendendo difficile prendere decisioni informate basate su dati.
Implementare l’AI non è solo una questione tecnologica; implica anche cambiamenti significativi nei processi aziendali e nelle culture organizzative. Le aziende che non comprendono i limiti dell’AI possono anche sottovalutare il cambiamento organizzativo necessario per implementarla con successo.
L’introduzione di soluzioni AI richiede spesso un cambiamento nei processi lavorativi e nella mentalità delle persone. Le aziende che non preparano adeguatamente il personale possono affrontare resistenza e scetticismo. Se i dipendenti non ricevono formazione adeguata sulle nuove tecnologie, possono non sentirsi a proprio agio nell’utilizzarle, portando a un’implementazione inefficace. Le nuove soluzioni potrebbero non essere utilizzate correttamente o adottate completamente, riducendo il valore complessivo che potrebbero apportare all’azienda e la mancanza di preparazione per il cambiamento può portare a un clima di insoddisfazione tra i dipendenti, il che può ulteriormente ostacolare l’adozione dell’AI e il progresso dell’azienda.
Le aziende possono anche fallire nel riconoscere che non tutti i problemi sono adatti per soluzioni di AI. Questo porta a investimenti in progetti che non sono allineati con gli obiettivi strategici dell’organizzazione.
Spesso, le decisioni di implementazione dell’AI sono guidate da tendenze piuttosto che da una valutazione strategica e obiettiva di cosa l’AI può realmente contribuire e le aziende possono dare priorità a progetti che sembrano interessanti dal punto di vista tecnologico, ma che non affrontano le sfide reali del business.
Progetti di AI che non affrontano problemi reali o non sono allineati con le esigenze aziendali possono portare a risultati scarsi o nulli, causando frustrazione e perdite economiche. Quando i progetti non portano risultati, l’azienda può sviluppare un’opinione negativa sull’AI nel suo complesso, scoraggiando ulteriori investimenti e sperimentazioni.
Infine, le aziende possono avere difficoltà a comunicare i risultati dei progetti di AI, sia interni che esterni. La mancanza di una narrativa chiara sui successi e sui fallimenti dell’AI può portare a malintesi e alla diffusione di aspettative errate.
La struttura tecnica utilizzare un linguaggio troppo tecnico per comunicare i risultati ai leader aziendali o agli altri stakeholder, rendendo difficile la comprensione delle capacità e dei limiti dell’AI. Le aziende potrebbero non rendere pubblici i dati e i risultati, impedendo a dipendenti e stakeholder di comprendere il contesto e il valore delle soluzioni implementate. Se i dipendenti non comprendono i risultati e i benefici delle soluzioni e non li percepiscono direttamente, potrebbero essere riluttanti ad adottarle, limitando il loro potenziale impatto. La mancanza di una comunicazione chiara e trasparente sui risultati può portare a critiche e scetticismo da parte degli stakeholder, ostacolando ulteriori.
Per garantire il successo dei progetti di intelligenza artificiale, è fondamentale che le aziende comprendano e riconoscano i limiti dell’AI. Ciò richiede una formazione adeguata, la definizione di aspettative realistiche e una comunicazione chiara e trasparente tra i vari stakeholder. Solo così le organizzazioni possono massimizzare il potenziale dell’AI, evitando fallimenti e sfruttando al meglio le opportunità offerte da questa tecnologia innovativa.
Concentrazione sulla tecnologia, non sul problema
Sembrerebbe in contraddizione con l’importanza dell’infrastruttura tecnologica ma non è così, uno dei motivi principali per cui i progetti di Intelligenza Artificiale falliscono è il focus eccessivo sulla tecnologia a discapito della risoluzione di problemi aziendali concreti. Questo fenomeno si verifica quando le organizzazioni si concentrano più sull’adozione di tecnologie all’avanguardia e sofisticate, come l’AI, piuttosto che sulla comprensione e definizione chiara del problema che intendono risolvere. Questo approccio può portare a sprechi di risorse, frustrazione e, infine, al fallimento del progetto
Alcune aziende si sentono spinte ad adottare le ultime innovazioni tecnologiche, come l’AI, per rimanere competitive, senza considerare se queste tecnologie siano la soluzione migliore per i loro problemi specifici. L’adozione dell’AI diventa un obiettivo fine a sé stesso, piuttosto che uno strumento per affrontare una sfida aziendale concreta.
Questo può essere generato dalla percezione che le aziende di successo stiano utilizzando l’AI può generare una pressione interna per adottarla a tutti i costi, spingendo i dirigenti a investire in progetti senza una valutazione approfondita delle necessità aziendali. Le aziende sono attratte dalle promesse dell’AI e vogliono essere viste come leader nell’innovazione. Questo crea una cultura in cui l’adozione di tecnologie avanzate diventa più importante della risoluzione di problemi specifici e rilevanti per l’organizzazione.
Le organizzazioni sviluppano soluzioni tecnologicamente avanzate, ma queste non apportano valore aggiunto perché non risolvono un problema reale. Ad esempio, un’azienda potrebbe investire in complessi modelli di deep learning quando metodi analitici più semplici sarebbero sufficienti e più efficienti. I progetti che si concentrano solo sull’adozione dell’AI, senza collegarsi agli obiettivi di business, spesso non riescono a produrre risultati tangibili, portando a frustrazione e alla percezione che l’AI non funzioni.
Quando i progetti di AI sono guidati principalmente dai tecnici, senza un adeguato coinvolgimento del business, c’è un rischio elevato di perdere di vista gli obiettivi aziendali. I data scientist e gli ingegneri possono essere entusiasti di sperimentare nuove tecniche e strumenti tecnologici, ma questo può portare a soluzioni che non affrontano le vere priorità aziendali. Spesso, i team tecnici possono trovarsi a lavorare in isolamento rispetto agli esperti di dominio, senza comprendere a fondo il contesto del problema. Questo crea una separazione tra chi sviluppa la soluzione tecnologica e chi ha la visione d’insieme del business. I team tecnici possono essere più concentrati sul miglioramento delle metriche tecniche (come l’accuratezza del modello o la riduzione degli errori) piuttosto che sugli indicatori di performance aziendale (come l’incremento delle vendite o l’efficienza operativa).
Questo provoca di solito che i modelli di AI sviluppati possono essere tecnicamente sofisticati, ma non vengono utilizzati perché non risolvono i problemi che i leader aziendali stanno cercando di affrontare. Ad esempio, un’azienda potrebbe sviluppare un modello predittivo accurato, ma che non tiene conto di fattori commerciali critici, come il comportamento del cliente. Quando non c’è allineamento tra il team tecnico e il business, i progetti di AI possono non riuscire a creare un impatto misurabile, portando alla percezione che l’AI non sia una tecnologia utile o efficace per l’azienda.
Un altro fallimento comune si verifica quando i team si concentrano esclusivamente sulle metriche tecniche, come l’accuratezza del modello, invece che sugli obiettivi di business. Le metriche tecniche, per quanto importanti, non dovrebbero essere il fine ultimo del progetto, bensì uno strumento per raggiungere risultati concreti in termini di valore per l’azienda.
I tecnici possono dare eccessiva importanza al miglioramento delle prestazioni tecniche del modello, come l’aumento della precisione predittiva, dimenticando che il modello deve risolvere un problema aziendale reale. Se non vengono stabiliti obiettivi aziendali chiari e specifici, i tecnici tenderanno a ottimizzare le metriche tecniche piuttosto che quelle che sono effettivamente rilevanti per il successo del progetto in termini di impatto economico e strategico.
Anche se il modello sviluppato è altamente accurato dal punto di vista tecnico, potrebbe non riuscire a tradursi in valore economico o operativo per l’azienda. Ad esempio, un modello può prevedere correttamente i comportamenti futuri dei clienti, ma se le previsioni non vengono integrate nei processi decisionali aziendali, l’effetto positivo sarà nullo.
La mancanza di una visione olistica potrebbe portare a una scarsa giustificazione dell’investimento in AI, poiché i risultati tecnici non riescono a tradursi in miglioramenti tangibili per l’organizzazione.
Il successo di un progetto di AI dipende dalla capacità di integrare le competenze tecniche all’interno dei processi aziendali. Tuttavia, quando il focus è solo sulla tecnologia, le competenze necessarie per implementare e mantenere queste soluzioni all’interno dei contesti aziendali vengono trascurate.
L’AI viene in molti casi trattata come un’iniziativa isolata, sviluppata esclusivamente dai team tecnici senza input o coinvolgimento sufficiente da parte dei leader aziendali o degli utenti finali. Uno dei problemi principali è la mancanza di persone con competenze ibride, sia tecniche che aziendali il che rende difficile tradurre le soluzioni tecniche in risultati pratici e misurabili. Questo porta al fatto che anche se il modello AI è tecnicamente valido, potrebbe non essere implementato correttamente nei flussi operativi aziendali, limitando il suo impatto o causando inefficienze; le soluzioni AI possono essere percepite come non rilevanti o troppo complesse dagli utenti aziendali, il che porta a una scarsa adozione e, in definitiva, all’insuccesso del progetto.
Il rapporto evidenzia che una causa di fallimento nei progetti di AI è un eccessivo focus sulla tecnologia e di una scarsa attenzione alla risoluzione dei problemi aziendali concreti. Per evitare questo errore, le aziende devono concentrarsi innanzitutto sulla definizione chiara del problema che intendono risolvere e allineare i progetti AI agli obiettivi strategici del business. Una collaborazione più stretta tra i team tecnici e quelli aziendali, un’attenzione costante alle metriche di business e l’adozione di una roadmap strategica a lungo termine sono fattori chiave per massimizzare il potenziale dell’AI e garantire un impatto positivo sull’organizzazione. Non da ultimo promuovere la crescita di figure ibride in grado di avere un’ottima conoscenza tecnica e un’ottima conoscenza del dominio di business, o comunque persone in grado di recuperare velocemente il gap lato business.
Raccomandazioni utili per il successo di un progetto AI
Il rapporto analizza molto attentamente le cause di fallimento, è molto più rivolto al tema dell’AI predittiva che a quella generativa (esistono sicuramente meno progetti sviluppati), tuttavia ci permette di individuare delle raccomandazioni utili in ogni contesto.
Raccomandazione 1: concentrarsi sui problemi aziendali, non sulla tecnologia
Prima di lanciare un progetto di AI, è fondamentale avere una comprensione chiara del problema specifico che si intende risolvere. L’intelligenza artificiale è uno strumento potente, ma non tutte le sfide aziendali necessitano di una soluzione AI.
È auspicabile coinvolgere gli stakeholder aziendali fin dalle prime fasi per garantire che il problema sia ben compreso e che ci sia un allineamento tra obiettivi tecnici e strategici e valutare se l’AI è davvero la soluzione più efficace o se esistono alternative più semplici o meno costose che possano affrontare lo stesso problema.
Raccomandazione 2: costruire una solida infrastruttura per la gestione dei dati
I dati di qualità sono il pilastro di qualsiasi progetto di AI. Secondo il rapporto RAND, molti progetti falliscono a causa della scarsa qualità dei dati o della mancanza di dati sufficienti. Per evitare questo errore, è necessario investire nella raccolta, pulizia e gestione dei dati.
Realizzare una infrastruttura in grado di far comunicare i dati e una buona governance dei dati che garantisca che i dati siano accurati, aggiornati e completi. Stabilire protocolli per la pulizia e la verifica dei dati è essenziale per garantire che i modelli AI funzionino correttamente. Infine monitorare costantemente la qualità dei dati e assicurarsi che vengano raccolti nuovi dati man mano che cambiano le esigenze aziendali o il contesto di mercato.
Raccomandazione 3: favorire la collaborazione tra team tecnici e aziendali
Una delle principali cause di fallimento è la “disconnessione” tra tecnici e manager aziendali. Il rapporto RAND evidenzia che i progetti di AI sono spesso guidati dai team tecnici senza un adeguato coinvolgimento del business, il che porta a soluzioni disallineate rispetto agli obiettivi aziendali.
I manager di business devono lavorare a stretto contatto con i data scientist e gli ingegneri per tradurre i bisogni aziendali in specifiche tecniche. Ciò assicura che la soluzione AI risponda alle esigenze operative e strategiche dell’azienda. Bisogna far sì che il team tecnico comprenda chiaramente le metriche di business che indicano il successo del progetto, non solo le prestazioni tecniche del modello.
Raccomandazione 4: avere una visione di lungo termine e accettare il ciclo iterativo dell’AI
I progetti di AI richiedono tempo per maturare. Il rapporto RAND sottolinea che molte aziende falliscono perché si aspettano risultati immediati e non comprendono che l’AI è un processo iterativo. È necessario mantenere un impegno costante nel tempo e non abbandonare il progetto ai primi ostacoli. Stabilire obiettivi realistici e scaglionati nel tempo, i progetti di AI possono richiedere mesi o anni per essere completamente ottimizzati; quindi, è importante pianificare con lungimiranza e gestire le aspettative degli stakeholder. È anche necessario allocare risorse adeguate alla manutenzione e l’aggiornamento continuo dei modelli. L’AI richiede monitoraggio e miglioramento costante, soprattutto perché i dati possono cambiare e i modelli possono perdere efficacia.
Costruire una cultura aziendale che incoraggi l’iterazione e l’apprendimento dai fallimenti. Ogni progetto di AI comporterà una curva di apprendimento e la necessità di adattarsi ai risultati ottenuti.
Raccomandazione 5: impostare aspettative realistiche sulle capacità dell’AI
Molte organizzazioni falliscono perché non comprendono appieno i limiti dell’intelligenza artificiale, adottando un approccio troppo ottimistico o credendo che l’AI possa risolvere qualsiasi problema. Secondo il rapporto RAND, questo porta a frustrazione e aspettative disallineate. Spiegare ai vertici aziendali e gli stakeholder i limiti dell’AI, spiegando che l’intelligenza artificiale non è una soluzione magica. È importante comprendere che l’AI è uno strumento che funziona bene in determinati contesti, ma non è adatta a risolvere tutti i problemi.
Stabilire criteri chiari per valutare i risultati del progetto e comprendere le circostanze in cui l’AI potrebbe non fornire le risposte desiderate. Monitorare costantemente le prestazioni dei modelli per assicurarsi che siano allineati alle aspettative aziendali.
Evitare di inseguire l’ultima tecnologia AI solo per moda. Assicurarsi che ogni progetto di AI sia guidato da una necessità aziendale reale, piuttosto che dall’entusiasmo per una tecnologia avanzata.
Raccomandazione 6: investire in tecnologie scalabili e aggiornabili
Una delle cause più comuni di fallimento identificata dal rapporto RAND è la sottovalutazione dell’infrastruttura tecnologica necessaria per supportare progetti di AI. Le aziende spesso tentano di utilizzare tecnologie obsolete o inadeguate per sostenere la complessità dell’AI, il che porta a inefficienze e fallimenti.
Assicurarsi che l’infrastruttura IT dell’azienda sia in grado di supportare i requisiti tecnici del progetto AI, inclusi grandi volumi di dati, potenza di calcolo e capacità di memorizzazione.
Investire in strumenti di gestione dei dati e delle pipeline di machine learning che permettano di automatizzare i flussi di lavoro, garantendo che i dati siano accessibili, puliti e pronti per l’uso nei modelli.
Prevedere aggiornamenti regolari all’infrastruttura per adattarsi alla crescente complessità e ai requisiti futuri dell’AI, assicurandosi che le tecnologie scelte siano scalabili e capaci di evolversi con l’organizzazione.
Le difficoltà del contesto italiano
Per avviare con successo un progetto di intelligenza artificiale, le aziende devono adottare un approccio strategico, che tenga conto non solo della tecnologia, ma anche dei problemi aziendali, della qualità dei dati, delle competenze interne e della visione a lungo termine. Le raccomandazioni basate sul rapporto RAND evidenziano l’importanza di una pianificazione attenta, di una collaborazione tra il personale tecnico e aziendale e della capacità di comprendere i limiti dell’AI. Solo attraverso un impegno continuativo e una strategia olistica, le organizzazioni possono massimizzare il potenziale dell’intelligenza artificiale e trasformarla in un fattore di successo e crescita.
Il contesto italiano è sicuramente differente da quello statunitense dove è nato il rapporto però le problematiche spesso sono le stesse, con l’aggravio che nel nostro Paese ancora è troppo una diffusa cultura che non vede le opportunità del digitale e dell’AI come così importanti per il business. Le nostre imprese spesso pervase dall’idea errata che il “piccolo è bello” fanno fatica ad avere quella infrastruttura tecnologica e umana necessaria per investire e “cavalcare” l’innovazione. Eppure, è l’unico modo per poter mantenere il nostro livello di benessere e quello dei nostri figli.
“The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed ” James Ryseff, Brandon De Bruhl, Sydne J. Newberry, Agosto 2024,https://www.rand.org/pubs/research_reports/RRA2680-1.html ↑
La RAND Corporation è un rinomato istituto di ricerca non-profit statunitense che si occupa di analisi e studi su questioni di grande rilevanza sociale, economica e politica. La RAND è una sorta di “think tank” che produce ricerche approfondite per aiutare a prendere decisioni informate su temi complessi, come la politica sanitaria, la sicurezza nazionale, l’ambiente e l’economia. Fondata nel 1946 ha svolto sempre un ruolo rilevante nelle analisi e nelle politiche del governo USA e non solo. ↑