Il leitmotiv comune a tutti gli eventi di Maker Maire Rome 2023 è stato il rapporto tra l’innovazione tecnologica e il variegato universo delle micro, piccole e medie imprese.
Stimolare il dibattito sulle opportunità e sui rischi connessi alle nuove tecnologie da un palcoscenico all’interno di una fiera dedicata all’innovazione, che ha attratto oltre 75.000 visitatori, è stato particolarmente interessante e ha permesso di raccogliere molti spunti significativi, soprattutto riguardo all’atteggiamento che i piccoli imprenditori stanno maturando verso questi temi.
L’intelligenza artificiale protagonista
Non è stata una sorpresa il fatto che l’Intelligenza Artificiale abbia avuto la parte del leone. Si tratta senza dubbio della tecnologia che in questo momento gode della maggiore attenzione mediatica e si trova all’apice del suo momento di gloria.
Il termine stesso Intelligenza Artificiale è di per sé una semplificazione giornalistica, definitivamente sdoganato nell’ambito delle “cose concrete” e tornato di gran moda dopo un lungo periodo storico di alti e bassi iniziato nei lontani anni ’50.
Si tratta di un’area di ricerca che negli ultimi 10 anni ha prodotto per la prima volta risultati molto significativi, permettendo la realizzazione di applicazioni software in grado di automatizzare e risolvere problemi per i quali non erano disponibili algoritmi risolutivi.
Il ritorno della Maker Faire alla Fiera di Roma
Il ritorno della Maker Faire Rome alla Nuova Fiera di Roma, dopo due anni di edizioni in formato ridotto, è stata l’occasione per creare un grande evento dedicato alle imprese, durante il quale fare il punto sulle importanti opportunità connesse alle recenti novità tecnologiche, che negli ultimi mesi hanno avuto tanta evidenza mediatica.
In questa edizione, la CNA, che con i suoi oltre 650.000 associati è la più grande associazione imprenditoriale diffusa sul territorio italiano, ha sfruttato i 200 metri quadrati del suo stand per allestire uno spazio dedicato alle aziende composto da un auditorium e da un’area di networking, per favorire l’incontro e il confronto tra pubblico, imprenditori e i numerosi ospiti, che a turno hanno tenuto brevi ed interessanti talk sui temi più caldi in questo momento.
Sul palco abbiamo visto alternarsi durante i tre giorni della kermesse giornalisti, docenti e ricercatori universitari, imprenditori, rappresentanti di categoria e soggetti istituzionali come ad esempio il Garante della Privacy.
Dopo la disillusione degli anni ’90, in cui la ricerca sull’IA si era arenata e non aveva prodotto impatti sulle applicazioni quotidiane dell’informatica, il termine era caduto in disuso e relegato alla letteratura di fantascienza.
Tuttavia, lontano dai riflettori dei media generalisti, la ricerca era proseguita, e nel nuovo millennio una nuova generazione di modelli statistici, basati su un paradigma computazionale chiamato Deep Learning ha iniziato a produrre risultati che hanno permesso di affrontare problemi di classificazione non gestibili dai modelli disponibili fino ad allora e sono comparse sul mercato applicazioni di grande utilità che hanno trovato una rapida adozione in molti settori, dal riconoscimento ed elaborazione automatica delle immagini all’analisi automatica dei cosiddetti “Big Data”.
È dai primi anni ’10 del nuovo secolo che i nostri smartphone ci regalano foto istantanee più belle grazie agli algoritmi basati sul Deep Learning e i grandi attori che monopolizzano la Rete Internet, come Google e Meta (ex Facebook) sono in grado di indirizzarci pubblicità mirata sui nostri interessi e comportamenti.
Ma tutto ciò, pur essendo stata una vera rivoluzione tecnica, non ha goduto di particolare enfasi e abbiamo cominciato a preoccuparci degli inevitabili problemi di privacy e sicurezza quando era oramai troppo tardi.
L’incontro tra innovazione e PMI
Questa prima fase d’innovazione tecnologica ha comunque avuto un discreto impatto sul settore delle PMI, rendendo disponibili strumenti economici che hanno consentito anche alle piccole imprese di creare e gestire campagne pubblicitarie efficaci e competitive sui nuovi media.
Da molto tempo, modesti investimenti pubblicitari sui canali web e social offrono risultati maggiori delle costosissime campagne pubblicitarie condotte sui media tradizionali come TV e carta stampata.
Al di la del nome evocativo, Deep Learning e Reti Neurali sono algoritmi di classificazione o previsione di tipo statistico e non hanno nulla di “intelligente” nel senso più umano del termine.
Le implicazioni dell’intelligenza artificiale generativa
Così come non hanno nulla di paragonabile all’intelligenza umana anche gli ultimi risultati prodotti da questo filone di ricerca. L’attuale star del settore, ChatGPT, che domina le scene in questi mesi, non è altro che un evoluto sistema statistico, sempre basato sul Deep Learning, che è in grado di prevedere la migliore sequenza di parole da generare in risposta ad un testo di input.
Dietro al rilascio di ChatGPT c’è la disponibilità di un’enorme capacità di calcolo parallelo, parliamo di impianti di elaborazione che occupano diversi ettari all’interno delle server farm di Microsoft, e una fase di “training” durata alcuni anni, in cui sono stati somministrati i testi di tutta la rete Internet e di moltissime banche dati, praticamente l’intero scibile umano.
Grazie alla lunga fase di training e alla mostruosa capacità dei server ospitanti, questo tipo di modelli è in grado di rispondere ai prompt in modo perfettamente aderente al contesto, nel pieno rispetto delle regole grammaticali e sintattiche e in modo talmente appropriato da sembrare un essere umano, oltre a disporre delle capacità di analizzare e sintetizzare le informazioni codificate nei testi.
Tutto ciò pone molti problemi e avrà impatti importanti sul mercato. Nei tre giorni della Maker Faire, assieme agli esperti invitati sul palco, ne abbiamo ampiamente dibattuto e soprattutto abbiamo declinato rischi ed opportunità sui diversi “mestieri”, termine che in CNA è usato per identificare le diverse industry.
L’esempio degli algoritmi di generazione delle immagini: pro e contro
Molto spesso, ciò che rappresenta un’opportunità per le aziende di un settore, rappresenta un rischio per le imprese di un diverso settore. Un esempio che chiarisce bene il problema è quello degli algoritmi di generazione delle immagini.
Pensiamo ad uno strumento come Dall-E o Midjourney, in cui miliardi di immagini stock, realizzate da artisti digitali e fotografi, sono serviti ad addestrare un algoritmo che, a costi irrisori, permette a chiunque di generare immagini nello “stile di…”.
Un’impresa che voglia realizzare una campagna di visual advertising non ha più bisogno di acquistare immagini stock o assoldare un fotografo o un grafico. Le immagini generate sono originali e libere da copyright.
Un fotografo famoso e affermato, le cui immagini sono state liberamente utilizzate per addestrare un algoritmo di IA generativa, può affermare che il copyright sulla sua opera sia stato violato? E in caso affermativo, chi ha commesso la violazione, l’azienda che ha addestrato l’algoritmo oppure l’utente che con il suo prompt chiede di generare una immagine “nello stile di…”?
Qual è l’opinione sul tema dei fotografi pubblicitari? Qual è l’opinione delle agenzie di comunicazione, che solitamente sono i loro principali clienti? Sono dibattiti che in una associazione che confedera entrambe le categorie animano i convegni.
L’impatto dell’AI sulla supply chain
La realtà è che questi nuovi strumenti stanno ridisegnando in modo totalmente diverso le supply chain.
Sia coloro che vedono l’Intelligenza Artificiale Generativa come un potenziale concorrente sia coloro che possono sfruttare questa tecnologia per ridurre o limitare determinati costi, devono adattare i propri modelli di business e i propri processi tenendo in considerazione il nuovo scenario.
La rilevanza della regolamentazione nel settore dell’IA
Non è un caso che uno dei temi attualmente più discussi riguardi la regolamentazione del settore dell’Intelligenza Artificiale.
Si tratta di un argomento complesso che richiede una approfondita conoscenza della tecnologia e degli strumenti.
Una delle conclusioni che abbiamo raggiunto è che sia necessaria una ridefinizione delle regolamentazioni anche in ambiti affini.
Ad esempio, il problema del copyright è uno dei temi che dovrà essere approfondito. Molto probabilmente, il concetto di “utilizzo a fini commerciali” di un’opera dovrà essere esteso per comprendere anche il suo impiego in fase di training di una IA e non solo in relazione alla semplice pubblicazione dell’opera.
Non tutte le novità sono destinate a generare conflitti
In questo scenario complesso e turbolento, non tutte le novità sono destinate a generare conflitti, esistono opportunità importanti che riguardano l’intero comparto delle micro e piccole imprese.
Un aspetto ancora sottovalutato dei recenti Large Language Model riguarda l’abbattimento delle barriere d’accesso agli strumenti tecnologici.
L’effetto più importante che avranno le tecnologie di manipolazione e generazione del linguaggio naturale sarà proprio quello di consentire il rapido sviluppo di un nuovo paradigma di interfaccia verso dispositivi elettronici e applicazioni software.
Il modello d’interazione tradizionale, attualmente implementato dalla stragrande maggioranza dei prodotti, richiede da parte dell’utente la conoscenza e l’utilizzo di insiemi di comandi, che per quanto intuitivi e standardizzati, presuppongono un certo grado di pratica e confidenza da parte dell’utente.
Per velocizzare e favorire l’apprendimento delle modalità di utilizzo, molti software e prodotti sono corredati da sistemi testuali di aiuto e supporto contestuale, ma comunque distinti ed esterni rispetto alle interfacce vere e proprie.
L’accesso facilitato alle nuove tecnologie grazie ai Large Language Models
Attraverso la tecnologia dei LLM è invece relativamente immediato dotare prodotti e applicazioni software di interfacce utente totalmente basate sul linguaggio naturale. Si tratta di un modello di interazione già ampiamente sperimentato attraverso gli assistenti virtuali come Siri di Apple ed Alexa di Amazon.
L’evoluzione di questi strumenti e l’impiego dei nuovi modelli di gestione del linguaggio, sempre più affidabili e performanti, porterà gradualmente alla scomparsa delle interfacce tradizionali basate su menù e comandi.
Le nuove interfacce combineranno la capacità di elaborare le basi di conoscenza ricche e ampiamente disponibili per tutte le applicazioni più diffuse con la capacità di interpretare l’intento degli utenti nell’interazione con dispositivi e strumenti software, rendendo utilizzabili da chiunque piattaforme complesse che oggi richiedono un certo grado di preparazione.
L’esperienza della CNA di Roma
Un esempio chiarificatore dell’enorme portata di questa rivoluzione può essere tratto dall’esperienza della CNA di Roma, maturata nell’ambito di un’iniziativa a supporto della digitalizzazione delle micro imprese, in cui è chiaramente emersa la difficoltà da parte degli artigiani, titolari e nello stesso tempo unici lavoratori nella propria azienda, ad utilizzare strumenti come il business manager di Meta (Facebook) o il gestore delle inserzioni di Google.
I passaggi operativi da seguire e le scelte da effettuare presuppongono un certo grado di studio e di applicazione al problema.
Per quanto semplificati e resi intuitivi, il tempo necessario all’apprendimento di questi prodotti, e al mantenimento di conoscenze sempre aggiornate, è incompatibile con i ritmi di lavoro della maggior parte degli artigiani.
Sia Meta che Google offrono decine di manuali e tutorial on line ben fatti e molto efficaci, la cui lettura tuttavia richiede tempo e attenzione.
Un sistema LLM come ChatGPT di OpenAI è in grado di fornire la sequenza di operazioni più corretta ed opportuna da compiere per impostare una campagna pubblicitaria in pochi secondi fornendo semplicemente una breve descrizione della propria esigenza.
Dotando un advertising manager di una semplice interfaccia in stile ChatGPT, sarebbero sufficienti pochi secondi per definirla e pubblicarla online.
Non si tratta di uno scenario futuristico ma di un’evoluzione che è già in atto.
Nei prossimi mesi assisteremo ad un improvviso ampliamento della platea degli utilizzatori di strumenti evoluti come quelli descritti e lo scenario competitivo sarà completamente stravolto.
Blockchain e Quantum Computing: opportunità e problemi
Ma, durante la Maker Faire, sul palco di CNA sono stati dibattuti anche temi che al momento non godono della stessa attenzione mediatica. Da un lato la tecnologia Blockchain, oramai passata di moda dopo la bolla delle criptovalute e degli NFT, e dall’altro la tecnologia del Quantum Computing di cui si conosce ancora poco.
Nel primo caso, siamo semplicemente entrati nella fase del “ciclo di hype” che Gartner Group chiama il “pendio della disillusione”, la finanza decentralizzata e democratica non è diventata una realtà, gli investimenti in asset digitali si sono rivelati fallimentari e le criptovalute sono state affette dai soliti problemi speculativi, tuttavia, la storia insegna che è proprio in questa fase che le tecnologie maturano ed emergono applicazioni e rivoluzioni che nessuno aveva previsto.
La dipendenza da pochissime piattaforme che monopolizzano il mercato
Man mano che sempre più PMI iniziano ad avere modelli di business supportati pesantemente dal web e social marketing, la dipendenza da pochissime piattaforme che monopolizzano il mercato comincia ad essere avvertito come un fattore di criticità.
Il blocco improvviso, inspiegabile e unilateralmente deciso da Meta o da Google di un account o di un profilo pubblicitario è già oggi un evento in grado di compromettere significativamente i ricavi di un’impresa commerciale.
L’allargamento della platea degli utilizzatori di questi canali di marketing, per il citato effetto della semplificazione delle interfacce dovuto ai nuovi LLM, aumenterà il numero dei soggetti sensibili al problema.
Lo sviluppo del web decentralizzato
Questo renderà fertile il terreno per lo sviluppo del web decentralizzato, in cui social network e piattaforme non saranno più controllate da pochi grandi monopolisti. Le tecnologie sono pronte da tempo, ma fino ad oggi è mancata la necessaria spinta da parte della domanda di mercato.
L’altro tema di cui abbiamo discusso ha riguardato il prossimo avvento di una nuova generazione di computer basati su un modello di informatica radicalmente diverso da quello su cui sono basati gli attuali hardware.
Gli investimenti sul Quantum Computing
Gli investimenti sul Quantum Computing sono in costante crescita e i segnali provenienti dai grandi operatori impegnati su questo fronte sono molto positivi. A livello sperimentale la tecnologia è già da tempo disponibile, IBM ad esempio offre account gratuiti per l’accesso ai propri sistemi Q, e sembra certo che entro il 2025 le prestazioni e l’affidabilità dei primi sistemi commerciali garantiranno la possibilità di ottenere algoritmi incredibilmente più performanti in molti settori. Machine Learning, Logistica, Finanza, Farmaceutica e Chimica saranno i primi settori ad essere rivoluzionati.
Fino allo scorso anno sui media si parlava di Quantum Supremacy, oggi i comunicati provenienti dalle aziende impegnate sul campo, come IBM, Google ed Honywell, parlano di Quantum Utility. La sostituzione di un termine dal vago sapore fantascientifico con un termine molto più pragmatico, quasi da informatica anni ’90, è un segnale significativo che preannuncia la prossima grande rivoluzione.