intelligenza artificiale

Integrare ChatGPT nei processi aziendali: come farlo in modo responsabile



Indirizzo copiato

L’integrazione dell’AI nei processi aziendali è un processo complesso e richiede una profonda comprensione del caso d’uso, un’infrastruttura solida, dati di alta qualità e una solida politica di gestione dei dati. Vediamo in che modo le aziende possono sviluppare con successo tool di AI per svolgere un’attività in modo più efficiente e semplice

Pubblicato il 7 lug 2023

Alec Conti

Founder e CRO di Intent

Marco Gervasi

Executive Director, Red Synergy Business Consulting



Prospettive dell'Occupazione Ocse 2023

Procede l’integrazione di ChatGPT nei processi aziendali perché consente di automatizzare il lavoro e migliorare la produttività.

L’AI generativa non solo può produrre nuovi contenuti in pochi secondi, risparmiando tempo e risorse, ma anche migliorare un’attività economica.

How To Build Your Own AI With ChatGPT API

Per esempio, i consumatori possono ora ricevere assistenza da parte di un segretario virtuale che li aiuterà negli acquisti, creando un allenamento e persino una dieta personalizzata.

Inoltre è possibile creare un tool usando ChatGPT in modo responsabile per la
propria azienda
. Una soluzione software che cioè aiuta a svolgere un’attività in modo più efficiente e semplice. Ecco i principali casi d’uso, le strategie dei Ceo e come sviluppare i tool, rendendoli responsabili e a norma.

L’integrazione responsabile di ChatGPT nei processi aziendali

I Ceo di azienda e i team dedicati dovranno prendere in esame alcuni fattori durante lo sviluppo di tool per integrare ChatGPT nei processi aziendali: cosa serve per
costruire i tool, quali sono i loro utilizzi, come si sviluppano e come si rendono responsabili e a norma.

Il potere dell’AI generativa

ChatGPT fa parte dell’AI generativa, un tipo di intelligenza artificiale in grado di creare immagini, video, audio, testo e modelli 3D. Lo fa, imparando i modelli dai dataset esistenti e utilizzando questa conoscenza per generare nuove risultati. Può imparare da qualsiasi database, incluso quello di un’azienda, permettendo di creare tool personalizzati per ogni attività.
Nel settore delle risorse umane, si stima che in media le persone cambieranno lavoro circa 6 o 7 volte nella loro carriera. Ogni volta che un’azienda ha bisogno di inserire nuove risorse, il processo raramente si riduce a un workshop di due ore che si conclude
con la consegna di un portatile. Spesso comporta una formazione personalizzata divisa per funzione, geografia e reparto. L’AI generativa può semplificare molti aspetti dell’inserimento tramite la loro automatizzazione, migliorando il processo in qualità di coach e compagno attraverso tutto il percorso di inserimento. Per esempio, con ChatGPT è possibile sviluppare uno strumento che, in meno di un minuto, possa riassumere un manuale di formazione di mille pagine in un documento interattivo con annesse domande e risposte.

Analogamente avviene con i seminari, i video ed i podcast già preparati dall’azienda. Dunque è possibile riprogettare e personalizzare un intero processo di inserimento in pochi minuti. ChatGPT potrebbe aiutare un dipartimento di risorse umane o aggiornare la forza lavoro su nuovi temi.

L’accesso alle API

Lo sviluppo di questi tool è il risultato di tre passaggi fondamentali. Nel novembre 2022, OpenAI ha lanciato ChatGPT, il chatbot capace di rispondere a qualsiasi quesito che venga posto da un umano. Circa un mese dopo, la stessa ha reso disponibili le sue API per consentire l’utilizzo di ChatGPT per qualsiasi tipo di applicazione. Infine, ad aprile, è stato lanciato ChatGPT4, consentendo agli sviluppatori di elaborare una maggiore quantità di dati, aprendo così le porte a soluzioni più avanzate basate su questo modello.

Ma come si applica tutto ciò anche solo ad un’azienda di poche persone? Con l’apertura delle API, ChatGPT ha consentito agli sviluppatori di sfruttare la sua capacità di elaborare una grande quantità di dati. Un data scientist può quindi “interrogare” automaticamente ChatGPT tutte le volte necessarie, utilizzando le risposte ottenute per generarne di nuove. Questo crea un circolo virtuoso di risposte e domande che alla fine producono un risultato pratico. In questo modo ChatGPT può estrarre informazioni da un database di proprietà di un’azienda e riassumerne i concetti chiave, proprio come discusso nell’esempio delle risorse umane.

Si provi ad immaginare se, anziché concentrarsi solo un manuale di formazione di 1000 pagine, permettessimo a ChatGPT di accedere all’intero database dell’azienda, compresi i sistemi di gestione, il CRM, gli archivi, le chat di assistenza dei clienti, le caselle di posta elettronica, ecc. Potremmo, ad esempio, progettare un tool che prepari automaticamente una presentazione aziendale o, ancora meglio, che compili un modulo.

Recentemente, ci è stato chiesto di aiutare a progettare uno strumento in cui un’azienda potesse valutare i requisiti e preparare un modulo di candidatura ad un bando in meno di 5 minuti. Attraverso l’analisi di documenti, che a volte supera le 100 pagine, il tool è in grado di leggere e riassumere i requisiti di candidatura in pochi secondi. Se l’azienda li soddisfa, il tool può quindi recuperare le informazioni dell’azienda da un database condiviso e compilare automaticamente il modulo di candidatura. Immaginate quanto tempo impiegherebbe una risorsa aziendale per leggere un documento di 100 pagine, riassumerlo, recuperare le informazioni e compilare il modulo?

Un altro esempio di tool può essere quello legato alla creazione di grafici partendo da un report descrittivo. Esistono infatti già applicazioni che permettono di estrarre informazioni da un data base e organizzarle in un grafico immediato da comprendere e facilmente condivisibile con colleghi e clienti. A livello tecnologico questi software interrogano le API di ChatGPT per fare sì che a un dato input, uno specifico output venga mostrato all’utente finale, senza che si debba scrivere il prompt o avere alcun tipo di competenza tecnica. Un altro tipo di tool è quello che risolve i problemi legati al customer care degli e-commerce.

Esistono dei software che integrati al proprio e-commerce estraggono le informazioni in tempo reale e sono in grado di interagire con gli utenti che in chat chiedono informazioni riguardo alla disponibilità di un prodotto, di una sua variante come taglia e colore di un capo. Questo tipo di tool rende obsoleti i tradizionali chatbot impostati manualmente con la logica predefinita di domanda-risposta. I software di chatbot costruiti con ChatGPT riescono infatti a rispondere autonomamente a qualsiasi domanda dell’utente la cui risposta sia interpretabile dai dati e ad aggiornare la risposta in tempo reale qualora ci fossero delle modifiche ai dati stessi del sito. La disponibilità di un prodotto, così come il prezzo sono dati dinamici che nei chatbot tradizionali vengono aggiornati manualmente.

Dalla curiosità al coinvolgimento: l’AI generativa non è una moda effimera

L’AI generativa non è un’altra moda passeggera. Scoperte eclatanti negli ultimi anni come blockchain, criptovalute, Web3 devono ancora raggiungere la vera adozione di massa.

L’AI non cambierà le nostre vite da un giorno all’altro. Secondo il Financial Times, “gli economisti affermano che un boom dell’intelligenza artificiale generativa ed i cambiamenti portati dalla pandemia daranno il via ad una nuova era di crescita della produttività nel mondo avanzato, anche se potrebbe volerci un decennio o più per
far sì che le economie ne traggano pienamente vantaggio
”.
Tuttavia, nel lungo termine, gli economisti ritengono che il boom degli investimenti nell’AI produrrà risultati convincenti. Secondo McKinsey, l’AI influenzerà non solo il modo in cui lavoriamo, ma influenzerà l’80% dei posti di lavoro, così come il nostro modo di vivere. In effetti, è accessibile a chiunque e la barriera d’ingresso è molto bassa.

Da una ricerca condotta da Udemy, una delle principali piattaforme di apprendimento
online, su 14.000 clienti commerciali a livello globale, emerge che il numero di minuti dedicati all’apprendimento di ChatGPT è aumentato del 4.419% tra il quarto trimestre (Q4) del 2022 e il primo trimestre (Q1) del 2023. Inoltre, sono stati aggiunti 470 nuovi corsi sull’AI generativa alla piattaforma.

L’AI non è dunque una moda passeggera e le opportunità sono reali. Questo è confermato anche dalla sua rapida diffusione.
Grazie alle sue capacità, in pochi mesi siamo passati dal “giocare” con ChatGPT alla creazione di strumenti concreti. Fino a tre mesi fa, infatti, le aziende si chiedevano ancora cosa fosse l’AI generativa, ora invece la stanno utilizzando per sviluppare applicazioni e siamo convinti che questo sia il momento giusto per iniziare a sperimentare l’AI.

Nello sviluppo di un tool, non c’è spazio per l’improvvisazione. Ci sono limiti oggettivi in termini di reperibilità delle risorse esperte in AI. Infatti, ci vuole più di ChatGPT e di un programmatore per creare un tool di successo. In secondo luogo, lo sviluppo dell’IA ha sollevato nuove domande sulla privacy e sulla sicurezza.
Ci sono quindi rischi reali che da affrontare e gestire. Infine, la strategia migliore è la velocità. Coloro che iniziano a cimentarsi ora per imparare come usare questi tool ne trarranno sicuramente un vantaggio strategico sempre più grande.

Chiunque può creare un tool

Creare uno tool con l’AI generativa è nello stesso tempo semplice e complicato. Semplice, perché non è necessario reinventare la ruota. A svolgere il lavoro principale sarà un modello di AI esistente.

Tuttavia è complicato: per creare un tool valido, non bisogna limitarsi a sperimentare. Chiunque può accedere a ChatGPT, invece l’accesso all’API non è sufficiente. Inoltre, un bravo programmatore, un bravo ingegnere di machine learning, non è sufficiente per partire.
Ciò che conta è l’integrazione dell’AI nei processi aziendali ovvero nell’attività di un’azienda. Il processo è complesso e richiede una profonda comprensione del caso d’uso, un’infrastruttura solida, l’accesso a dati di alta qualità ed una solida politica di gestione dei dati. Per questo motivo, affinché le aziende possano sviluppare con successo tool, è fondamentale creare un ambiente collaborativo.

Per esempio, quando l’azienda dovrà decidere se mantenere i suoi dati all’interno o
all’esterno dei propri firewall, questo avrà implicazioni sia tecniche che di protezione dei dati.
Pertanto, un ingegnere di machine learning e un avvocato specializzato in protezione dei dati dovrebbero far parte del team sin dall’inizio. In secondo luogo, le aziende dovranno capire come progettare i tool, poiché saranno gli utenti stessi, non i programmatori esperti di machine learning, che alla fine dovranno utilizzarli. Il team di sviluppo dovrà quindi includere programmatori esperti nei principi di user experience (UX) e product manager che comprendano il potenziale, così come i limiti, di questi tool.

Se guardiamo alle app di trascrizione video e audio in circolazione, ce ne sono svariate, ma sono poche quelle che è possibile integrare in azienda poiché hanno un uso specifico e rispettano le norme sulla proprietà intellettuale e sulla protezione dei dati.

L’interazione con gli utenti finali

Con tecnologie potenti come l’AI generativa, il rischio è quello di concentrarsi esclusivamente sulla tecnologia stessa e sulle sue capacità, trascurando l’interazione da parte degli utenti finali. Il lavoro di designer e programmatori di front-end possono
creare applicazioni user-friendly farà la differenza tra applicazioni potenti e quelle realmente utilizzabili.
Pertanto, quando un’azienda deciderà di sviluppare uno tool, si avvarrà di un ecosistema di competenze e attori che ne consentiranno la sua creazione. Il compromesso, tra la grandezza del team e il lavoro da esternalizzare, dipenderà anche dallla scelta di un’azienda di iniziare con un progetto grande o piccolo.

Bisogna concentrarsi sui risultati finali. Il team dovrà includere una risorsa che si occupi di strategia.

Il team ideale: le competenze per integrare ChatGPT nei processi aziendali

Sebbene modelli come ChatGPT siano dedicati a casi d’uso generici, richiederanno infatti un notevole affinamento per risolvere problemi più complessi. I tool di maggior successo si concentrano su compiti molto specifici e di nicchia.
In sintesi, il team ideale includerà un esperto di strategia, un designer UX/product, un ingegnere di machine learning, un esperto informatico e un avvocato specializzato nella protezione dei dati.
Tuttavia, se un’azienda è piccola ed il suo budget per la creazione di un prototipo è molto limitato, il team dovrà comprendere almeno un programmatore UX, un ingegnere di machine learning ed un solido consulente legale in materia di privacy. Dovranno lavorare all’unisono poiché tutti gli aspetti sono interconnessi.

Creare senza reinventare la ruota

L’accesso alle API non garantisce ad un’azienda la creazione di un tool fatto e finito, invece serve un quid extra. Tuttavia non esiste una risposta semplice e diretta a definire l’extra. Spesso, infatti, le aziende scopriranno che molte soluzioni sono
già a disposizione, avendo altri già lavorato sodo per noi. Ma l’azienda deve trovare quell’aggiunta che davvero le serve.
Lo sviluppo di un modello di intelligenza artificiale generativa richiede così tante
risorse che è fuori discussione ricrearne uno da zero.

Le aziende che vogliono utilizzare l’AI generativa hanno due possibilità:

  • utilizzare ChatGPT così com’è e senza funzioni extra particolari;
  • ottimizzarlo aggiungendo funzioni specifiche.

Per esempio, quando bisogna preparare una presentazione secondo uno stile specifico, si può demandare al tool di “imparare” come vengono scritti i titoli ed i sottotitoli di presentazioni simili, fornendogli quindi presentazioni precedenti e chiedendogli di scrivere titoli e sottotitoli appropriati per la nuova.
Quando si crea un tool con ChatGPT, occorre dunque identificare uno dei colli di bottiglia nell’attività aziendale. Bisogna mappare, per esempio, le attività
giornaliere più dispendiose in termini di tempo
. Estendendo il quesito a tutti i membri
dell’azienda coinvolti in tali attività, si otterrà un’ottima approssimazione su dove l’azienda deve iniziare ad intervenire.

Passo successivo per i data scientist

Il data scientist deve poi creare un prototipo con cui le persone potranno letteralmente giocarci. Tutti i passaggi che le persone seguiranno per svolgere un’attività specifica dovranno richiederanno la documentazione. Infatti, la capacità di ChatGPT risiede
nella sua adattabilità. È quindi possibile chiedere al chatbot conversazionale di filtrare le informazioni non pertinenti o considerare parametri che riflettano il modo in cui si svolge quell’attività.
È molto importante tenere a mente che il tool avrà probabilmente due caratteristiche. Una è quel quid extra, ovvero la nuova parte che l’ingegnere di machine learning ed il team svilupperanno (per esempio la funzione di filtraggio attraverso un questionario di un’offerta di appalto e il suo confronto con i diversi database di informazioni dell’azienda). La seconda sarà l’integrazione del quid con ciò che è già stato inventato. Allo stato attuale ChatGPT dispone già di molte funzioni, destinate a crescere. Un prototipo di successo potenzierà queste funzioni già esistenti unendo al modello di AI generativa qualcosa di molto specifico e unico. Infine, ottenuti buoni risultati, sarà necessario aggiungere l’esperienza dell’utente per consentire ai colleghi di
interagire ancora meglio con il tool.

Come progettare il tool

Dopo aver deciso il tool da sviluppare, bisogna capire quali figure professionali servono e quale quid extra serva per personalizzare il prodotto. L’azienda dovrà poi focalizzarsi
sull’ingegnerizzazione.
Quando il CEO discute dell’integrazione dell’AI nella propria azienda, i data scientist devono capire:

  • lo scopo del tool, i casi d’uso (come per esempio l’automatizzazione del processo di nuovo inserimento di una risorsa);
  • quali dati sono necessari (come per esempio i manuali, i video, report aziendali, corsi esistenti);
  • l’output previsto (quale per esempio come creare un tutor per i nuovi dipendenti durante la fase di inserimento).

L’indagine è cruciale per i data scientist in quanto l’esito influisce significativamente su vari parametri del modello: il costo, il time to market e l’infrastruttura
tecnologica necessaria
.
I casi d’uso basati sull’AI di solito rientrano in due categorie: quelli che richiedono
l’apprendimento del modello e quelli che non
lo ne hanno bisogno.

Quando parliamo di apprendimento, intendiamo l’utilizzo dei dati specifici per insegnare al modello di AI come e cosa deve prevedere. Se il tool non richiede apprendimento, è probabile che i data scientist utilizzino modelli pre-addestrati che possono gestire molti casi d’uso senza doverli riaddestrare su argomenti specifici. In quest’ultimo scenario, il team di ingegneria si concentrerà principalmente sulla configurazione dell’infrastruttura IT per rendere il modello di ChtGPT disponibile per i propri processi aziendali ed clienti.

Numerosi casi d’uso rientrano in questa categoria, come l’utilizzo di un modello pre-addestrato per classificare le recensioni dei propri clienti o classificare se le attività
sull’eCommerce aziendale suggeriscono che l’utente sia veramente interessato all’acquisto di alcuni prodotti o meno.

Tuttavia, quando si costruisce un tool utilizzando ChatGPT, il team di ingegneria dipenderà dalle sue caratteristiche e prestazioni (che migliorano nel tempo),
eliminando così la necessità di configurare e gestire l’infrastruttura.
Al contrario, se il caso d’uso prevede l’apprendimento di un modello, il team di ingegneria deciderà se adottare l’addestramento con o senza supervisione, o l’addestramento rinforzato.

Addestramento: rinforzato e con o senza supervisione

Quest’ultimo è popolare nella ricerca accademica, invece l’addestramento (con o senza supervisione) è diffuso nelle applicazioni industriali. L’apprendimento con supervisione prevede che gli algoritmi imparino dai dati etichettati per effettuare previsioni o classificazioni accurate, come la
previsione del churn dei clienti e la previsione delle vendite, mentre l’apprendimento non supervisionato impiega algoritmi per analizzare dati non etichettati al fine di individuare modelli, relazioni e strutture nascoste, spesso necessari in molti casi d’uso, come la segmentazione dei clienti.

Il ruolo dei dati

Poiché i dati sono la fonte di conoscenza del modello, i dati devono essere di alta qualità e in quantità sufficiente per adattarsi alla complessità del caso d’uso. Qui entrano in gioco una politica di gestione dei dati e i principi etici. Per esempio, se l’azienda vuole individuare i clienti che stanno per abbandonare il suo business, dovrà condividere con i data scientist i dati di sua proprietà (specifici del proprio business), in cui qualcuno ha etichettato manualmente i clienti che se ne sono andati. Inoltre,
molto probabilmente i data scientist avranno bisogno dei modelli di attività degli utenti (per esempio, con quale frequenza, quanto e cosa hanno acquistato), poiché aiuteranno ad identificare modelli e regole che influenzano la previsione. I dettagli tecnici sono, tuttavia, solo una parte dell’equazione. Infatti, la cultura di come viene applicata l’AI gioca anch’essa un ruolo altrettanto importante.

Le dimensioni del tool di ChatGPT da integrare nei processi aziendali

Nonostante l’aura magica dell’AI, in determinate aree può fare più di noi umani e molto
più velocemente, alla fine è uno strumento focalizzato sulla matematica e la statistica. Ciò significa che per sviluppare un prodotto, un’azienda dovrà operare secondo una costante sperimentazione.

Le aziende dovranno “giocare” prima con ChatGPT, imparando come funziona e come utilizzarlo. Infatti, molto spesso i data scientist devono scegliere tra l’utilizzo del migliore, più grande e più promettente modello, che richiede spesso un po’ più di sforzo ingegneristico, o sceglierne uno più piccolo e pratico.
Senza semplificazioni eccessive, l’utilizzo di modelli più piccoli garantisce spesso le
prestazioni più elevate, a condizione che i dati lo supportino. Pertanto, optare per soluzioni più semplici e gestibili, più facili da adattare e ri-ingegnerizzare, può mitigare i rischi associati alla ri-ingegnerizzazione della soluzione di AI.

Per esempio, consideriamo una piccola attività di eCommerce che desidera implementare un motore di suggerimenti per i prodotti ai suoi clienti (come in Amazon). Il team di ingegneria può scegliere se utilizzare un modello complesso per offrire suggerimenti altamente personalizzati o utilizzare un approccio più semplice usando un modello esistente e sviluppare uno tool più veloce e più facile da comunicare ai responsabili del prodotto.

Il primo è sicuramente più promettente, il secondo è associato a un rischio inferiore perché è più veloce da sviluppare, richiede un investimento inferiore (dati necessari per l’addestramento, infrastruttura IT eccetera) ed è più facile da monitorare. La seconda opzione è dunque il percorso consigliato per l’avvio, mentre la prima migliora una soluzione già funzionante.

Rischi e benefici

L’AI generativa potrà automatizzare e potenziare l’attività di un’azienda, ma comporta anche rischi importanti. Le aziende hanno bisogno di dati per creare un tool. Quando un CEO decide se sviluppare un nuovo strumento, le domande sulla sicurezza dei dati sono le più comuni, per capire se i dati di un’azienda non alimentino l’intelligenza stessa di ChatGPT, permettendo ad altri di beneficiarne.

In effetti, l’AI generativa amplifica enormemente il tema del rischio, sia per le aziende che per gli utenti.
In uno strumento basato sull’AI, bisogna inoltre stabilire di chi è la proprietà intellettuale di ciò che ne viene estratto. Queste sono questioni ancora aperte.
L’AI Act, la proposta legislativa presentata dalla Commissione europea il 21 aprile 2021 e approvata lo scorso 14 giugno, fornisce linee guida su come sviluppare uno strumento di IA responsabile e sicuro. Entrato nella fase finale, l’AI Act dovrebbe essere adottata entro la fine dell’anno o inizio del 2024.
Dunque, l’AI Act offrirà alle aziende un quadro per aiutarle a sviluppare, implementare e utilizzare tecnologie di AI che siano sicure, trasparenti e affidabili, nel rispetto dei diritti e dei valori fondamentali. La legge classifica i sistemi di AI in quattro livelli di rischio in base al loro potenziale impatto sulla salute, la sicurezza e i diritti fondamentali. I livelli di rischio determinano i requisiti e gli obblighi imposti agli sviluppatori, ai fornitori e agli utenti dei sistemi di AI. Quindi, è prevista una tutela che proteggerà le persone dallo sviluppo di tool rischiosi.

Le criticità dell’AI Act

L’AI Act non si applica all’IA generativa perché è stato concepito prima dell’arrivo di ChatGPT. Secondo la logica attuale, la categorizzazione di un sistema di AI, come
ad alto o basso rischio, dipende dall’uso che il fornitore ne fa. Ovvero ciò che OpenAI intende fare con ChatGPT. I sistemi destinati a essere utilizzati in una delle aree specificate nell’allegato III del regolamento sono considerati ad alto rischio e vietati. Tuttavia, in tutte le altre situazioni, i sistemi di AI rientrano nella categoria di basso rischio.
Non è OpenAI, ma l’azienda che utilizza ChatGPT a determinare l’uso del tool e se questo uso rientra nella categoria a basso o alto rischio. In altre parole, un’azienda potrebbe utilizzare ChatGPT mettendo le persone a rischio. Di conseguenza, alcuni dei rischi per gli utenti ed i dipendenti derivano dal modo in cui le aziende decideranno di utilizzare questi sistemi.

Per esempio, nello sviluppo di un tool per l’inserimento di una nuova risorsa in azienda, questa potrebbe utilizzare il tool anche per valutare il candidato. Bisogna allora capire cosa succede allora se lo strumento “ha allucinazioni” e valuta erroneamente il candidato, cosa succede se il candidato è ancora in prova e come dovrebbe essere strutturato il tool.

OpenAI e ChatGPT non avranno nulla a che fare con questa decisione. Tuttavia l’AI Act non stabilisce obblighi per le aziende che costruiscono strumenti basati sull’IA generativa. Le aziende dovranno alla fine decidere quanto responsabili vogliono essere e quanto sicuri dovranno essere i loro tool. La responsabilità e la sicurezza dipenderanno dall’etica stessa dell’azienda. Ecco perché è molto importante che i team di sviluppo dell’IA comprendano anche esperti in protezione dei dati per dirimere questioni ancora in una zona grigia.

A norma, ma innovativi

Vediamo i principali problemi legali per lo sviluppo di un tool di intelligenza artificiale. Il primo riguarda i dati. Le aziende dovranno capire quali dati possono essere inseriti
nel modello e quali no
. Specialmente quando si tratta di dati che identificano una persona. Ogni modello è valido solo se lo sono i dati che vengono utilizzati per addestrarlo.

Bisogna scegliere quali dati utilizzare e garantire che il modello rispetti i diritti di privacy dell’utente. Sono questi i primi passi di una strategia per essere a norma.
Soprattutto quando si sceglie dove collocare il tool. Se si trova al di fuori dei firewall, i dati saranno trasferiti all’esterno dell’azienda. Se sarà all’interno del firewall, i dati saranno mantenuti internamente. Ogni tipo comporta un diverso livello di rischio per i dati e la proprietà intellettuale.

Ancora una volta, un professionista della privacy e un ingegnere di machine learning dovranno lavorare a stretto contatto, così come l’ecosistema di partner con cui l’azienda collabora.
Il secondo aspetto legale riguarderà la proprietà intellettuale. Quando un’azienda
sviluppa un tool basato su IA generativa, bisogna capire alla fine a chi spetterà la proprietà intellettuale per essere a norma.

Dunque è importante capire che come e quanto voler essere a norma influenzerà fortemente il modello di business e il modello di machine learning. Per esempio, se un’azienda gestisce dati sensibili, potrebbe scegliere di mantenere il modello all’interno dei propri firewall e iniziare con un tool di piccole dimensioni anziché uno grande.
Per affrontare la sicurezza, potrebbe inoltre scegliere di anonimizzare i soggetti i cui dati sono trattati. Le decisioni dovranno essere coordinate tra i team legali, commerciali e IT.
L’aspetto più importante nello sviluppo di un tool responsabile e sicuro è chiedersi che importanza abbia essere a norma. Come abbiamo visto in precedenza, l’AI è ancora in una zona grigia dove si trovano le opportunità. Qui risuona la famosa citazione della Silicon Valley: “Chiedi perdono, ma non chiedere il permesso“. Il Ceo di Meta Mark Zuckerberg ha detto: “Rompete tutto e fate rumore“. Tuttavia, bisogna capire cosa significa rompere gli schemi quando si sviluppa un tool di intelligenza
artificiale, se ne vale la pena ed è sicuro farlo.

I vincoli che ostacolano l’innovazione

Spesso essere a norma sin da subito può diventare un vincolo che inibisce l’innovazione. Ma la domanda chiave deve essere come si può essere a norma ed allo stesso tempo innovativi.

Quando si consiglia alle aziende di conformarsi alle leggi, spesso la risposta è che non vale la pena mettersi a norma quando tutti gli altri operano in un’area grigia. Alla fine
siamo tutti sperimentatori di qualcosa di nuovo.

Sono situazioni in cui è difficile dire cosa sia giusto e cosa sia sbagliato. Un consiglio errato potrebbe influenzare fortemente il modello di business di un nuovo tool. Quindi, è difficile stabilire se conviene a un’azienda essere a norma sin da subito specialmente in un campo così nuovo e caotico come l’AI.
Osservando gli strumenti di intelligenza artificiale sul mercato, in una fase ancora così precoce, non è raro incontrare aziende che, anche senza saperlo, violano sia i diritti di
proprietà intellettuale che di privacy
. Alcune di queste aziende hanno addirittura finanziamenti da parte di investitori di enorme successo.

Ma essere a norma è un atto di responsabilità di per sé. Non solo è utile per garantire la sicurezza, ma è anche uno strumento strategico nel lungo periodo.
Ogni volta che un’azienda cercherà di creare partnership o attrarre investitori, alla fine dovrà dire se ciò che fa è a norma ed è sostenibile. Nel caso dell’intelligenza artificiale, diventerà una domanda ancora più pressante e, alla fine, un punto di rottura nel prossimo futuro.
L’AI ha la tendenza a muoversi molto velocemente e uno strumento di intelligenza artificiale, ben pensato e progettato, anche dal punto di vista del suo essere a norma, avrà maggiori possibilità di sopravvivere nel lungo periodo rispetto a quelli non strutturati.

Un esempio è quello che sta accadendo ad Open AI. Dopo che le autorità italiane ne hanno bloccato l’uso in Italia, altri Paesi hanno iniziato a metterlo in discussione, a causa della mancata tutela della privacy e della proprietà intellettuale.

Conclusioni

Ci sono due modi per sviluppare uno tool. Il primo è di non fare nulla sino al momento in cui la situazione non sarà totalmente chiara e disciplinata. Ma potrebbe però rivelarsi tardivo.

L’altra direzione, quella che abbiamo sperimentato, è di assemblare un team multidisciplinare, con esperti in risorse umane, tecnologia, legale, rischi e strategia e decidere cosa sia giusto fare considerando ciò che sappiamo oggi e come possiamo migliorare e imparare dai nostri errori.
Lo sviluppo di strumenti di intelligenza artificiale generativa è un processo iterativo che coinvolgerà le tre aree di cui abbiamo discusso. Errori si verificheranno. Ci saranno a volte più domande che risposte. Alla fine, l’AI è per definizione uno strumento probabilistico, una scienza inesatta. Non solo i tool dovranno apprendere, ma le organizzazioni stesse dovranno passare attraverso lo stesso “apprendimento” per imparare dai propri errori e per far si che le loro attività, compresa l’integrazione di ChatGPT nei processi aziendali, rimanga sostenibile.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3