rischi e contromisure

IA generativa: come usarla al lavoro in sicurezza



Indirizzo copiato

Adottare gli strumenti di IA generativa nelle attività lavorative può comportare dei rischi. Ecco perché e quali sono le modalità da seguire per sfruttarne i vantaggi senza incorrere in passi falsi

Pubblicato il 6 lug 2023

Carlo Majer

co-managing Partner di Littler Italia

Edgardo Ratti

Co-Managing Partner dello studio legale Littler



zero trust, Cyber,Security,Internet,And,Networking,Concept.,Information,Security,And,Encryption,
zero trust

Poiché gli strumenti di intelligenza artificiale stanno cambiando il modo in cui le imprese conducono il proprio business – promettendo di semplificare i processi HR, aumentare la produttività dei dipendenti, migliorare i servizi ai clienti e altro ancora – è necessario e urgente adottare un approccio proattivo per determinare come integrare al meglio queste forme di apprendimento automatico nelle attività.

Come farlo al meglio?

ChatGPT, un collega di lavoro ancora poco affidabile

La continua proliferazione delle capacità dell’intelligenza artificiale e dei relativi utilizzi aziendali obbliga i datori di lavoro ad essere proattivi e attenti nell’integrazione di questi strumenti e sistemi all’interno delle proprie attività di business.

Questa accuratezza dovrebbe andare oltre la fase iniziale di implementazione degli strumenti di IA, includendo il monitoraggio e la valutazione costanti per garantire la conformità e l’efficacia.

Questo perché sebbene nel marzo del 2023 OpenAI abbia rilasciato ChatGPT-4, che ha l’82% in meno di probabilità di rispondere a richieste di contenuti non consentiti e il 40% in più di probabilità di produrre risposte concrete, permangono tuttavia perplessità sull’accuratezza e l’affidabilità di questi programmi e non senza ragioni.

Dal momento che i contenuti di Internet sono pieni di contenuti errati e ingannevoli, GPT si affida spesso a fonti dubbie e a materiale discutibile, spesso errato. Ancora più preoccupante è il fatto che queste piattaforme spesso sembrano inventare completamente fatti e fonti, ma in modo autorevole, inducendo gli utenti a ritenere che le risposte debbano essere corrette. Ancora più allarmante è il fatto che alcune interazioni dell’IA generativa con il modello pre-GPT-4 sono state descritte come sostanzialmente “squilibrate”.

I potenziali rischi legali

L’uso dell’IA generativa, dunque, potrebbe comportare potenziali rischi legali associati che, più in generale, evidenziano l’importanza di comprendere il panorama normativo che ruota attorno alla tecnologia per garantire che il suo utilizzo sia conforme alle leggi e ai regolamenti applicabili. Pertanto, quando si ricorre all’AI generativa, diventa fondamentale avvalersi della consulenza di esperti legali e implementare misure appropriate per mitigare i rischi legali.

Come adottare l’IA al lavoro senza rischi

Come integrare allora, questi strumenti nelle attività lavorative senza correre rischi?

Ecco una top list stilata dal nostro team di Knowledge Management:

  • Identificare il “caso d’uso” e comprendere la soluzione di intelligenza artificiale generativa. Le organizzazioni possono utilizzare l’intelligenza artificiale generativa in molti modi diversi. Prima ancora che le parti interessate possano determinare i requisiti di conformità legale, valutare il rischio e implementare misure di mitigazione del rischio, dovrebbero capire esattamente come verrà utilizzata la tecnologia e lo scopo previsto all’interno delle loro organizzazioni.
  • Condurre un livello adeguato di testing. A seconda del caso d’uso desiderato e del corrispondente livello di rischio, le aziende dovrebbero avviare una fase di testing appropriata degli strumenti di intelligenza artificiale generativa volta a determinare pregiudizi, accuratezza, falsità e altri fattori che ne potrebbero derivare e che potrebbero influire sull’usabilità degli output. A tale scopo esistono diverse misure precauzionali per ridurre il potenziale pregiudizio nei contenuti generativi dell’AI.
  • Stabilire linee guida generali per l’uso consentito degli strumenti di AI generativa. Una volta identificato il “caso d’uso”, è necessario stabilire alcune linee guida generali per l’uso degli strumenti, come:
    • le categorie di dipendenti autorizzati a utilizzare gli strumenti,
    • la tipologia di informazioni che possono essere caricate,
    • il livello di processo decisionale che può essere basato sull’output (soggetto a revisione umana),
    • il modo di comunicare l’output e il modo in cui viene descritto per gli utenti,
    • le informazioni sulla governance e la supervisione degli strumenti generativi di AI o del sistema.
  • Indirizzare la conformità con qualsiasi requisito legale applicabile. Anche se le normative che regolamentano l’AI sono ancora in una fase nascente, si stanno sviluppando rapidamente. Per questo motivo è opportuno verificare gli sviluppi recenti prima di introdurre qualsiasi strumento di intelligenza artificiale generativa per un uso interno o esterno significativo. Le organizzazioni dovrebbero considerare la potenziale applicabilità di leggi non specificamente dirette all’AI, come le leggi anti-discriminazione, quelle generali sulla privacy dei dati, e le normative che regolano la raccolta e l’uso di dati biometrici. Per i casi d’uso più rischiosi è auspicabile avvalersi del coinvolgimento di esperti interni o esterni con una conoscenza più aggiornata dei requisiti legali potenzialmente applicabili e delle loro implicazioni.
  • Implementare garanzie contrattuali per le informazioni protette caricate sullo strumento generativo. Il caricamento di informazioni sullo strumento di intelligenza artificiale generativa di una terza parte potrebbe comportare una divulgazione non protetta di informazioni protette, informazioni commerciali riservate o soggette a un accordo di non divulgazione. Le imprese dovrebbero valutare attentamente i tipi di informazioni e dati che consentiranno di caricare su strumenti di terze parti e le protezioni contrattuali che dovrebbero essere incluse negli accordi che potrebbero essere legalmente richiesti o altrimenti necessari per proteggere tali informazioni dopo che sono state caricate.
  • Educare gli utenti autorizzati sui rischi rilevanti. Gli utenti autorizzati dovrebbero comprendere non solo i requisiti di conformità legale relativi al loro utilizzo di strumenti di intelligenza artificiale generativa ma anche i rischi intrinseci nella tecnologia. In particolare, i datori di lavoro dovrebbero educare i dipendenti sul potenziale di risultati apparentemente verosimili, ma imprecisi o talvolta addirittura completamente falsi.
  • Formare gli utenti. A seconda dei casi d’uso generativi di intelligenza artificiale o apprendimento automatico, è necessario sviluppare una formazione continua in merito al piano di utilizzo dello strumento o del sistema di intelligenza artificiale, alle aspettative sull’uso dei dipendenti e alle politiche correlate.
  • Richiedere conferma degli output. Data la possibilità di output imprecisi o falsi, gli utenti autorizzati dovrebbero essere tenuti a testare tutti gli output prima di un successivo utilizzo. Questo test potrebbe includere, ad esempio, di richiedere allo strumento di AI generativa le fonti a cui ha attinto per poi controllarle, oppure cercarne di più recenti o alternative o cercare di replicare i risultati con input simili ma diversi. Esistono diverse misure di sicurezza che gli utenti possono implementare per garantire l’accuratezza del contenuto:
    • Verifica dei fatti ovvero il processo di verifica dell’accuratezza delle informazioni di un contenuto.
    • Peer review, il processo in cui esperti in un particolare campo esaminano un contenuto per garantirne l’accuratezza e la validità.
    • Supervisione da parte di editori che esaminano e modificano i contenuti per garantire accuratezza, coerenza e chiarezza, evitare il plagio e per assicurare che il contenuto aderisca alle linee guida etiche e legali.
    • Controllo di qualità per garantire che il contenuto soddisfi gli standard di accuratezza e affidabilità aziendali. Ciò può comportare la revisione del contenuto prima che venga pubblicato, la conduzione di revisioni post-pubblicazione e il monitoraggio del feedback degli utenti.
    • Correzioni e ritrattazioni tempestive in caso di errori, imprecisioni e contenuti fuorvianti nel contenuto.
  • Adeguata trasparenza. Qualsiasi dipendente che condivida l’output di uno strumento di AI generativa per uno scopo aziendale dovrebbe essere tenuto a dichiarare se il risultato finale condiviso è stato creato, in tutto o in parte, da uno strumento di AI generativa. Questa trasparenza consentirà ai destinatari di scegliere il livello di controllo dei risultati più appropriato. Allo stesso modo, se un’organizzazione dovesse utilizzare i risultati dell’AI generativa come base, in tutto o in parte, per una decisione rilevante su un individuo (assunzione, licenziamento o provvedimento disciplinare), in questo contesto, il ruolo dell’AI dovrebbe essere reso noto.
  • Valutare e rivalutare i rischi. Dopo le valutazioni iniziali del rischio e aver deciso le relative azioni sul trattamento del rischio, un’azienda dovrà rivalutarle periodicamente. Gli usi di un’azienda, infatti, potrebbero essersi stati ampliati, i fornitori potrebbero aver rilasciato nuove funzionalità o aggiornato i loro modelli. Quando ciò si verifica, i rischi dovranno essere rivalutati per capire come sono cambiati i rischi e per garantire che le precedenti decisioni di trattamento del rischio siano ancora appropriate.
  • Coinvolgere le parti interessate. L’utilizzo dell’AI generativa o di strumenti di apprendimento automatico nel processo di assunzione, richiede il coinvolgimento di tutti i dipartimenti aziendali interessati: legal, risorse umane, IT e sicurezza delle informazioni/dati.
  • Assicurare messaggi condivisi e chiari. Infine, i datori di lavoro dovrebbero anche assicurarsi di essere chiari e ponderati nelle loro comunicazioni su come l’organizzazione utilizza l’AI, sia internamente alla propria forza lavoro, sia esternamente al pubblico, includendo dichiarazioni sull’uso previsto dello strumento o del sistema di AI generativa, il loro impegno per un uso responsabile, le divulgazioni sui tipi di dati raccolti e archiviati e le informazioni sulle politiche di intelligenza artificiale dell’organizzazione.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati