l’analisi

Gestione etica dell’IA in azienda, i vantaggi di partire subito: ecco come fare



Indirizzo copiato

L’adozione di buone pratiche di gestione etica dell’IA non solo consente di ridurre l’esposizione al rischio, ma permette di realizzare applicazioni e servizi di qualità, migliorandone accuratezza e prestazioni. Ma da dove cominciare esattamente? I passi da fare, gli aspetti da considerare

Pubblicato il 18 lug 2023

Diego Ragazzi

Data Strategy Lead Cefriel



IA intelligenza artificiale ai generativa e copyright

Il clamoroso successo di ChatGPT ci ha messi di fronte al fatto che la tecnologia ha fatto passi da gigante, costringendoci a una rincorsa affannosa. Governi e comuni cittadini hanno scoperto all’improvviso di navigare in un mare ignoto, dove non è chiaro quale rotta convenga seguire. Comprensibilmente, tutto ciò ha rinfocolato timori che sembravano sopiti e ha riproposto con prepotenza i grandi temi etici legati allo sviluppo dell’intelligenza artificiale (IA).

In questo scenario, sarebbe un grave errore di valutazione da parte delle imprese ritenere l’etica dell’IA una questione astratta, un argomento di dibattito puramente filosofico. Le questioni etiche non solo avranno ricadute molto concrete in tutti i campi, ma già oggi bisogna cominciare ad attrezzarsi per non essere travolti dall’accelerazione impressionante a cui stiamo assistendo.

I rischi per le imprese

Una prima ragione molto evidente è data dal rischio normativo. In tutto il mondo il legislatore sta correndo ai ripari, cercando di arginare la marea montante. L’ultimo rapporto di Stanford sullo stato dell’IA (AI Index Report 2023) ha censito ben 37 progetti di legge riguardanti in qualche modo l’IA approvati nel 2022, contro appena 1 nel 2016. L’Europa in particolare ha appena approvato il testo della prima normativa transnazionale armonizzata a livello mondiale, l’AI Act.

Legato al rischio normativo è il rischio legale. Ovunque si registra una crescita di “incidenti” e controversie legate all’uso di sistemi di IA. Negli Stati Uniti, le cause legali sono cresciute di oltre 6 volte dal 2016, mentre il progetto AIAAIC (AI, Algorithmic, and Automation Incidents and Controversies) ha registrato un aumento del numero di incidenti legati a sistemi di IA pari a 26 volte negli ultimi 10 anni. L’aumento del numero di controversie va di pari passo con la penetrazione crescente dell’IA in tutti i settori.

E questo ci porta al terzo rischio per le imprese, molto attuale: la mancanza di consapevolezza. Il numero di sistemi e applicazioni che utilizzano tecniche di IA è molto ampio, e non è limitato ai cosiddetti “large language models”, i modelli linguistici di grandi dimensioni che fanno i titoli dei giornali in questi giorni.

A questo proposito vale la pena sottolineare che la definizione di IA nel testo della normativa europea è molto ampia, e comprende non solo le tecnologie di apprendimento automatico (machine learning), ma anche i sistemi esperti e persino alcuni approcci di tipo statistico. Molte imprese probabilmente hanno già diversi sistemi basati su IA in esercizio, e non è detto che ne siano sempre pienamente consapevoli. Un’indagine effettuata da McKinsey su circa 1500 imprese riporta che circa il 50% ha adottato almeno un sistema basato su IA all’anno negli ultimi 4 anni. Nello stesso lasso di tempo, il numero medio di funzionalità di IA adottate è raddoppiato (McKinsey, “The State of AI in 2022”). Questi numeri naturalmente escludono l’uso che i dipendenti dell’impresa possono fare, nel loro lavoro quotidiano, dei sistemi di IA pubblicamente disponibili, come appunto ChatGPT.

IA in azienda, la necessità di cominciare ad attrezzarsi

Da quanto detto appare evidente la necessità per le imprese di riportare al centro le questioni etiche legate allo sviluppo e all’utilizzo dei sistemi di IA. Ma da dove cominciare esattamente? La tecnologia è in rapidissima evoluzione, la normativa è fluida e frammentata, metodi e strumenti non sono ancora standard.

Aumentare la consapevolezza interna

Una prima risposta è semplice: occorre aumentare la consapevolezza interna. In fondo, il primo passo per risolvere qualunque problema è riconoscerlo come problema. È necessario comprendere almeno le principali sfide etiche poste dai sistemi di IA, quali imparzialità, equità, autonomia decisionale, responsabilità, trasparenza, sicurezza, benessere sociale. E per farlo è importante partire dalla cultura aziendale, favorendo la diversità nella gestione dei progetti di IA, che devono prevedere sempre più contaminazioni provenienti da persone di diversa estrazione ed esperienza, esperti di domini non tecnici che possono aiutare a identificare meglio le questioni etiche. Lavorare sulla cultura di fondo è importante anche per un altro motivo, legato ad una tematica affine e parzialmente sovrapposta alla questione etica, e cioè l’accettazione dell’IA da parte dei dipendenti e collaboratori dell’impresa.

Percorsi di formazione specifica possono aiutare. Le università si stanno attrezzando e iniziano a proporre corsi e seminari sull’etica dell’IA. Alcune, come Oxford, hanno creato interi dipartimenti dedicati al tema, riunendo diverse anime, dalla filosofia alla giurisprudenza alle scienze umane. Lezioni sull’etica dell’IA fanno ormai parte dei nostri programmi di formazione avanzata in Cefriel.

Mappare i casi d’uso, attuali e prevedibili

Un passo successivo consiste nel cominciare a mappare i casi d’uso, attuali e prevedibili, supportati da sistemi di IA, e fare una prima valutazione del “rischio etico”. Per le imprese che operano in Europa questo è un passo fondamentale, perché l’AI Act adotta precisamente una prospettiva basata sul rischio. Classificare le proprie applicazioni di IA secondo il corretto livello di rischio consente di comprendere quali requisiti normativi bisogna soddisfare. In particolare, è essenziale individuare le applicazioni a “rischio elevato”, che sono sottoposte a un complesso regime regolatorio. Notiamo a margine che l’AI Act considera a rischio elevato non solo applicazioni in contesti “safety-critical”, come ci possiamo aspettare, ma anche applicazioni all’apparenza più innocue, per esempio applicazioni per la valutazione degli studenti nel settore della formazione.

Quali aspetti considerare

L’approccio complessivo alla gestione etica dell’IA deve considerare tutto il ciclo di vita dei sistemi, dall’ideazione alla dismissione, passando attraverso le fasi di identificazione e se possibile rimozione dei “bias” presenti nei dati usati per l’addestramento, valutazione dei fattori di incertezza presenti nel modello di IA utilizzato, validazione dei risultati e monitoraggio in esercizio. Le leve su cui agire sono molteplici, e vanno coordinate in un piano di esecuzione unificato. Bisogna considerare aspetti organizzativi, di processo, tecnologici e di cultura aziendale.

Accenniamo di sfuggita all’importanza fondamentale dei dati anche in questo contesto. I sistemi di IA basati su approcci di machine learning sono in buona parte il risultato dei dati utilizzati per addestrarli e validarli. L’utilizzo di dati di scarsa qualità, polarizzati o scarsamente rappresentativi può portare a seri problemi in fase di esercizio. È quindi opportuno complementare le buone pratiche di gestione del dato, che dovrebbero essere già presenti in azienda, con tecniche specifiche che indirizzano i principali rischi etici. Oggi sono disponibili diversi strumenti per supportare analisi di questo tipo, ma richiedono ancora competenze specialistiche che, se non presenti internamente all’azienda, dovranno essere reperite all’esterno attraverso partner tecnologici fidati. Così come esistono strumenti e metodologie per migliorare la trasparenza e l’affidabilità dei modelli di IA. Vale la pena osservare che alcune di queste tecniche non solo possono mitigare il rischio etico, ma sono utili anche a migliorare la qualità delle applicazioni e dei servizi basati su IA. Ci sarà modo di approfondire alcuni di questi aspetti in articoli successivi.

Conclusioni

Un approccio etico allo sviluppo e all’utilizzo dei sistemi di IA in azienda non è più rimandabile. Il rischio normativo, legale e di immagine è già oggi elevato, e non potrà che crescere in futuro. L’adozione di buone pratiche di gestione etica dell’IA non solo consente di ridurre l’esposizione al rischio, ma permette di realizzare applicazioni e servizi di qualità, migliorandone accuratezza e prestazioni.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2