Intelligenza artificiale

Compliance proattiva all’IA: perché è una strategia vincente per le aziende



Indirizzo copiato

La compliance aziendale nell’era dell’AI non significa solo aderire alle normative come l’AI Act, ma mira a un utilizzo responsabile dell’AI, bilanciando innovazione e diritti. Le aziende devono adottare un approccio proattivo, non reattivo, verificando l’affidabilità e la trasparenza dell’AI. Questo non solo previene rischi legali, ma costruisce anche fiducia e competitività nel mercato

Pubblicato il 10 apr 2024

Alfredo Esposito

Studio Legale Difesa d’Autore



intelligenza artificiale ai act

Quando si discute di compliance aziendale in relazione all’intelligenza artificiale (AI), il riferimento non si limita esclusivamente alle normative emergenti come l’AI Act, o alle singole integrazioni legislative che gli stati membri in Europa intendono adottare per amalgamare progresso tecnologico e tutela sociale. Questa cornice normativa si propone di indirizzare le aziende verso un utilizzo responsabile e etico dell’AI, cercando di bilanciare l’innovazione tecnologica con la protezione dei diritti individuali e collettivi.

La “regola aurea” della responsabilità nell’uso dell’AI mette in luce la necessità di affrontare proattivamente le sfide poste dalla generative AI, anticipando possibili problemi prima che si verifichino.

Questo approccio proattivo alla compliance è essenziale per rispettare le normative europee e italiane a tutela del consumatore, garantendo al contempo un utilizzo etico e responsabile dell’intelligenza artificiale.

L’importanza della compliance per le aziende

Tuttavia, il concetto di compliance viene spesso percepito dalle aziende non come un’opportunità per elevare l’organizzazione verso un’eccellenza sistemica, ma piuttosto come un onere finanziario da minimizzare quanto più possibile.
Questa percezione sfida, anche in ambiti differenti, come quello relativo alla privacy, l’intento delle normative di stimolare un progresso tecnologico responsabile e sostenibile, evidenziando una discrepanza tra le aspettative legislative e la realtà operativa delle imprese, che potrebbe rallentare l’adozione di pratiche di compliance proattive e orientate al futuro.
Tuttavia, l’adeguamento aziendale alle normative generali assume un’importanza critica, specialmente in relazione all’adozione dell’intelligenza artificiale generativa nelle operazioni quotidiane.
Questa esigenza va oltre il mero rispetto delle norme specifiche, estendendosi ad altri settori che necessitano di una valutazione e implementazione attente per evitare conseguenze nefaste per l’azienda.

Il caso di Air Canada: un esempio da non seguire

Un esempio notevole del modo in cui le aziende affrontano (non benissimo) queste sfide globalmente è il caso di Air Canada. La compagnia aerea di bandiera canadese ha introdotto un chatbot AI sul proprio sito web per offrire una comunicazione più personalizzata e professionale con i clienti.
Un passeggero ha però deciso di citare Air Canada a causa di una risposta errata fornita dal bot.
Il cliente  ha infatti affermato di essere stato tratto in inganno riguardo alle normative di Air Canada sulle tariffe agevolate per lutto (“bereavement fares”), a causa di una risposta errata fornita dal chatbot della compagnia, rivelatasi incongruente con le politiche ufficiali dell’azienda. Di conseguenza, la competente Corte canadese per (parificabile a un nostro Giudice di Pace)ha riconosciuto la legittimità delle sue pretese, condannando la compagnia aerea al pagamento di 812,02 dollari per danni e spese legali.

Brevemente, dopo la morte di una parente, il passeggero si era rivolto al chatbot di Air Canada presente sul sito web aziendale per informarsi sui voli, ricevendo indicazioni secondo le quali sarebbe stato possibile richiedere le tariffe scontate per chi viaggiava a seguito di lutti familiari anche retroattivamente. Tale informazione è stata successivamente presentata al Tribunale attraverso uno screenshot della conversazione con il chatbot.

L’aspetto cruciale della vicenda riguarda il fatto che fosse altresì presente un collegamento ipertestuale alla pagina del sito web della compagnia aerea dedicata alle politiche su tali tipologie di tariffe. Tale pagina, però, contraddiceva quanto affermato dal chatbot, specificando: “Si informa che la nostra politica per i viaggi in caso di lutto non prevede il rimborso per viaggi già effettuati.

Nonostante il link fornito nella risposta del chatbot offrisse al passeggero la possibilità di verificare le informazioni ricevute, il tribunale ha evidenziato come Air Canada non sia riuscita a giustificare la ragione per cui il passeggero avrebbe dovuto dubitare della veridicità delle informazioni fornite dal proprio sito web tramite il chatbot.

Il passeggero, Mr. Moffet,venuto a conoscenza tramite il personale di Air Canada che la compagnia non accettava richieste retroattive per questa tipologia di tariffe, ha comunque proceduto con la richiesta di rimborso, motivando la sua azione con il fatto di aver “fatto affidamento sul consiglio del chatbot“, come riportato dalla documentazione prodotta. Di fronte al reclamo del passeggero, Air Canada ha proposto un voucher di volo del valore di 200 dollari come risarcimento, che il passeggero ha tuttavia rifiutato.

Generative AI: responsabilità e sfide per le aziende

Questo chatbot, giova ricordare, generava risposta tramite un modello di intelligenza artificiale, assomigliando in questo ai vari GPT personalizzabili che, mediante API o integrazioni, molte aziende stanno implementando sui propri siti web.
Allargando la questione, che conseguenze potrebbe subire oggi un’azienda se un chatbot o un applicativo AI, magari integrato tramite API su un semplice sito web, o sviluppato con tool quali myGPT, diffonde informazioni errate al pubblico, ad esempio sul costo di un biglietto, sugli orari dei voli o su altre informazioni rilevanti per il consumatore o l’utenza in generale?

Nonostante in molti ritengano la legislazione europea e gli interventi delle Autorità nazionali come eccessivi elementi di freno nella corsa allo sviluppo di modelli di Generative AI, l’Unione Europea si sta dimostrando non solo all’avanguardia nella regolamentazione delle piattaforme digitali ma anche anticipatrice di molti problemi che stiamo iniziando a vedere globalmente. In questo contesto, un caso che coinvolge informazioni fuorvianti fornite da un sistema automatizzato come un chatbot cadrebbe sotto il controllo del Digital Services Act (DSA) e della Direttiva Europea sui Diritti dei Consumatori.

La situazione in Italia

In Italia, la situazione potrebbe essere ulteriormente complicata dalle rigorose normative del paese su pubblicità e protezione del consumatore. Il Codice del Consumo italiano è particolarmente severo in materia di pratiche commerciali sleali e pubblicità ingannevole, e l’eccessiva disinvoltura delle aziende nell’implementazione selvaggia dei sistemi di Gen-AI potrebbe comportare conseguenze notevoli. Data questa cornice legale, un tribunale italiano si concentrerebbe probabilmente sulla misura in cui Air Canada (o qualsiasi altra azienda) ha implementato misure per verificare l’accuratezza delle informazioni fornite dai suoi sistemi automatizzati.

Compliance proattiva: anticipare le sfide poste dall’AI

L’osservazione sollevata evidenzia un aspetto cruciale della compliance nell’era dell’intelligenza artificiale (AI): l’importanza di adottare un approccio proattivo piuttosto che reattivo. Questo significa che le aziende non dovrebbero semplicemente aspettare che le normative specifiche sull’AI siano definitivamente stabilite per iniziare a integrare pratiche di compliance, ma dovrebbero invece anticipare e affrontare le sfide poste dall’utilizzo dell’AI nelle loro operazioni quotidiane, considerando che buona parte degli applicativi cadono in sfere di interesse in cui le normative sono già presenti.

La “regola aurea” relativa alla responsabilità delle aziende nell’utilizzo dell’AI pare delinearsi: se un’impresa (ivi considerando anche le piccole agenzie di comunicazione o chi gravità nel mondo della libera professione ) utilizza o propone output generati dall’intelligenza artificiale alla propria clientela, tale impresa assume la responsabilità per gli output generati, a meno che non possa dimostrare di aver messo in campo ogni rimedio possibile. Questo implica un impegno costante nel verificare l’affidabilità, l’accuratezza e la sicurezza dei sistemi di AI impiegati, oltre alla trasparenza nei confronti degli utenti circa l’utilizzo di tali tecnologie.

Conclusioni

Affrontare proattivamente questi aspetti non solo aiuta a prevenire potenziali rischi legali o richieste risarcitorie, ma contribuisce anche a costruire fiducia con la clientela e il pubblico, rafforzando la reputazione aziendale e competitività nel mercato.

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3