normativa

AI generativa, ecco i rischi dell’uso scorretto dei dati



Indirizzo copiato

Mentre si attende la conclusione del trilogo per l’approvazione finale dell’AI Act, è interessante approfondire l’aspetto legato ai rischi derivanti da uno scorretto utilizzo dei dati nei sistemi di intelligenza artificiale generativa

Pubblicato il 20 set 2023

Anna Cataleta

Senior Partner di P4I e Senior Advisor presso l’Osservatorio Cybersecurity & Data Protection (MIP)



Marketing,Automation,,Growth,Marketing,Strategy,Concept.,Digital,Marketing,Automation,Tools

I sistemi di intelligenza artificiale generativa, grazie alla loro versatilità, negli ultimi mesi sono proliferati e hanno trovato diverse applicazioni nel business portando sia opportunità che rischi. In particolare, per quanto riguarda il corretto utilizzo dei dati.

Infatti, i sistemi di intelligenza artificiale generativa, come ormai ai più noto, sono quei modelli che vengono addestrati su grandi quantità di dati, spesso  dati personali, in grado di generare autonomamente nuovi contenuti, come testi, immagini, suoni o video.

Il contesto europeo

Dunque in attesa della conclusione del trilogo che vede la Commissione Europea, il Parlamento Europeo e il Consiglio dell’Unione Europea valutare l’approvazione del testo finale del Regolamento sull’intelligenza artificiale (AI Act), i sistemi di intelligenza artificiale continuano ad essere al centro dell’attenzione di studiosi e legislatori di tutto il mondo. L’intelligenza artificiale, sempre al centro del dibattito, è stata da ultimo oggetto del discorso sullo stato dell’Unione tenuto la scorsa settimana della Presidente Ursula von der Leyen[1].

Nel discorso è stata ribadita da una parte la centralità dell’intelligenza artificiale e dall’altra sono stati evidenziati i rischi il cui uso non consapevole o/e incontrollato può portare, in considerazione del fatto “L’intelligenza artificiale è una tecnologia generica, accessibile, potente e adattabile per un’ampia gamma di impieghi, civili e militari”. Nel discorso sono altresì stati individuati i pilastri “per un nuovo quadro globale dell’intelligenza artificiale”, ossia: misure protettive, governance e guida dell’innovazione.

Sempre la Presidente von der Leyen ha sottolineato quanto meritino attenzione i sistemi di intelligenza artificiale, tra cui rientrano i sistemi di intelligenza artificiale generativa, già oggetto dell’introduzione da parte del Parlamento Europeo dell’emendamento all’AI Act di cui all’articolo 28-ter.

L’intelligenza artificiale generativa: i rischi in generale

Sappiamo tutti quanto l’utilizzo dell’intelligenza artificiale generativa, sempre più diffusa e implementata per lo svolgimento di compiti nell’ambito delle organizzazioni e non solo, possa portare con sé innumerevoli opportunità di crescita ma anche dei rischi[2], soprattutto se si fa riferimento alla qualità dell’output e alla correttezza dello stesso. Infatti, se da una parte l’intelligenza artificiale generativa consente di accelerare alcuni processi all’interno dell’azienda, dall’altra occorre vigilare sull’operato di tali sistemi per ottenere il massimo risultato evitando, al contempo risvolti negativi per l’organizzazione, quali ad esempio, danni reputazionali.

Le allucinazioni, l’uso consapevole dell’AI e la disinformazione

Tra i rischi più noti legati all’intelligenza artificiale generativa vi è, ad esempio, quello di allucinazioni, che si verifica quando il sistema di intelligenza artificiale crea ex novo un’informazione; problema caratteristico dei Large Language Model (LLM) quali, ad esempio, ChatGpt e Bard. Un altro elemento che le organizzazioni devono tenere in considerazione, ovviamente, riguarda l’utilizzo inconsapevole dei sistemi di intelligenza artificiale da parte dei propri dipendenti e collaboratori, i quali possono involontariamente diffondere dati riservati, come successo nel caso di un’azienda tecnologica che ha dovuto vietare l’utilizzo da parte dei propri dipendenti di Chatgpt a seguito del caricamento sulla piattaforma di dati aziendali riservati.

Altri rischi sono poi stati evidenziati dall’OECD[3] nel recente documento “Initial Policy considerations for generative artificial intelligence”. In particolare, il documento fa riferimento al rischio del perpetrarsi di pregiudizi attraverso la disinformazione, i deepfake e altri contenuti non veritieri; eventuali ripercussioni sociali, politiche ed economiche dovute alla disinformazione su questioni scientifiche chiave e la distorsione del dibattito pubblico.

Tutti i rischi menzionati e le possibili conseguenze negative sembrano essere stati tenuti in considerazione dal Parlamento europeo, il quale ha introdotto nell’AI Act l’articolo 28-ter, che prevede una serie di adempimenti rivolti ai fornitori di modelli di base utilizzati nei sistemi di intelligenza artificiale generativa. Tra gli aspetti cui prestare attenzione nell’implementazione di un sistema di intelligenza artificiale generativa non si può, infine, evitare di menzionare tra i fattori di rischio anche l’utilizzo improprio dei dati personali di utenti e interessati. Il corretto trattamento dei dati riveste infatti un ruolo cruciale nell’utilizzo di questi sistemi e merita delle considerazioni specifiche.

Alcune considerazioni sulla protezione dei dati personali

Il corretto trattamento dei dati personali nell’ambito dei sistemi di intelligenza artificiale generativa è stato già oggetto di interventi delle Authority, prima tra tutti il Garante per la protezione dei dati personali nel provvedimento[4] dell’11 aprile 2023 nei confronti di ChatGPT. Successivamente il tema è stato discusso nell’incontro del 21 giugno 2023 che si è tenuto tra le autorità per la protezione dei dati del G7. Nell’ambito dell’incontro, le Autorità hanno evidenziato[5] gli aspetti da tenere in considerazione nello sviluppo dei sistemi di intelligenza artificiale generativa, tra cui:

  • il trattamento di dati personali dei minori nell’ambito dell’addestramento dei modelli di AI generativa e delle interazioni dei minori stessi con tali strumenti;
  • l’adozione di misure idonee a garantire che le informazioni generate dagli strumenti di AI generativa siano accurate, complete e aggiornate e prive di effetti discriminatori;
  • l’importanza della trasparenza dei sistemi di AI;
  • l’adozione di misure per garantire che gli interessati siano messi nella condizione di poter esercitare i propri diritti in relazione ai propri dati personali; il rispetto del principio di minimizzazione affinché siano trattati esclusivamente i dati necessari allo scopo perseguito.

Oltre a quelli sopramenzionati, non bisogna dimenticare di ulteriori aspetti quali la necessaria presenza di una base giuridica per poter trattare i dati personali di utenti e interessati, nonché l’importanza di evitare comportamenti illeciti come il web scraping.

Il tema dei rischi dell’intelligenza artificiale generativa, che è costantemente al centro del dibattito, di recente è stato affrontato anche dall’Autorità olandese[6], la quale ha espresso delle preoccupazioni rispetto all’utilizzo da parte di organizzazioni di sistemi di intelligenza artificiale generativa implementati in applicazioni utilizzate da minori. L’Autorità dopo aver espresso le proprie preoccupazioni ha dichiarato che a breve rilascerà delle linee guida sul tema per le società.

In un contesto in continua evoluzione si può però notare con favore che gli interventi delle Autorità e sistemi di Intelligenza artificiale, iniziano ad ottenere riscontro anche nelle scelte dei player privati che si trovano a dover prendere in considerazione tali aspetti. Infatti, se già a seguito dell’intervento del Garante nei confronti di Open AI, quest’ultima ha ottemperato conformandosi alle richieste dell’Autorità, un recente esempio di attenzione alla tematica si trova nella scelta che ha portato Meta a mettere a disposizione degli utenti un modulo denominato “Diritti dell’interessato per l’IA generativa”. Tale modulo, che “consente di segnalare problemi o inviare opposizioni in merito alle sue informazioni in possesso di terzi usate per l’addestramento dei modelli di IA generativa”, evidenzia ancora una volta la rilevanza sempre maggiore che la protezione dei dati personali riveste anche nelle scelte delle organizzazioni.

Conclusioni

In attesa della conclusione del trilogo per l’approvazione dell’AI Act e della regolamentazione della materia a livello internazionale, è importante che gli attori coinvolti tengano in considerazione i rischi che possono derivare da un utilizzo inconsapevole o spregiudicato dei sistemi di IA generativa. In ogni caso, la presenza di rischi non deve bloccare lo sviluppo di sistemi di intelligenza artificiale generativa all’interno delle aziende poiché, se opportunamente gestiti e controllati, anche tramite l’implementazione di policy aziendali, la formazione del personale e un utilizzo consapevole, possono portare grandi benefici.

Per quanto riguarda nello specifico i rischi relativi alla protezione dei dati personali è importante fare riferimento alla normativa vigente ed è altresì cruciale il dialogo con le Autorità per trovare soluzioni condivise. Infine, è di fondamentale importanza per le organizzazioni implementare i sistemi di IA tenendo a mente la protezione dei dati personali sin dalla progettazione del sistema stesso nel rispetto dei principi di privacy by design e privacy by default.

________

Note


[1] Discorso della Presidente von der Leyen sullo stato dell’Unione 2023, 13 settembre 2023

[2] Generative AI-nxiety, Reid Blackman, Harvard Business Review, 2023

[3] OECD, Initial Policy considerations for generative artificial intelligence, Philippe Lorenz, Karine Perset (OECD), Jamie Berryhill (OECD), 2023

[4] Garante per la protezione dei dati personali, Provvedimento dell’11 aprile 2023 [9874702]

[5] Roundtable of G7 Data Protection and Privacy Authorities Statement on Generative AI

[6] AP demands clarity of tech company about AI aimed at children, 14 September 2023

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati