L’inevitabile diffusione dei sistemi di Intelligenza artificiale e l’impatto sulle nostre vite stanno ponendo significativi interrogativi sotto diversi profili: etici, di diritto, sociali e, certamente, di protezione dei dati personali. Da qui l’esigenza di gestire, normalizzare e regolarizzare il flusso di dati personali necessari ad alimentare l’IA. A questa esigenza il legislatore europeo ha dato risposta con il Regolamento 2016/679 UE (GDPR) e più recentemente con l’AI Act, il primo quadro normativo completo al mondo specificamente dedicato all’intelligenza artificiale. Vediamo come la normativa affronta una tecnologia in accelerazione come l’Intelligenza artificiale.
Prima di entrare nel merito dell’argomento di questo articolo – l’Intelligenza Artificiale e la protezione dei dati personali – vediamo alcune definizioni di IA:
- scienza che si propone di sviluppare macchine intelligenti
- disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di Sistemi hardware e Sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana
- ramo dell’informatica che permette la programmazione e progettazione di sistemi che dotano le macchine di caratteristiche considerate tipicamente umane quali percezioni sensoriali e capacità decisionali
- disciplina che vuole risolvere specifici problemi, o effettuare (simulare) ragionamenti che non possono essere compresi pienamente dalle capacità cognitive umane.
Dal 2019 al 2025, l’intelligenza artificiale ha subito una trasformazione radicale, soprattutto negli ultimi due anni, passando da sistemi principalmente basati su regole a sistemi generativi capaci di creare contenuti originali come testo, immagini, audio e video con un realismo senza precedenti. I Large Language Models o LLM e i modelli multimodali hanno rivoluzionato il panorama, rendendo l’IA accessibile attraverso interfacce conversazionali intuitive e portando a una democratizzazione delle tecnologie di frontiera.
Ma cosa vuol dire intelligenza: imparare dall’esperienza? Scherzare? Mentire? Dipingere? Nel caso dell’Intelligenza Artificiale vuol dire avere un numero di dati input (dati regole, dati esempio, dati personali) sufficienti a trarre delle conclusioni adeguatamente precise per definire, per esempio, un percorso, una traduzione, giocare a scacchi oppure a Go, un suggerimento per gli acquisti, una diagnosi medica, una prenotazione, per chiamare Uber, ecc.
Indice degli argomenti
Intelligenza artificiale, i dati come “carburante”
I dispositivi di IA sono interattivi, autonomi e adattabili. Infatti, possono migliorare le loro funzionalità con l’aumentare del numero e/o della qualità dei dati input o tramite l’autoapprendimento (machine learning). Quest’ultimo, evoluto nei sistemi di deep learning e reinforcement learning rende i sistemi di intelligenza artificiali imprevedibili, in quanto gli algoritmi ex ante vengono modificati ex post dal machine learning aprendo la questione delle responsabilità penali e civili.
Ma l’Intelligenza Artificiale per essere abbastanza intelligente ha bisogno dei nostri dati personali ovvero delle informazioni che identificano o rendono identificabile, direttamente o indirettamente, una persona fisica e che possono fornire informazioni sulle sue caratteristiche anche particolari, le sue abitudini, il suo stile di vita, le sue relazioni personali, il suo stato di salute, la sua situazione economica, le sue preferenze, la sua localizzazione, ecc..
Particolarmente importanti per l’Intelligenza Artificiale sono proprio i dati che:
- permettono l’identificazione diretta – come i dati anagrafici (es.: nome e cognome), le immagini, ecc.
- permettono l’identificazione indiretta, come un numero di identificazione (es.: il codice fiscale, l’indirizzo IP, il numero di targa, l’IBAN, ecc.)
- rientrano in particolari categorie: cioè quelli che rivelano l’origine razziale od etnica, le convinzioni religiose, filosofiche, le opinioni politiche, l’appartenenza sindacale, relativi alla salute o alla vita sessuale, i dati genetici, i dati biometrici e quelli relativi all’orientamento sessuale
- dati relativi a condanne penali e reati o a connesse misure di sicurezza: si tratta dei dati c.d. “giudiziari”, cioè quelli che possono rivelare l’esistenza di determinati provvedimenti giudiziari soggetti ad iscrizione nel casellario giudiziale (es.: i provvedimenti penali di condanna definitivi, la liberazione condizionale, il divieto od obbligo di soggiorno, le misure alternative alla detenzione, ecc.) o la qualità di imputato o di indagato.
Inoltre, con l’evoluzione dell’IA generativa, sono diventati cruciali anche i dati utilizzati per l’addestramento dei modelli, compresi contenuti protetti da copyright, informazioni pubblicate online e dati raccolti da fonti diversificate che possono includere informazioni sensibili o identificative.
La questione dello scambio dei dati personali per l’accesso a servizi digitali si è ulteriormente complicata con la diffusione dei sistemi di IA consumer.
Gli utenti cedono quantità ancora maggiori di dati personali in cambio dell’accesso, magari gratuito, a strumenti di IA sempre più potenti, spesso senza una piena consapevolezza dell’impatto che questo può avere sulle loro vite. La definizione di AI come della “commodity del XXI secolo” risulta quindi ancora più appropriata oggi rispetto al 2019.
Peccato che questo “scambio commerciale” avvenga, spesso, senza una corretta valutazione dell’impatto sulle nostre vite, senza considerare i bias annidati nelle risposte della AI condizionata, ovviamente, dal passato e trascurando il fatto che l’AI può, dovrebbe, essere utilizzata solo da persone competenti e non per supplire all’ignoranza.
Il GDPR e l’AI Act: un quadro normativo in evoluzione fra classificazioni e divieti
Il legislatore europeo ha compiuto passi significativi per tenere il passo dell’evoluzione tecnologica e scientifica. Al GDPR del 2016 si è aggiunto nel 2024 l’AI Act, il primo framework regolatorio al mondo specificamente dedicato all’intelligenza artificiale, che introduce un approccio basato sul rischio per classificare e regolamentare i sistemi di IA in base al loro potenziale impatto sulla società.
L’AI Act classifica i sistemi di IA in quattro categorie principali:
- Rischio inaccettabile: sistemi di IA vietati, come quelli di scoring sociale o manipolazione subliminale
- Alto rischio: sistemi soggetti a requisiti rigorosi prima dell’immissione sul mercato, come quelli utilizzati in infrastrutture critiche, istruzione, occupazione, servizi pubblici essenziali
- Rischio limitato: sistemi soggetti a obblighi di trasparenza, come le chatbot o i sistemi di riconoscimento delle emozioni
- Rischio minimo: tutti gli altri sistemi, soggetti a requisiti minimi o volontari
Questa classificazione si aggiunge e integra le disposizioni del GDPR, creando un ecosistema normativo più completo per la gestione dei sistemi di IA e dei dati personali che utilizzano.
Inoltre, l’AI Act europeo, vieta espressamente alcune pratiche considerate inaccettabili per i rischi che comportano per i diritti fondamentali e la sicurezza.
Ecco le principali pratiche vietate:
- Pratiche di manipolazione e sfruttamento delle vulnerabilità che utilizzano tecniche subliminali per manipolare il comportamento di una persona in modo da causare danni fisici o psicologici o sistemi che sfruttano le vulnerabilità di gruppi specifici (come minori o persone con disabilità) per influenzarne materialmente il comportamento
- Sistemi di punteggio sociale gestiti da autorità pubbliche che valutano o classificano le persone basandosi sul loro comportamento sociale in diversi contesti e applicazioni che portano a trattamenti pregiudizievoli o discriminatori verso determinate persone o gruppi
- Sistemi di identificazione biometrica remota per l’identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico per finalità di contrasto, salvo specifiche eccezioni strettamente regolamentate o l’utilizzo di sistemi di categorizzazione biometrica basati su caratteristiche sensibili (come convinzioni politiche, orientamento sessuale, etnia, religione)
- Sistemi di riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative, eccetto per specifiche finalità mediche o di ricerca
- Sistemi predittivi di polizia basati sulla profilazione di persone o sulla valutazione della probabilità che commettano reati basandosi su caratteristiche personali
- Creazione di database di riconoscimento facciale attraverso la raccolta indiscriminata di immagini da internet o da sistemi di videosorveglianza
Infine, l’AI Act prevede controlli e requisiti più stringenti per i sistemi ad alto rischio, anche se non completamente vietati, come quelli utilizzati in settori critici quali sanità, trasporti, energia e sicurezza ma per avere un quadro definitivo di questa architettura normativa complessa, bisognerà attendere gli atti secondari – atti di implementazione –, linee guida, standard armonizzati e codici di condotta in fase di elaborazione e introduzione rendendo, di fatto, la lentezza legislativa incompatibile con la velocità della tecnologia oltre a necessitare di adattamenti a livello nazionale. Infatti, gli Stati membri devono integrare l’AI Act nei rispettivi ordinamenti giuridici nazionali, definire sistemi sanzionatori specifici (il Regolamento stabilisce solo i principi generali e i massimali delle sanzioni) e istituire meccanismi di coordinamento tra le autorità nazionali e quelle europee
Fino al completamento di questi passaggi, l’applicazione del regolamento rimarrà parziale e potenzialmente disomogenea tra i diversi Stati membri dell’Unione Europea.
AI e dati personali, il trattamento automatizzato: articolo 22 del GDPR alla luce dei nuovi sviluppi
Il GDPR pone particolare attenzione sul trattamento automatizzato dei dati personali. L’Art. 22 del GDPR (Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione) ribadisce, come principio generale, che l’Interessato ha il diritto di non essere sottoposto a una decisione basata esclusivamente sul trattamento automatizzato dei propri dati, a cominciare dalla profilazione, definita nell’Art. 4 del GDPR (Definizioni), che produca effetti giuridici che lo riguardano o che incida allo stesso modo sulla sua persona in modo significativo.
A proposito del primo paragrafo dell’Art. 22, sembra chiaro che nessuna tecnologia di Intelligenza Artificiale sia conforme al GDPR senza l’intervento umano. Ciò che viene infatti richiesto a chi utilizza Sistemi di IA per acquisire ed elaborare dati personali da individui (interessati) è:
- definire le finalità del trattamento
- informare sull’utilizzo che si fa della tecnologia IA
- raccogliere il consenso al trattamento automatizzato e alla profilazione
- determinare la base giuridica
- valutare l’impatto che l’uso dell’IA esercita sugli individui (DPIA)
- dare prospetto compiuto e completo del funzionamento della tecnologia, per individuarne i criteri di ragionamento (ed eventualmente anche alcuni bias di partenza)
- intervenire nel caso in cui si presentino possibili occasioni di violazione dei diritti degli interessati
- comunicare e informare in caso di data breach
- implementare sistemi di logging e tracciabilità per i sistemi di IA ad alto rischio
- adottare misure di sicurezza rafforzate contro attacchi adversarial e tentativi di manipolazione
La questione dei sistemi basati su machine learning che potrebbero iniziare a trattare dati per finalità diverse da quelle inizialmente comunicate è diventata ancora più rilevante con l’avvento di sistemi sempre più autonomi e capaci di apprendimento continuo. L’AI Act impone requisiti di trasparenza e documentazione più stringenti per prevenire questo tipo di “function creep” e garantire che le finalità del trattamento rimangano sotto controllo umano.
GDPR, quando il trattamento è “illecito”
Infatti, ai sensi dell’Art. 6 del GDPR (Liceità del trattamento) il trattamento dei dati personali può avvenire, oltre che per finalità predeterminate, solo in presenza di idonee “basi giuridiche” cioè in condizioni di trattamento lecito; pertanto, un cambiamento, in autonomia (autoapprendimento del sistema di IA), delle finalità del trattamento si configurerebbe non supportato dalla base contrattuale, non preventivamente predeterminato e quindi illecito.
È da rilevare che le ultime tendenze in merito all’utilizzo dei Sistemi di IA vanno nella direzione di una interazione costante fra IA e intervento umano, anche perché gli studi più recenti dimostrano che le macchine non sono (per ora) così “intelligenti” (sbagliano con una certa frequenza) e la persona, per sua natura, è fallibile mentre l’interazione Sistema/persona migliora significativamente le performance, rendendo, nel contempo, gestibile l’attività di trattamento dei dati personali in conformità a quanto disposto dal GDPR.
Articolo 22
Oltre all’Art. 22 del GDPR, l’Art. 24 (Responsabilità del titolare del trattamento), prevede che, tenuto conto della natura, del campo applicativo, del contesto e delle finalità di trattamento, nonché dei rischi di varia probabilità e gravità dei diritti e le libertà delle persone fisiche, il Titolare del trattamento mette in atto “misure tecniche e organizzative adeguate” per garantire, ed essere in grado di dimostrare, che il trattamento dei dati personali è effettuato conformemente al GDPR.
L’Art. 24 introduce infatti il c.d. principio cardine di accountability che si connota per due accezioni fondamentali: in primo luogo, la responsabilità verso gli stakeholder in merito al non corretto utilizzo dei dati personali e della produzione di risultati in linea con le finalità dichiarate con l’informativa; in secondo luogo, l’esigenza di introdurre logiche e meccanismi di maggiore responsabilizzazione in merito al data crossing relativamente all’impiego dei dati personali e alla produzione di risultati. Tale principio investe tutte le operazioni concernenti dati personali ed è connotata da un profilo di applicabilità oggettiva, applicandosi in ogni situazione che veda uno scorretto utilizzo di informazioni rilevanti.
Privacy by design: da principio a necessità operativa
Il principio di privacy by design, introdotto dall’Art. 25 del GDPR, si è evoluto da concetto innovativo a necessità operativa fondamentale. L’AI Act rafforza questo approccio richiedendo che i sistemi di IA ad alto rischio siano progettati con caratteristiche di trasparenza, robustezza e accuratezza fin dall’inizio.
La privacy by design per i sistemi di IA oggi implica:
- la minimizzazione dei dati di addestramento utilizzando solo i dati strettamente necessari per addestrare i modelli di IA
- l’anonimizzazione e pseudonimizzazione avanzate implementando tecniche come la differential privacy per proteggere i dati utilizzati nell’addestramento
- L’adozione di tecniche di federated learning permettendo l’addestramento dei modelli senza centralizzare i dati personali
- la spiegabilità by design progettando sistemi che possano fornire spiegazioni comprensibili delle loro decisioni
- la resistenza contro attacchi di privacy proteggendo contro i tentativi di estrazione di dati di addestramento attraverso attacchi di membership inference o model inversion
- i controlli di debiasing identificando e mitigando i bias nei dati di addestramento e nei risultati dei modelli
Il Considerando 78 del GDPR, che evidenzia l’importanza di misure tecniche e organizzative adeguate, trova oggi un’applicazione pratica nei requisiti dell’AI Act per i sistemi ad alto rischio, che includono valutazione del rischio, documentazione tecnica dettagliata, registrazione automatica degli eventi e supervisione umana.
La catena di responsabilità nell’era dell’IA generativa
L’ecosistema degli attori coinvolti nel trattamento dei dati attraverso sistemi di IA si è notevolmente ampliato. Oltre all’interessato e al titolare del trattamento, oggi abbiamo:
- Provider di sistemi di IA (sviluppatori dei modelli foundation e dei sistemi di IA generativa)
- Deployer di sistemi di IA (organizzazioni che implementano e utilizzano questi sistemi)
- User di sistemi di IA (utenti finali che interagiscono con i sistemi)
- Data broker e fornitori di dataset di addestramento (entità che raccolgono e forniscono dati per l’addestramento dei modelli)
L’AI Act introduce obblighi specifici per ciascuno di questi attori, con particolare attenzione ai provider di sistemi ad alto rischio, che devono implementare sistemi di gestione del rischio, preparare documentazione tecnica dettagliata e assicurare la conformità prima dell’immissione sul mercato.
Il regime sanzionatorio è stato significativamente rafforzato rispetto al 2019. L’AI Act prevede sanzioni che possono arrivare fino al 7% del fatturato globale annuo per le violazioni più gravi, come l’uso di sistemi di IA vietati, superando anche il regime sanzionatorio del GDPR (4%).
Le sfide emergenti e il futuro della regolamentazione
Nuove sfide sono emerse dal 2019 ad oggi, tra cui:
- la capacità dei sistemi di IA di generare contenuti falsi – deepfake – ma estremamente realistici pone sfide significative per la privacy e la reputazione
- i sistemi di IA possono perpetuare o amplificare pregiudizi esistenti – bias e discriminazione algoritmica – nei dati di addestramento
- i grandi modelli linguistici e multimodali presentano sfide uniche – trasparenza dei modelli di fondazione – in termini di interpretabilità e trasparenza
- questioni relative all’uso di contenuti protetti da copyright – proprietà intellettuale e dati di addestramento – per l’addestramento dei modelli
- la concentrazione delle capacità di sviluppo dell’IA in poche grandi aziende – sovranità digitale e AI – solleva questioni di sovranità tecnologica e oligopoli.
L’AI Act cerca di affrontare queste sfide attraverso un approccio basato sul rischio e requisiti di governance più stringenti, ma il panorama tecnologico continua a evolversi rapidamente, richiedendo un adattamento continuo del quadro normativo.
Conclusioni: verso una governance responsabile dell’IA
Il settore dell’Intelligenza Artificiale è oggi più che mai cruciale per lo sviluppo della società digitale globalizzata rispetto al 2019. I progressi nella capacità di elaborazione dei dati e nelle tecniche di apprendimento hanno portato a sistemi di IA generativa che possono creare contenuti, prendere decisioni e interagire con gli esseri umani in modi prima impensabili. Domani, con i computer quantistici, la sfida sarà ancora più grande e non possiamo che incominciare ad affrontarla oggi.
La combinazione del GDPR e dell’AI Act rappresenta il tentativo più avanzato a livello globale di bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali delle persone. Questo approccio “europeo” all’IA, centrato sula centralità dell’essere umano e basato sui valori, sta influenzando la regolamentazione in altre giurisdizioni, posizionando l’UE come leader nella governance dell’IA.
Tuttavia, restano sfide significative. La rapidità dell’evoluzione tecnologica continua a mettere alla prova la capacità del legislatore di stare al passo. L’implementazione pratica dei principi del GDPR e dell’AI Act richiederebbe un dialogo continuo tra legislatori, sviluppatori, deployer, autorità di regolamentazione e società civile.
Nel futuro prossimo, sarà fondamentale sviluppare standard tecnici condivisi, strumenti di conformità accessibili e best practice che possano aiutare le organizzazioni di tutte le dimensioni a navigare questo complesso panorama normativo. Solo attraverso un approccio collaborativo e multidisciplinare sarà possibile realizzare il potenziale dell’IA minimizzando i rischi per i diritti e le libertà fondamentali.
La sfida più grande rimane quella di trasformare i principi astratti in pratiche concrete e verificabili, garantendo che l’innovazione tecnologica proceda, ed evolva, di pari passo con la protezione dei diritti fondamentali in un ecosistema digitale sempre più complesso e interconnesso.