C’è anche l’intelligenza artificiale generativa, tipo ChatGpt, nell’AI Act, approvato il 14 giugno 2023 dal Parlamento europeo.
L’AI Act è la “Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione”.
Sono in particolare gli emendamenti del Parlamento al testo della Commissione europea ad aggiunge l’AI generativa.
L’art, 28- ter, paragrafo va a individuare gli obblighi per i fornitori di modelli di base «utilizzati nei sistemi di AI destinati espressamente a generare, con diversi livelli di autonomia, contenuti quali testi complessi, immagini, audio o video».
L’intelligenza artificiale generativa è stata di recente oggetto di grande attenzione poiché vi è stata una grande diffusione di alcuni sistemi sia per la generazione di testi che per la creazione di immagini.
Tali modelli sono addestrati su enormi quantità di dati e hanno la capacità di generare autonomamente contenuti originali ed estremamente realistici; pertanto, potenzialmente possono generare diversi rischi legati alla protezione dei dati personali, alla disinformazione e al diritto d’autore.
Ciò ha reso necessario affrontare le questioni etiche e legali correlate all’addestramento e all’uso degli stessi modelli di intelligenza artificiale generativa e, da ultimo, ha portato all’introduzione degli emendamenti sopra richiamati.
L’AI Act e l’intelligenza artificiale generativa
In particolare, come si diceva, nell’AI Act rileva l’introduzione del nuovo articolo 28-ter[5] che, al comma 4, introduce delle regole ad hoc per l’AI generativa. Su questo aspetto, la proposta prevede una serie di adempimenti rivolti ai fornitori di modelli di base utilizzati nei sistemi di AI destinati espressamente a generare, con diversi livelli di autonomia, contenuti quali testi complessi, immagini, audio o video (“IA generativa”) e i fornitori specializzati nella trasformazione di un modello di base in un sistema di AI generativa.
Tali soggetti dovranno:
- Adempiere agli obblighi di trasparenza. La norma richiama il concetto di trasparenza espresso dall’art. dall’art. 52, par. 1, anche quest’ultimo oggetto di modifica nella nuova proposta e indirizzato, in generale, ai fornitori di sistemi di IA destinati a interagire con le persone fisiche. Il principio di trasparenza in commento impone che i sistemi di AI siano progettati e sviluppati in modo tale che il sistema stesso, il fornitore stesso o altri soggetti coinvolti, richiamati dalla norma, informino in modo tempestivo, chiaro e comprensibile la persona fisica esposta a un sistema di IA. È necessario dare evidenza alla persona fisica la circostanza che sta interagendo con tale tipologia di sistema, a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo.
- Tale obbligo quindi anche in capo ai fornitori di sistemi di AI generativa, comporta, inoltre, ove opportuno e pertinente, di fornire delle informazioni specifiche su “quali funzioni sono consentite dall’IA, se vi è una sorveglianza umana e chi è responsabile del processo decisionale, nonché i diritti e i processi esistenti che consentono alle persone fisiche o ai loro rappresentanti di opporsi all’applicazione di tali sistemi e di presentare ricorso per via giudiziaria contro le decisioni adottate dai sistemi di IA o i danni da essi causati, compreso il loro diritto di chiedere una spiegazione. Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare e perseguire reati, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato”;
- Formare, progettare, sviluppare il modello di base per assicurare opportune garanzie contro la generazione di contenuti che violano il diritto dell’Unione, in linea con lo stato dell’arte generalmente riconosciuto e fatti salvi i diritti fondamentali, compresa la libertà di espressione;
- Documentare e mettere a disposizione del pubblico una sintesi sufficientemente dettagliata dell’uso dei dati sulla formazione protetti da copyright, fermo restante il rispetto delle disposizioni europee sul diritto di autore.
La nuova proposta ha lo scopo di introdurre regole ad hoc per l’AI generativa in cui rientra ChatGPT anche in linea con le pronunce da ultimo emesse dalle autorità e volte a tutelare i diritti e le libertà degli interessati nonché proteggere i valori e i diritti fondamentali dell’UE con particolare attenzione ai consumatori, la protezione dei dati personali e il rischio di discriminazione senza scoraggiare l’innovazione e il progresso tecnologico.
Sul punto si osserva che l’introduzione di adempimenti specifici per i sistemi di AI generativa ha fatto sì che questi sistemi non fossero inseriti direttamente tra quelli ad “alto rischio”.
L’AI generativa odierna non rispetta AI ACT
Infine, è interessante notare che, ad oggi, secondo quanto riportato in un documento del Center fo Research on Foundation Models (CRFM) della Stanford University[6], molti modelli di AI base, i quali possono anche essere utilizzati nei sistemi di AI destinati espressamente a generare, con diversi livelli di autonomia, contenuti quali testi complessi, immagini, audio o video (“AI generativa”), non rispettano i requisiti individuati nella Proposta di regolamento.
In particolare, il CRFM ha notato che uno degli aspetti che presenta maggior margine di miglioramento è la trasparenza. Quest’ultima è un elemento centrale nella Proposta di regolamento e dovrà essere affrontata seriamente dai diversi attori.
Fanno meglio per lo studio i modelli aperti, come Bloom di Huggingface.
I prossimi passi
L’AI Act ora deve passare al vaglio del Trilogo (Consiglio, Commissione, Parlamento UE) per l’approvazione definitiva. Obiettivo è un’entrata in vigore nel 2025, che però alcuni parlamentari stanno provando ad anticipare, appunto alla luce delle potenzialità dirompenti della nuova tecnologia.
L’AI generativa in attesa dell’AI Act. Una panoramica internazionale
Nell’attesa, il mondo si muove da altre direzioni per regolare il settore.
Il G7 della privacy
L’AI generativa è stata oggetto anche dell’incontro del 21 giugno 2023 che si è tenuto a Tokyo tra le autorità per la protezione dei dati del G7[1]. Le Autorità hanno discusso e rilasciato una dichiarazione relativa alla stessa AI generativa sugli aspetti e sulle problematiche relative all’utilizzo di tali tecnologie connesse al trattamento dei dati personali.
Tra gli aspetti da tenere considerazione, le Autorità hanno evidenziato, ad esempio[2]:
- il trattamento di dati personali dei minori nell’ambito dell’addestramento dei modelli di AI generativa e delle interazioni dei minori stessi con tali strumenti;
- l’adozione di misure idonee a garantire che le informazioni generate dagli strumenti di AI generativa siano accurate, complete e aggiornate e prive di effetti discriminatori;
- l’importanza della trasparenza dei sistemi di AI;
- l’adozione di misure per garantire che gli interessati siano messi nella condizione di poter esercitare i propri diritti in relazione ai propri dati personali;
- il rispetto del principio di minimizzazione affinché siano trattati esclusivamente i dati necessari allo scopo perseguito.
I punti individuati richiamano gli adempimenti già evidenziati dal Garante per la protezione dei dati personali nel provvedimento[3] dell’11 aprile 2023 nei confronti di ChatGPT.
Congresso degli Stati Uniti
Le questioni relative ai potenziali rischi derivati dall’addestramento e dall’uso dei sistemi di AI generativa sono state recentemente considerate anche dal Congressional Research Service, il quale ha redatto un documento[4] in cui evidenzia possibili rischi per la “privacy”. Negli Stati Uniti, tuttavia, in assenza di una legge federale sulla protezione dei dati personali, ad oggi i diversi attori hanno fatto riferimento ad altre e regolamentazioni tra cui, ad esempio, quella sul diritto d’autore o sulla diffamazione per tutelare, ove possibile, i propri dati.
Il Congressional Research Service ha sottolineato che il Congresso potrebbe valutare l’emanazione di una legge federale sulla privacy, che affronti anche l’utilizzo degli strumenti di intelligenza artificiale generativa, e che, nel farlo, potrebbe prendere ad esempio la proposta di regolamento sull’intelligenza artificiale dell’Unione Europea.
È interessante notare che tra le proposte riportate dal Congressional Research Service per la tutela dei dati personali rientrano:
- l’inserimento di un’informativa e dei meccanismi di “disclosure”;
- dei requisiti di opt-out per consentire agli utenti di non essere inclusi nella raccolta dei dati;
- requisiti di cancellazione e minimizzazione per fornire agli utenti meccanismi per cancellare i propri dati.
La Casa Bianca potrebbe emanare regole sull’AI: il presidente Biden ha avviato molti confronti con esperti sul tema. Ad oggi c’è il Blueprint for an AI Bill of Rights (Programma per una Carta dei Diritti dell’Intelligenza Artificiale) di 73 pagine pubblicato a ottobre.
Un punto di riferimento è anche il quadro di gestione del rischio pubblicato all’inizio di quest’anno dal National Institute of Standards and Technology del Dipartimento del Commercio.
Sempre quest’anno, Biden ha firmato un ordine esecutivo che indirizza le agenzie federali a eliminare i pregiudizi nelle tecnologie artificiali utilizzate dal governo federale e a combattere la discriminazione algoritmica e l’amministrazione ha annunciato 140 milioni di dollari per lanciare nuovi istituti di ricerca sull’IA.
A differenza degli Stati Uniti in cui non vi è una diretta tutela per la protezione dei dati personali, l’Europa, in attesa dell’approvazione del testo finale dell’AI Act, è comunque in grado di garantire, mediante la normativa attualmente in vigore (es. GDPR), la tutela dei diritti e delle libertà degli interessati. In ogni caso l’entrata in vigore dell’AI Act consentirà una tutela più ampia.
Quello che emerge dal 2021 ad oggi è la volontà di ricomprendere e disciplinare ogni possibile aspetto ed utilizzo dei sistemi di AI e per tale ragione non si è giunti ancora ad un testo finale. Ad esempio, la nuova proposta di regolamento ha introdotto un aspetto mai disciplinato nella versione precedente relativo all’utilizzo dell’AI generativa.
Conclusioni
Sarà necessario verificare se e con quale portata la proposta di Regolamento, una volta consolidata e applicabile, potrà porsi come paradigma di riferimento anche per altre legislazioni.
Nel frattempo, tali disposizioni possono costituire, da un lato, una buona base di partenza per tutti gli attori coinvolti nell’uso o nella progettazione di tali sistemi in modo da recepire da subito, gli adempimenti richiesti, dall’altro lato, gli adempimenti finora previsti potrebbero comportare costi eccessivi per quelle realtà che non possiedono risorse e budget sufficienti ad ottemperare al dettato della norma.
Inoltre, in questo scenario è necessario altresì tenere conto le ulteriori disposizioni europee quali, ad esempio, le disposizioni in materia di protezione dei dati personali e, in particolare, quanto previsto anche dall’art. 22 del GDPR.