L’ascesa di alcune sempre più popolari applicazioni dell’Intelligenza Artificiale generativa sta animando il dibattito mondiale sulla regolamentazione delle nuove tecnologie. Pensiamo a ChatGPT e a tutte le discussioni da questa sollevate, ma anche alle dispute relative all’uso di Midjourney e altre applicazioni simili in vari contesti dove, fino a qualche mese fa, dominava la creatività umana. È inevitabile che questi sviluppi così dirompenti abbiano una qualche influenza sul processo legislativo volto a disciplinare l’IA, che nell’Unione Europea si sta focalizzando sull’emanazione dell’attesissimo “AI Act”, che è stato appena emendato dal Parlamento UE anche e soprattutto per includere i nuovi sistemi generativi.
Parlamentari dell’UE hanno proposto nuove distinzioni e definizioni da inserire nel futuro Regolamento, e il 27 aprile hanno trovato un accordo politico sulla bozza di testo, che sembra ora destinato al voto in plenaria il prossimo giugno.
Vari esperti, pur chiedendo a gran voce la formalizzazione di regole specifiche per questo settore, mettono anche in guardia le istituzioni dal farsi influenzare troppo dalla tecnologia del momento.
Le nuove definizioni proposte per l’AI Act e l’accordo raggiunto in seno al Parlamento europeo
L’approccio dei parlamentari si è assestato su tre livelli di regolamentazione, che riguardano:
- La distribuzione della responsabilità lungo tutta la filiera dell’IA;
- La previsione di specifiche salvaguardie per i foundation model;
- La risoluzione di questioni specifiche legate ai modelli di IA generativa.
Una grossa novità inserita nella nuova bozza è la distinzione tra foundation model, per cui viene previsto un regime più stringente, e le general purpose AI.
Un foundation model è definito come un modello di sistema di IA che è stato addestrato su quantità di dati su larga scala, che è stato progettato per una generalità di output e che può essere adattato a una grande varietà di funzioni specifiche.
La general purpose AI, invece, viene definita un sistema di IA che può essere utilizzato e adattato per una grande varietà di applicazioni per le quali non era stato intenzionalmente e specificamente progettato.
Per quanto riguarda la prima categoria, vengono previsti una serie di obblighi per i produttori, che comprendono vari test e la minimizzazione dei rischi ragionevolmente prevedibili per la salute, la sicurezza, i diritti fondamentali, l’ambiente la democrazia e il principio di legalità. In questi processi devono essere coinvolti anche esperti indipendenti. Sono previste inoltre misure di data governance, comprensive di verifiche sulla sostenibilità delle fonti dei dati, su possibili bias e i modi appropriati per minimizzarli. Questi modelli dovranno poi essere monitorati per garantirne il corretto funzionamento durante tutto il loro periodo di utilizzo e dovranno essere registrati in un database europeo.
Se i foundation models rientrano anche nella categoria di IA generativa (pensiamo al famoso ChatGPT), sono soggetti a ulteriori requisiti di trasparenza: è previsto l’obbligo di pubblicare un documento riassuntivo relativamente all’utilizzo, in fase di addestramento dei modelli, di dati che ricomprendano informazioni protette da normative sul copyright. Inizialmente era stato proposto un approccio molto più stringente, con un divieto di utilizzo di questo materiale nella creazione delle IA generative, ma questa linea è stata abbandonata, preferendo la trasparenza come metodo per proteggere i diritti degli individui favorendo al contempo l’innovazione[6].
È interessante notare come sia stato dato sufficientemente rilievo anche al tema ambientale: viene infatti affidato all’AI Office il compito di fornire indicazioni e consigli sul consumo di energia connesso all’addestramento dei foundation model, mentre i produttori di questi sistemi devono rendere noti i consumi effettuati e il tempo necessario per questa fase di creazione dell’IA. In generale, i foundation model devono rispettare gli standard ambientali europei.
Per quanto riguarda i modelli di IA generativa, all’ultimo minuto in fase di accordo nel Parlamento europeo è stata inserita la previsione per cui questi sistemi devono essere progettati e sviluppati rispettando la normativa europea e i diritti fondamentali, compresa la libertà di espressione[7].
Cenni su altre questioni decise dal Parlamento nell’ultima bozza dell’AI Act
Abbiamo visto fin qui le nuove previsioni specificamente introdotte per le general purpose AI e per l’IA generativa. Nella bozza di Regolamento oggetto dell’accordo politico del 27 aprile i parlamentari europei hanno però raggiunto una quadra anche su altre questioni dibattute relativamente alla disciplina dell’IA in generale:
- Il divieto di utilizzo di software di identificazione biometrica, previsto inizialmente solo per i casi di uso real-time, viene esteso anche all’utilizzo ex-post, tranne che nei casi di crimini gravi (per i quali è comunque necessaria un’approvazione preliminare);
- Viene vietato l’uso di software di IA per il riconoscimento delle emozioni nelle attività di polizia, di controllo delle frontiere, sui luoghi di lavoro e nei contesti educativi;
- Il divieto di polizia predittiva viene esteso agli illeciti amministrativi;
- Viene confermato che un sistema che rientra nell’elenco dell’Allegato III potrà essere considerato ad alto rischio solo se pone un rischio significativo per la salute, la sicurezza o i diritti fondamentali. Anche le IA utilizzate per gestire infrastrutture critiche come quelle energetiche o di distribuzione dell’acqua potranno essere classificate come ad alto rischio se comporteranno un pericolo ambientale grave. Allo stesso modo, rientreranno in questa categoria i sistemi di raccomandazione delle piattaforme online molto grandi (le “very large online platforms” così come definite nel Digital Services Act);
- I parlamentari hanno previsto delle ulteriori tutele per individuare bias quando i produttori di modelli di IA ad alto rischio possono trattare dati particolari (ad esempio l’orientamento sessuale o la fede religiosa);
- Vengono indicati dei principi generali che devono essere rispettati da tutti i modelli di IA: la sorveglianza e l’intervento umano, la robustezza tecnica e la sicurezza, la tutela della privacy e la data governance, la trasparenza, il benessere sociale e ambientale, la diversità, la non discriminazione e la correttezza.
Le cinque considerazioni degli esperti
Un gruppo internazionale di esperti sull’Intelligenza Artificiale fondato dalla ricercatrice Timnit Gebru e che ricomprende anche firmatari istituzionali come l’AI Now Institute, AlgorithmWatch, l’Algorithmic Justice League con Joy Buolamwini e tanti altri ha pubblicato un documento di indirizzo sulla regolamentazione delle general purpose AI nell’AI Act nel quale vengono enunciate cinque considerazioni che dovrebbero essere poste alla base della stesura del Regolamento per quanto riguarda queste specifiche IA.
Nell’introduzione, gli esperti mettono però in guardia contro il rischio di adattamento eccessivo (“overfitting”) della nuova disciplina alle “questioni del giorno”: l’ingombrante presenza nel dibattito contemporaneo di applicazioni come ChatGPT, DALL-E 2, Bard, potrebbe far perdere di vista il fatto che queste sono solo “la punta dell’iceberg”, e che quindi il tema delle general purpose AI si estende ben oltre queste tecnologie oggi tanto discusse.
L’obiettivo del documento è fornire invece delle linee guida di ampio respiro, che consentano di arrivare alla stesura di una regolamentazione resistente alla prova del tempo.
Vediamo quindi nel dettaglio le cinque considerazioni degli esperti:
- La definizione delle general purpose AI deve tenere conto del fatto che si tratta di una categoria vasta e in continua espansione, per cui deve essere scritta in modo da potersi applicare a un ampio spettro di prodotti. Non è opportuno, quindi, focalizzarsi sulle IA generative di testi o immagini (quelle che oggi suscitano più scalpore), ma bisogna considerare anche IA forse meno affascinanti per l’opinione pubblica, come i complessi modelli statistici usati per prevedere rischi per la salute a partire da informazioni raccolte da aziende sanitarie, o quelli utilizzati per distribuire benefici pubblici grazie ad analisi di dati amministrativi. Queste ultime, infatti, presentano comunque caratteristiche tali da mettere a rischio la società tanto quanto le più famose IA generative. Bisognerebbe rendere la definizione di general purpose AI tecnologicamente neutra, e per fare questo il focus dovrebbe essere sul fatto che il modello sia talmente versatile da poter essere applicato a una moltitudine di usi diversi, anche ad alto rischio. Vedremo nel prossimo paragrafo che i parlamentari europei hanno trovato un accordo su questa definizione, introducendo anche una importante distinzione.
- I modelli di general purpose AI contengono dei rischi congeniti, ben evidenti fin dal loro utilizzo come base per tecnologie più complesse o per usi ulteriori. È ormai chiaro, infatti, che anche semplicemente il modo in cui si forma il dataset necessario all’”addestramento” degli algoritmi ha un impatto fondamentale su possibili bias della versione finale dell’IA, oltre al fatto che la raccolta stessa dei dati potrebbe essere fatta violando diritti e garanzie per gli individui, ad esempio formando un enorme database di immagini tramite sorveglianza di massa. È importante considerare anche se e come questi dati vengano conservati.
- Le general purpose AI dovrebbero essere regolamentate durante tutto il ciclo di vita del prodotto e le società che sviluppano questi modelli devono essere responsabili per il trattamento dei dati e per le scelte di progettazione che fanno. In molti casi, infatti, gli utenti o i fornitori finali dei sistemi di IA non hanno le capacità per accedere al modello alla base dell’applicazione o per comprenderne il funzionamento. Non prevedere regole per la fase di sviluppo significherebbe quindi consentire a chi progetta questi sistemi di ottenere profitti dal loro utilizzo in applicazioni successive, che usano le general purpose AI come base per il proprio funzionamento, senza però avere alcuna responsabilità per eventuali problemi derivanti dalla creazione del modello stesso.
- La normativa non deve contenere la possibilità per gli sviluppatori delle IA di esimersi da responsabilità con clausole contrattuali standard e disclaimer. Non seguire questo approccio significherebbe far ricadere il rischio sugli ultimi “anelli” della catena di produzione che, in molti casi, non hanno alcun margine di azione per mitigarlo. La possibilità di inserire una clausola di esonero da responsabilità in complessi documenti legali (come, ad esempio, nei Termini e Condizioni di utilizzo) potrebbe essere un disincentivo a comportamenti diligenti e prudenti in fase di progettazione delle general purpose AI.
- Il Regolamento dovrebbe evitare di prevedere dei metodi di valutazione e scrutinio delle general purpose AI troppo stringenti e predefiniti, che rischierebbero di diventare delle valutazioni meramente formali e superficiali. Ci troviamo, infatti, in una area di ricerca e sviluppo particolarmente attiva e dibattuta, che dovrebbe essere soggetta ad ampie consultazioni che ricomprendano anche ricercatori e altri attori non strettamente coinvolti nello sviluppo e nella commercializzazione di questi sistemi. Siamo di fronte a questioni che riguardano la società tutta, e quindi bisognerebbe consentire valutazioni e discussioni sulle general purpose AI coinvolgendo una moltitudine di soggetti, anche non tecnici o istituzionali. Secondo gli esperti, quindi, bisogna evitare di fissare parametri troppo rigorosi in questo contesto, favorendo invece dialoghi e riflessioni più ampie.
Approcci diversi al mondo
Finora i governi stanno adottando tre approcci diversi.
A un’estremità dello spettro c’è la Gran Bretagna, che ha proposto un approccio “light-touch” senza nuove regole o organismi di regolamentazione, ma applicando le normative esistenti ai sistemi ai. L’obiettivo è quello di stimolare gli investimenti e trasformare la Gran Bretagna in una “superpotenza dell’ai”. L’America ha adottato un approccio simile, anche se l’amministrazione Biden sta ora cercando pareri pubblici su come potrebbe essere un regolamento.
L’UE sta adottando una linea più dura, come sappiamo: la sua proposta di legge classifica i diversi usi dell’ai in base al grado di rischio e richiede un monitoraggio e una divulgazione sempre più severi man mano che il grado di rischio aumenta, ad esempio, dai consigli musicali alle auto a guida autonoma. Alcuni usi dell’ai sono del tutto vietati, come la pubblicità subliminale e la biometria a distanza. Le aziende che violano le regole saranno multate. Per alcuni critici, queste norme sono troppo restrittive oppure che è difficile applicarle per i sistemi general purpose appunto come le AI generative dove il rischio cambia a seconda dei contesti e applicazioni.
Ma altri sostengono che sia necessario un approccio ancora più severo. I governi dovrebbero trattare le ai come i farmaci, con un regolatore dedicato, test rigorosi e una pre-approvazione prima del rilascio al pubblico. E’ l’approccio della Cina che richiede alle aziende di registrare i prodotti di ai e di sottoporli a un controllo di sicurezza prima del rilascio. Ma la sicurezza potrebbe essere una motivazione meno importante della politica: un requisito fondamentale è che i prodotti di ai riflettano il “valore fondamentale del socialismo”.
Questo certo è troppo per i valori occidentali.
Di fondo però se l’ai è una tecnologia importante come le automobili, gli aerei e i farmaci – e ci sono buone ragioni per credere che lo sia – allora avrà bisogno di nuove regole. Di conseguenza, il modello dell’UE è il più efficace al momento anche se il suo sistema di classificazione affronterà la sfida di doversi confrontare con la realtà complicata dell’innovazione.
Potrebbe essere opportuno istituire un’autorità di regolamentazione specifica, così come potrebbero essere necessari trattati intergovernativi, simili a quelli che regolano le armi nucleari, qualora emergessero prove plausibili di un rischio esistenziale. Per monitorare tale rischio, i governi potrebbero formare un organismo sul modello del Cern, un laboratorio di fisica delle particelle, che potrebbe anche studiare la sicurezza e l’etica dell’ai, settori in cui le aziende non sono incentivate a investire quanto la società vorrebbe. Come propongono esperti come Gary Marcus.
Un organismo internazionale è necessario non solo per uniformare le norme, almeno in Occidenti, così da dirigerle a favore dell’interesse generale senza danneggiare l’innovazione; ma anche per vigilare sul rispetto delle stesse (anche con audit, come avviene appunto per limitare la proliferazione nucleare) e per sviluppare strumenti e competenze di studio e controllo degli impatti dell’AI.
Redazione
Conclusioni
Negli ultimi mesi il ritmo dello sviluppo tecnologico ha raggiunto una velocità allarmante, tanto che si è arrivati addirittura a un appello, pubblicato dal Future of Life Institute e firmato da Elon Musk e molte altre personalità importanti del settore, per chiedere di sospendere per almeno 6 mesi la creazione di IA più potenti di GPT-4.
Si fa sentire quindi sempre di più la necessità di una regolamentazione forte di questi nuovi sistemi, ma la sfida è creare testi normativi che resistano alla prova del tempo: è ormai chiaro che anche nel giro di poche settimane potremmo assistere a cambiamenti radicali e a novità inimmaginabili. Per questo è importante seguire le indicazioni degli esperti, modellando le nuove regole sulla base di forti principi, rendendole così adattabili anche alle IA che verranno.