L’AI Act, il Regolamento europeo sull’Intelligenza Artificiale, sta avendo una gestazione piuttosto travagliata. Infatti Dragos Tudorache, membro del Parlamento europeo e vicepresidente del Gruppo Renew Europe, ha affermato che “Questo testo ha visto un livello di complessità persino più alto del “complex machinery” tipico di Bruxelles [1]. Tuttavia ci sono buone speranze di vedere il testo definitivo entro la primavera di quest’anno. Ecco come si sta muovendo l’Unione Europea, mentre si sta verificando l’ascesa di ChatGPT.
Artificial Intelligence Act: l’UE regola l’AI ma dimentica di proteggere la mente
L’introduzione della categoria delle General purpose AI
Una delle principali novità rispetto alla proposta iniziale dell’ormai lontano aprile 2021 è la categoria delle General purpose AI ovvero le Intelligenze Artificiali che possono essere potenzialmente utilizzate per molti scopi diversi – non tutti innocui o leciti.
Nel testo di compromesso pubblicato il 29 novembre 2021, il Consiglio europeo ha introdotto l’articolo 52a per disciplinare specificamente queste tecnologie. Da allora il tema è diventato uno degli aspetti più discussi nei vari emendamenti.
Nel frattempo abbiamo visto l’esplosione delle AI generative come ChatGPT, DALL-E, Lensa (che rientrerebbero in questa nuova categoria). Negli ultimi tempi, la corsa alla chatbot vede Microsoft e Google impegnate a integrare questi sistemi nei loro motori di ricerca.
La diffusione di queste nuove tecnologie sta anche mostrando molti rischi connessi al loro utilizzo in vari settori e si avverte con forza sempre maggiore la necessità di adottare regole che siano applicabili anche a queste, come è stato già fatto in Cina lo scorso gennaio.
AI Act e l’approccio basato sul rischio
La proposta di normativa europea si fonda sulla categorizzazione delle AI sulla base dei rischi che pongono. In particolare, per le AI considerate “ad alto rischio” sono previsti obblighi specifici, mentre vi sono sistemi vietati del tutto, perché, secondo la valutazione del legislatore europeo, pongono un rischio inaccettabile.
Questo approccio era stato scelto per evitare di ostacolare lo sviluppo tecnologico e coerentemente con gli obiettivi che si era posta la Commissione. Li troviamo elencati nella relazione di accompagnamento alla proposta dell’aprile 2021:
- assicurare che i sistemi di AI immessi sul mercato Ue e utilizzati siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione europea;
- garantire la certezza del diritto per facilitare gli investimenti e l’innovazione nell’intelligenza artificiale;
- migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di AI;
- facilitare lo sviluppo di un mercato unico per applicazioni di AI lecite, sicure e affidabili nonché prevenire la frammentazione del mercato.
Si può quindi osservare fin dagli esordi una certa cautela del legislatore che ha strutturato la nuova normativa al fine di favorire lo sviluppo e la circolazione delle IA, cercando quindi di mettere meno paletti possibili alle attività delle società che operano nel settore.
La proposta, almeno nella sua versione originaria, si limitava quindi “ai requisiti minimi necessari per affrontare i rischi e i problemi ad essa (l’AI, ndr) collegati” [2].
General purpose AI: le discussioni in fase di emendamento del Regolamento
Su questo impianto si è poi innestato il concetto di General purpose AI, mostrando subito una certa difficoltà di integrazione. Infatti è molto complesso determinare in anticipo il rischio posto da questo tipo di tecnologia, visto che, per definizione, può essere applicata per vari scopi diversi.
Ci si domanda come sia possibile, per esempio, stimare il rischio posto da un modello linguistico (come GPT-3) il cui utilizzo potrebbe spaziare dalla creazione di una chatbot per l’assistenza clienti di un sito web alla fornitura di un canale di contatto riservato per denunciare violenze e abusi (l’UNICEF, per esempio, ha pubblicato una guida per implementare servizi di questo ultimo tipo).
L’articolo 52a, proposto con gli emendamenti del novembre 2021 del Consiglio, affermava infatti che la semplice introduzione sul mercato, la messa in servizio o l’uso di general purpose AI non comportavano, di per sé, l’applicazione degli obblighi e requisiti previsti dal Regolamento. Ma era necessario che tali attività avessero uno scopo determinato da cui sarebbe derivato l’inserimento di queste tecnologie in una delle categorie previste dall’AI Act (come, per esempio, quella delle AI ad alto rischio). In molti casi è però piuttosto complesso determinare a monte quali siano le possibili applicazioni delle general purpose AI come, per esempio, le AI generative, come ci sta mostrando l’ascesa di ChatGPT e il progetto di Microsoft di incorporare la chatbot nel suo motore di ricerca Bing.
A che punto sono le proposte sull’AI Act
Negli ultimi mesi, molte discussioni e proposte dei deputati europei si sono concentrate sull’opportunità di inserire o meno le general purpose AI nella categoria di AI ad alto rischio. E sulla definizione di quest’ultimo concetto.
Nella versione iniziale del Regolamento una AI veniva definita ad alto rischio se poteva essere applicata in alcune aree critiche elencate nella normativa, mentre una delle ultime proposte di emendamento [3] prevede la possibilità, per gli sviluppatori dell’AI, di valutare autonomamente se il loro sistema pone un rischio significativo per la salute, la sicurezza o i diritti fondamentali delle persone.
In ogni caso, la tecnologia sarebbe considerata ad alto rischio se fosse una componente di sicurezza di un prodotto sottoposto a requisiti di conformità (come, per esempio, nei casi in cui l’IA è usata per garantire la sicurezza di un giocattolo).
I casi ChatGPT e DeepFake
L’Allegato III del Regolamento fornirà un elenco di aree critiche di applicazione dell’AI, per cui verranno previste disposizioni specifiche.
Una di queste aree è quella dell’identificazione biometrica e una delle ultime versioni dell’Allegato proposte dai deputati europei prevede l’estensione di questa nozione in modo da ricomprendere sistemi come Lensa, l’app che genera immagini a partire di selfie e foto caricate dagli utenti [4].
Sembra che verrà introdotta inoltre una categoria specifica per le AI generative di testi come ChatGPT da cui deriverebbe che per ogni testo creato tramite queste tecnologie dovrebbe essere esplicitata chiaramente l’origine “artificiale”, a meno che non sia sottoposto a revisione umana o che una organizzazione sia legalmente responsabile per esso.
Nel caso dei deepfake, invece, si rientrerebbe automaticamente nella categoria delle AI ad alto rischio a meno che non si tratti in modo palese di un’opera artistica. Pensiamo, per esempio, al caso della serie televisiva “Deep Fake Neighbour Wars”, realizzata modificando i connotati degli attori tramite deepfake, operazione esplicitata, oltre che nel titolo stesso, anche in ogni episodio.
Conclusioni
Il ritmo serrato con cui il testo dell’AI Act è modificato negli ultimi mesi, anche a causa del continuo avanzamento delle nuove tecnologie in questo settore, rende difficile ipotizzare quale sarà la sua forma definitiva e come il legislatore europeo deciderà di disciplinare le General Purposes AI.
Tuttavia, al momento, uno dei passi fondamentali per evitare i rischi derivanti dall’uso sregolato di questi sistemi, è assicurarne la trasparenza nei confronti degli utenti e dei fruitori dei contenuti delle AI generative.
Nelle prossime settimane si capirà come queste esigenze si concretizzeranno in una normativa ormai attesissima e di cui non possiamo più fare a meno.
Bibliografia
- Come citato nell’articolo di Supantha Mukherjee e Foo Yun Chee per Reuters. ↑
- Citazione tratta dalla relazione alla proposta di Regolamento. ↑
- Come riportato da Luca Bertuzzi su EURACTIV il 1 febbraio 2023. ↑
- Come riportato da Luca Bertuzzi su EURACTIV il 7 febbraio 2023. ↑
Articolo originariamente pubblicato il 06 Feb 2023