l’intervento

AI Act, Casaleggio: ”Ecco perché non è ancora tempo di regole”



Indirizzo copiato

Esaminando la proposta di Regolamento AI Act, appare chiaro che probabilmente la tecnologia non è ancora abbastanza matura per essere regolata da leggi che prevedono multe fino al 7% del fatturato dell’azienda e che ogni popolo regolerà solo le interazioni dei propri cittadini. Ecco le cose che non possono funzionare

Pubblicato il 12 lug 2023

Davide Casaleggio

Casaleggio Associati e presidente e fondatore di Camelot.vote



Programma nazionale intelligenza artificiale

La Commissione Europea vuole regolare l’Intelligenza Artificiale, con l’AI Act ora approvato dal Parlamento europeo. Seppure alla base ci siano buoni propositi, l’iniziativa non avrà successo. L’unica cosa che i Governi oggi possono regolare è il contatto diretto con i propri cittadini.

Per questo motivo un punto apprezzato (quasi) unanimemente è il divieto del riconoscimento automatico dei cittadini europei tramite il riconoscimento biometrico in tempo reale e il fatto che chi interagisce con una AI debba essere avvertito. A questo dovrà essere affiancata una formazione dei cittadini europei sui suoi possibili utilizzi.

I punti dell’AI Act che non possono funzionare

Ci sono tuttavia una serie di richieste che invece non potranno funzionare, ad esempio:

Made with AI

Si richiede che i prodotti dell’AI contengano un watermark per poterli riconoscere da oggetti prodotti dall’uomo, dando per scontato tuttavia che questi modelli producano il prodotto finale e che non vengano rielaborati successivamente, anche solo con un pixel dall’uomo. Se l’AI verrà utilizzato per creare il design di un vestito, il cliente finale che lo indosserà non saprà come sia stato progettato. Dall’altra parte anche tutti i servizi che già inseriscono un watermark nel testo prodotto non danno la certezza di poterlo identificare, ma solo un’indicazione di probabilità (oltre al fatto che esistono strumenti per rimuovere questi watermark).

Copyright

Si richiede una trasparenza sui dataset utilizzati per allenare il modello. La trasparenza è sempre una buona cosa, ma l’obiettivo finale sembrerebbe in realtà esporre queste aziende a possibili ricorsi da parte dei proprietari delle informazioni, immagini e libri utilizzati, senza però chiarire quale siano i limiti di utilizzo lasciando che siano i tribunali a sviscerare la questione. Il tema dovrebbe invece essere affrontato direttamente prima di creare mille rivoli giudiziari che naturalmente contrasteranno tra di loro a seconda di dove verranno promossi https://archive.vn/lh8Lv: è possibile scrivere un libro dopo averne letti cento sul tema? È possibile dipingere un quadro dopo averne visti altri che ci hanno ispirato? Perché non dovrebbe essere possibile per una AI? Forse l’opt out sarà l’unica alternativa concreta. Ad esempio per molti modelli di dati utilizzati si può verificare su https://haveibeentrained.com/ se le proprie immagini sono state utilizzate e chiederne la rimozione, oppure singoli strumenti come Midjourney permettono di richiedere la rimozione dei propri contenuti dal db di training. Un altro modo di gestire la cosa potrebbe essere pensare a che tipo di accesso dare ai propri contenuti, se a pagamento come un libro, o con limitazioni di quantità come ha da poco fatto Elon Musk per i dati di Twitter proprio in ottica di limitarne l’utilizzo da sistemi AI. Un sistema, questo, molto simile a quello che oggi adottiamo nei confronti dei motori di ricerca indicando se i contenuti della pagina possano o meno essere acquisiti.

Ci sono inoltre dei principi che possono essere condivisibili e permettono alle aziende di proteggersi da future contestazioni, ma saranno difficili da codificare in leggi vista la veloce evoluzione degli strumenti:

Progettare i modelli per evitare contenuti illegali

Il fatto di specificare la parola “contenuti” lascia trasparire il fatto che si ha una visione limitata di quello che già oggi possono fare questi modelli: non solo contenuti, ma anche azioni nel mondo reale. Come principio generale dovrebbe valere anche per i coltelli da cucina (…), sarà difficile progettare strumenti che non possano essere utilizzati in modo illegale. La responsabilità dovrà sempre essere di chi li utilizza in modo criminale, non dello strumento.

Tra le attività che il settore pubblico potrebbe fare nel contesto della formazione è una valutazione trasparente e continua di questi sistemi, ad esempio:

Check dei bias dei sistemi AI

I controlli dei bias sui sistemi sono dei misuratori di qualità dei sistemi AI e distingueranno in futuro i sistemi che funzionano meglio da tutti gli altri. La tutela realmente importante per i cittadini è che i servizi erogati non si basino su bias generati da sistemi automatizzati: ad esempio, l’assicurazione medica dovrà sempre basarsi su informazioni e algoritmi trasparenti.

Privacy

In alcuni casi i contenuti del dataset potrebbero ri-uscire da modello e se il modello ha letto dei dati privati potrebbe ripubblicarli nelle sue creazioni. Per questi casi come Google è riuscita ad oscurare facce e targhe del suo google street, sicuramente potranno esserci dei sistemi di offuscamento di dati sensibili ripubblicati.

AI Act, nessun modello di AI generativa è compliant

In seguito alla scrittura di questo regolamento da parte della Commissione Europea un gruppo di ricerca dell’Università di Stanford ha valutato i principali modelli generativi di AI presenti sul mercato e ha concluso che nessuno di quelli sul mercato sono compliant con quanto richiesto dalla Commissione Europea.

Il risultato immediato è che il lancio in Europa di Bard di Google (concorrente diretto di ChatGPT di Microsoft) è stato posticipato sine die.

Come per lo stop di un mese di ChatGPT in Italia questa regolamentazione ha una sola conseguenza immediata: le aziende europee e italiane rimarranno indietro su queste tecnologie rispetto a quelle di altri Paesi che vendono comunque i loro servizi ai cittadini europei.

Conclusioni

Quello che appare chiaro è il fatto che probabilmente la tecnologia non è ancora abbastanza matura per essere regolata da leggi che prevedono multe fino al 7% del fatturato dell’azienda.

Infatti, negli Stati Uniti per ora ci si è limitati a linee guida.

Un indizio sul fatto che ogni popolo regolerà solo le interazioni dei propri cittadini (e solo per loro) i è che il riconoscimento biometrico automatico in Europa potrà essere applicato per le misure di gestione dell’immigrazione, ed infatti la Francia ha autorizzato l’uso di droni per il controllo della frontiera con l’Italia.

In un mondo globalizzato come il nostro l’impatto sull’economia di queste tecnologie sarà immediato comunque. Le leggi troppo restrittive premature identificheranno solo in quali Stati non si svilupperanno i nuovi unicorni dell’A.I.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3