verso l’AI Act

Governare l’intelligenza artificiale: un dovere pubblico



Indirizzo copiato

L’AI Act in arrivo cerca il giusto equilibrio tra regole e innovazione.Ma la vera innovazione non può che avvenire a garanzia di diritti e interessi di tutti. A fronte dell’avanzata dei prodotti con IA, il governo pubblico della materia è dovere ineludibile, come detto anche da Frattasi (ACN) al Cybersecurity360Summit

Pubblicato il 29 nov 2023

Alessandro Longo

Direttore agendadigitale.eu

Andrea Viliotti

Innovation Strategist



intelligenza artificiale europa

OpenAI si è rivelato un tentativo fallito di autoregolamentazione dell’AI e ora, con il nuovo board, sembra a tutti gli osservatori che la tecnologia andrà sempre più veloce; con nuovi prodotti e applicazioni. La concorrenza del resto incalza: è di ieri il chatbot Amazon Q, specializzato per l’uso in ufficio, con tutela (promessa) su privacy, proprietà intellettuale.

L’industria dei chatbot con AI avanza

Amazon Q si unisce ad altri prodotti ai generativi per il business, come Bing Enterprise, Google Duet AI, ChatGpt Enterprise, Microsoft Copilot.

Anche questi prodotti provano ad affrontare il tema della tutela dati e diritti di terzi, per rassicurare i clienti (business).

Perché bisogna governare l’IA

Ma ora, soprattutto ora alla luce delle vicende di OpenAI, sempre più Paesi sono convinti che non si possa lasciare la safety dell’IA alla discrezione delle imprese che la producono. E che serva piuttosto una governance pubblica, norme e indirizzi, per mitigare i rischi delle sue applicazioni più controverse. E’ stato questo uno dei messaggi di Bruno Frattasi, direttore dell’ACN al convegno Cybersecurity360Summit di ieri. L’Agenzia cyber proprio questa settimana ha aderito alle linee guida internazionali per lo sviluppo sicuro dell’IA. Il nostro Paese è sulla partita insomma.

Al tempo stesso, i Governi – alcuni più di altri – non si preoccupano solo di evitare i rischi ma anche pensano a come incoraggiare l’uso vantaggioso dell’IA: per rilanciare la produttività, sostenere la ricerca, l’innovazione in Sanità.

Nella cybersecurity – come ha detto Frattasi – questo duplice ruolo pubblico significa ad esempio sia fare in modo che i prodotti di IA non abbiano vulnerabilità pericolose e che non siano usati a scopi malevoli (almeno, ridurre questo rischio); sia che possano servire a migliorare le nostre difese cyber.

AI Act, i lavori in corso

La sfida che vediamo ora in Europa con l‘AI Act, in discussione al trilogo (Consiglio, Commissione, Parlamento europei) è trovare il giusto equilibrio tra regole e innovazione.

Che non sono due valori dicotomici, in realtà: la vera innovazione, in fondo, non può che avvenire a garanzia di diritti e interessi di tutti.

L’attuale bozza, uscita dal Parlamento europeo dopo l’iniziativa della Commissione, privilegia un approccio regolamentato. Questo approccio si basa sulla classificazione delle applicazioni AI in base al rischio, distinguendo tra quelle potenzialmente dannose, che richiedono una regolamentazione attenta, e quelle che possono essere sviluppate più liberamente​​.

Questo dibattito si inserisce nell’amplio contesto delle preoccupazioni relative agli impatti dell’IA su lavoro, economia, finanza, disinformazione, discorsi di odio e la concentrazione del potere nelle mani di poche grandi aziende. Ci sono anche preoccupazioni etiche e strategiche, come l’uso dell’IA in ambito militare e nel controllo dei sistemi di connettività nelle zone di guerra​​.

L’Europa si trova in una posizione unica, con un sistema giuridico incentrato sui diritti umani che potrebbe rallentare lo sviluppo delle tecnologie AI favorendo ad altri attori globali. Tuttavia, ciò potrebbe anche essere visto come un’opportunità per progettare IA di un tipo nuovo, eticamente consapevoli e focalizzate sulla qualità dell’informazione e sui diritti dei cittadini.

In questo contesto, l’AI Act europeo appare come un elemento cruciale per determinare la direzione futura dello sviluppo dell’IA, bilanciando innovazione, etica, e sicurezza.

AI ACT, i contenuti

I 771 emendamenti all’AI Act da parte del Parlamento Europeo nel giugno 2023, segnano una svolta decisiva nel panorama regolatorio dell’intelligenza artificiale. Questi emendamenti non sono solo un ritocco al testo legislativo del 2021, ma una vera e propria rivoluzione che tocca le fondamenta stesse della regolamentazione, con modifiche significative anche agli allegati, in particolare all’Allegato III che elenca i sistemi AI ad alto rischio, su cui servono garanzie maggiori.

In questo contesto, l’intelligenza artificiale si divide in quattro livelli di rischio: da inaccettabile a minimo. L’Europa pone un veto sui sistemi AI discriminatori e intrusivi, delineando un confine chiaro tra ciò che è permesso e ciò che non lo è. La responsabilità è distribuita lungo tutta la catena di produzione – dai fornitori ai produttori, dagli importatori ai distributori.

La conformità ai principi europei riveste un ruolo cruciale. L’Emendamento 10 enfatizza la necessità di orientare lo sviluppo dell’intelligenza artificiale in conformità con i valori dell’Unione Europea. Questo include il rispetto dei diritti umani e delle libertà fondamentali, come delineato nei trattati dell’Unione, nella Carta dei diritti fondamentali dell’Unione Europea e nelle normative internazionali sui diritti umani.

Un punto cruciale è la robustezza e la sicurezza dei sistemi di AI. L’importanza della robustezza tecnica e della cybersecurity è stata enfatizzata per i sistemi di AI ad alto rischio. Inoltre, il regolamento ha ridefinito e ampliato l’elenco dei sistemi di AI considerati ad alto rischio e ha introdotto norme rigide per sistemi di AI non consentiti, inclusi quelli che utilizzano l’identificazione biometrica remota “in tempo reale” e quelli che rischiano di discriminare individui o gruppi.

La riformulazione dell’AI Act riflette una maturata consapevolezza dei rischi e delle opportunità che l’intelligenza artificiale porta con sé, specialmente nel campo dei modelli di linguaggio di grandi dimensioni (LLM), ormai fenomeni di massa.

Si chiede ad esempio a chi fa modelli di base di IA di rispettare principi di trasparenza e dare garanzie di non violazioni delle nostre norme (vedi articolo sotto per dettagli).

Ricordiamo che le aziende che si spingono oltre i limiti dell’AI Act affrontano sanzioni pesanti, con multe che possono raggiungere i 30 milioni di euro o il 6% del fatturato annuo.

Gli emendamenti del 2023 hanno introdotto anche nuove strutture e organi per la governance dei sistemi di AI, assegnando a ogni Stato membro un’autorità nazionale di controllo e stabilendo meccanismi per la gestione dei dati relativi ai sistemi di AI.

Questo approccio europeo potrebbe servire da modello per un equilibrio tra progresso tecnologico e salvaguardia dei valori fondamentali, plasmando non solo l’ambito normativo, ma anche il futuro stesso dell’intelligenza artificiale.

AI generativa e AI Act: lo scontro

Tuttavia secondo molti l’arrivo dell’IA generativa – nonostante gli emendamenti last minute del Parlamento- hanno fatto apparire già vecchio l’AI Act. E soprattutto ora in sede di trilogo ci si pone il tema di come regolamentare i modelli fondazionali (quelli alla base dell’IA generativa). In modo più o meno stringente.

In questa sede Italia, Francia e Germania hanno siglato un accordo trilaterale per una regolamentazione light di questi modelli.

Questo accordo, che potrebbe influenzare l’adozione dell’AI Act europeo, pone l’accento sull’importanza dell’autoregolamentazione. Si prevede l’istituzione di un codice di condotta per gli sviluppatori di AI, enfatizzando un approccio più flessibile e adattabile, in contrasto con il modello più prescrittivo e preventivo dell’AI Act. Inoltre, l’accordo prevede un ruolo di supervisione per un’entità europea, che potrebbe avere implicazioni significative per l’armonizzazione delle normative degli Stati membri con quelle dell’UE.

Al momento non è chiaro se questo documento avrà seguito. Dal dipartimento innovazione (sottosegretario Alessio Butti) ricordano che la delega sulla strategia dell’IA è loro; come si legge del decreto sulle deleghe di Butti, Gazzetta ufficiale 22 novembre 2022 e più di recente nella nota del governo, 9 novembre 2023, sulla riunione del comitato interministeriale per la transizione digitale.

Non starebbe allora decidere sulle regole Mimit, che ha firmato il documento. La cui validità insomma è in forse.

E Butti propende per poche e chiare regole sull’IA; non autoregolamentazione. Si vedrà: il 6 dicembre, quando è previsto il nuovo incontro del trilogo. L’obiettivo dell’Europa è sempre di approvare l’Act a fine anno per una entrata in vigore nel 2024.

La sfida: regole e crescita economica dell’Europa via IA

Di fondo, alcuni Paesi europei temono che regole troppo stringenti in questo campo – come avviene tipicamente nell’innovazione – favoriscano gli incumbent al danno di startup, nuovi entranti. E’ l’accusa che anche startup americane dell’IA lanciano a OpenAI, che invoca regole governative: di volere tagliare le gambe alla concorrenza.

Gli incumbent sono americani; noi siamo quelli che devono farsi strada.

L’associazione di settore Digital Europe, che rappresenta le principali aziende innovative europee, lancia proprio quest’allarme, rischio iper-regolamentazione con AI Act, chiedendo di non regolamentare la tecnologia ma le applicazioni a rischio; si allinea al documento firmato da Germania, Italia e Francia. Sostiene che una pmi con 50 dipendenti se dovesse lanciare un prodotto con AI dovrebbe subire costi da 300 mila euro per la conformità.

E’ anche vero che Germania e Francia sembrano più avanti dell’Italia in questo percorso.

Francia

Il governo francese, impegnandosi nel 2021 con un finanziamento di 2,2 miliardi di euro distribuiti nell’arco di cinque anni, mira a rafforzare la sua posizione come leader globale nel settore dell’intelligenza artificiale.

In particolare a giugno ha annunciato un fondo per le startup AI da 500 milioni.

A novembre ha annunciato Kyutai, un centro di ricerca indipendente focalizzato sulla scienza aperta, con una dotazione iniziale di 300 milioni. Questo progetto ha ricevuto il sostegno di figure influenti nel mondo della tecnologia e del business: Xavier Niel, noto imprenditore nel settore delle telecomunicazioni e fondatore di Free; Eric Schmidt, ex CEO di Google e veterano dell’industria tecnologica; e Rodolphe Saadé, leader di rilievo nel settore del trasporto e della logistica, presidente e CEO del gruppo CMA CGM. In aggiunta, progetti innovativi come Mistral AI hanno ulteriormente rafforzato l’impegno francese nell’AI. Mistral è una startup che vuole competere con OpenAI sul fronte dell’IA generativa.

La strategia adottata si concentra sul sostegno all’ecosistema AI, includendo la liberalizzazione dei dati e l’elaborazione di un quadro normativo in linea con gli obiettivi dell’AI Act. Il presidente francese Emmanuel Macron, in un evento con startup a Parigi, ha invitato l’Europa a trovare un equilibrio fra innovazione e normativa, criticando un approccio eccessivamente restrittivo dell’AI Act.

Germania

La Germania ha già un suo campione, la startup Aleph Alpha, che può avere fatto azioni di lobby in sede di trilogo.

Il Paese con un piano di investimento di quasi 500 milioni di euro entro il 2024, mira a rafforzare le infrastrutture di supercomputing e la ricerca nell’AI, puntando a sviluppare competenze specifiche, sostenere gruppi di ricerca guidati da donne, e creare 150 nuove cattedre professorali. Nonostante l’entusiasmo per questi nuovi progetti e fondi, esistono preoccupazioni riguardo all’AI Act europeo.

Bitcom, rappresentante del settore digitale tedesco, ha evidenziato una lenta adozione dell’AI, attribuendo questo fenomeno a regole restrittive sul trasferimento dei dati. L’associazione tedesca di AI, che rappresenta oltre 400 aziende, ritiene che l’AI Act potrebbe diventare un ostacolo per l’industria AI del continente, poiché le normative proposte potrebbero aumentare i costi di sviluppo per i prodotti AI e creare incertezze legali. Holger Hoos, professore di AI, ha sollevato dubbi sull’efficacia del sostegno dell’UE all’ecosistema AI, suggerendo la necessità di un obiettivo comune e ambizioso, come un “CERN per l’AI”, per stimolare il progresso europeo in questo campo​​.

Italia

Il governo italiano ha aumentato significativamente il suo impegno nello sviluppo dell’intelligenza artificiale. Ha annunciato un fondo 800 milioni di euro in investimenti.

Il fondo però sembra ancora a livello di annuncio a quanto annunciano dal dipartimento. I soldi verranno da dipartimento innovazione, Cdp (Cassa depositi e prestiti) e Acn (Agenzia cyber).

Il Governo sta al momento elaborando una nuova strategia sull’IA, aggiornando quella precedente.

L’approccio italiano all’AI si basa su tre pilastri fondamentali: competenze e conoscenza, ricerca, sviluppo e innovazione, e un quadro di regole incentrate sull’innovazione. Questo include la rapida implementazione del Centro nazionale per l’AI di Torino e un’enfasi sulla formazione e sull’educazione per accrescere le competenze digitali, cruciale per il progresso tecnologico del Paese​​.

Un confronto internazionale

L’AI Act Europeo non mira solo a disciplinare l’uso dell’AI nel Vecchio Continente, ma aspira a diventare un punto di riferimento a livello mondiale, una sorta di “Effetto Bruxelles” per il resto del globo.

Guardando questo scenario dal punto di vista globale, emerge un contrasto netto tra l’approccio europeo e quello di altre potenze tecnologiche come Stati Uniti, Regno Unito e Cina. L’Europa, con i suoi quattro livelli di rischio per i sistemi AI, si distingue per una regolamentazione più dettagliata e prescrittiva. Al contrario, paesi come gli USA e il Regno Unito adottano un approccio più flessibile, meno vincolante, che potrebbe accelerare l’innovazione, ma con meno salvaguardie.

Tuttavia, nonostante le sue nobili ambizioni, l’impatto globale dell’AI Act europeo potrebbe essere meno incisivo di quanto sperato. La sua efficacia oltre i confini europei sembra limitata, essendo rilevante principalmente per i prodotti venduti all’interno dell’UE. Questo pone un dilemma interessante: mentre l’Europa si impegna a definire un quadro etico e sicuro per l’AI, potrebbe trovarsi in una corsa tecnologica globale con le mani legate, rischiando di essere sorpassata da nazioni con regolamentazioni meno stringenti.

Al tempo stesso sarebbe pericoloso allentare le regole di salvaguardia solo per evitare di danneggiare la competitività europea. Significherebbe partecipare a una corsa al ribasso sui diritti e alla fine non ne verrebbe un vero progresso socio-economico.

Questo scenario evidenzia una sfida cruciale per l’Europa: trovare l’equilibrio tra mantenere elevati standard di sicurezza ed etica e non inibire la sua capacità di competere a livello globale nel campo dell’intelligenza artificiale.

Conclusione

La realizzazione dell’AI Act segnerà un traguardo significativo per il progresso dell’intelligenza artificiale nell’ambito dell’Unione Europea. Questa legge mira a stabilire un equilibrio raffinato tra le necessità dell’industria e la protezione imprescindibile dei diritti umani e la sicurezza delle persone.

La sfida è complessa, ma è essenziale per l’Europa perseguire una strategia dinamica e adattabile, che consenta alle sue imprese di mantenersi al passo con la concorrenza a livello internazionale. Trovare una sintesi tra un’innovazione consapevole e una normativa efficace sarà decisivo per assicurare che l’Europa non solo partecipi ma anche assuma un ruolo guida nello sviluppo dell’intelligenza artificiale, affermando la propria influenza nel contesto globale.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Social
Analisi
Video
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati