intelligenza artificiale

Come sono i primi “AI Safety Institute” e la scelta anomala dell’Italia



Indirizzo copiato

L’evoluzione rapida ed esponenziale dell’Intelligenza Artificiale impone la necessità di istituire organismi capaci di monitorarne i progressi nell’interesse pubblico. La complessità del tema e la velocità dei cambiamenti rendono questa attività un imperativo, ma l’Italia adotta una strategia diversa da Usa e UK

Pubblicato il 7 nov 2023

Antonio Cisternino

Università di Pisa



intelligenza artificiale

L’istituzione di organismi capaci di monitorare l’evoluzione dell’intelligenza artificiale nell’interesse pubblico appare come una via più praticabile rispetto alla regolamentazione giuridica dell’IA per indirizzare i possibili sviluppi della tecnologia e limitare i rischi a essa correlati.

È questa, ad esempio, la via che stanno seguendo Stati Uniti e Regno Unito, dove sono stati lanciati due “AI Safety Institute” il cui compito sarà quello di osservare gli sviluppi di queste tecnologie per individuare derive da ritenersi pericolose.

In Italia, invece, il governo ha istituito una Commissione Algoritmi intelligenza artificiale appuntando Giuliano Amato alla sua guida suscitando non poche polemiche, ma rivelando allo stesso tempo un approccio di natura giuridica alla gestione del problema, come se l’Italia non possa essere protagonista in questa importante partita se non come utilizzatore di queste tecnologie.

Gli AI Safety Institute

Credo che sia naturale chiedersi se l’istituzione di questi organi di vigilanza possa avere un effetto significativo nello sviluppo di queste tecnologie. Il NIST nell’annunciare l’AI Safety Institute e un consorzio correlato indica numerose aree come di rilievo per l’iniziativa tra cui:

  • AI Governance
  • AI Safety
  • Trustworthy AI
  • Responsible AI
  • AI system design and development
  • AI fairness
  • AI Explanability and Interpretability

Sono tutti aspetti centrali alla valutazione del rischio dell’AI che saranno affrontati con strumenti e metodologie tipiche del NIST ovverosia mediante standard, linee guida, e best practices in materia.

Negli anni il NIST ha saputo catturare in numerose aree linee guida e best practices che hanno influenzato il panorama globale, basti pensare per esempio all’impatto che la Zero Trust Architecture ha avuto nel mondo della cybersecurity. C’è da augurarsi che anche nel campo dell’AI l’istituto sappia contribuire e influenzare in modo positivo, anche se già sui confini che definiscono il comportamento di una AI vi è ampio dibattito, culminato nell’annuncio di Grok-1, il nuovo modello della startup di Elon Musk xAI, caratterizzato come non filtrato in accordo al mantra del discusso imprenditore americano della comunicazione in assenza di moderazione che ha contribuito a trasformare Twitter in X.

Delineare un difficile confine

Da un punto di vista tecnico credo che oltre a definire in qualche modo, con strumenti ancora da inventare, i confini dei modelli di AI in modo che siano rispettosi dell’umanità e non pericolosi, sia necessario cominciare a riflettere sul codice che nei sistemi usa il modello di AI.

Le pipeline che poi integrano i servizi AI in un sistema vero e proprio manipolano costantemente i dati in entrata e in uscita dal modello, potendo creare un “campo di distorsione” che può alterarne in modo significativo il comportamento. Si tratta di una componente centrale da regolamentare, al pari della definizione dei requisiti sulle collezioni di dati utilizzate per addestrare i modelli stessi, e che viene spesso sottovalutata nella convinzione che il modello AI sia autonomo nella propria intelligenza.

Si tratta di un codice necessario anche per superare, almeno oggi, i limiti sulla dimensione del contesto del modello, e che porta ad una continua manipolazione dei dati in ingresso al fine di creare l’illusione di un’interazione più ricca di quello che è in realtà. La memoria e la capacità di attuare sono elementi centrali da affiancare ai modelli AI e ne caratterizzeranno il comportamento.

L’approccio giuridico

La definizione di linee guida e best practices tecniche di un AI Safety Institute è un approccio molto diverso da quello di istituire commissioni allo scopo di normare giuridicamente l’intelligenza artificiale. Personalmente sono scettico su questo approccio, sia perché la tecnologia è in continua evoluzione spostando i confini e cambiando continuamente le definizioni, e anche perché la regolamentazione rischia di essere carente di quella concretezza e pertanto di limitare impieghi legittimi e importanti sia per il progresso del paese che per il suo sviluppo industriale.

Non condivido l’idea di chi chiedeva un nerd AI a capo della commissione italiana, ma ad oggi la strategia del paese sembra scarsamente ambiziosa, con la magra consolazione che non siamo l’unico paese europeo. Non è un caso che l’AI Act sia stato discusso prima che un vero e proprio ecosistema AI si potesse formare in Europa, e l’approccio è molto differente da quello intrapreso dal Presidente Biden più orientato alla vigilanza dell’evoluzione tecnologica. Ma difficilmente una commissione può definire una politica industriale, e corriamo il serio rischio di subire anche questa nuova tecnologia così come abbiamo fatto su molte altre nel passato.

Conclusioni

Si parla molto dell’intelligenza artificiale, forse anche troppo, e si specula sicuramente troppo sul futuro, con l’aggravante che spesso lo fa chi non capisce davvero lo stato della tecnologia. L’istituzione di enti capaci di sorvegliare per il pubblico interesse lo sviluppo di queste tecnologie sembra l’unica via percorribile visto lo stato dell’arte, e la velocità con cui gli annunci si susseguono. In fondo sono serviti quasi 20 anni per la stesura del GDPR, due decenni in cui abbiamo compreso la natura del problema e si è potuto pensare ad un framework giuridico di tutela degli individui.

Sembra irrealistico che in pochi mesi si possa raggiungere lo stesso livello di maturità col rischio di ostacolare lo sviluppo tecnologico pur restando incapaci di catturare quelle evoluzioni che possono rappresentare un pericolo per la comunità. Molti standard dell’aviazione sono ancora basati sul lavoro della NACA, l’agenzia che si è poi evoluta nella NASA, ed avevano una natura ingegneristica più che normativa. Forse dovremmo avere un’agenzia al pari di AgiD e ACN dedicata a queste nuove tecnologie.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati