L’istituzione di organismi capaci di monitorare l’evoluzione dell’intelligenza artificiale nell’interesse pubblico appare come una via più praticabile rispetto alla regolamentazione giuridica dell’IA per indirizzare i possibili sviluppi della tecnologia e limitare i rischi a essa correlati.
È questa, ad esempio, la via che stanno seguendo Stati Uniti e Regno Unito, dove sono stati lanciati due “AI Safety Institute” il cui compito sarà quello di osservare gli sviluppi di queste tecnologie per individuare derive da ritenersi pericolose.
In Italia, invece, il governo ha istituito una Commissione Algoritmi intelligenza artificiale appuntando Giuliano Amato alla sua guida suscitando non poche polemiche, ma rivelando allo stesso tempo un approccio di natura giuridica alla gestione del problema, come se l’Italia non possa essere protagonista in questa importante partita se non come utilizzatore di queste tecnologie.
Gli AI Safety Institute
Credo che sia naturale chiedersi se l’istituzione di questi organi di vigilanza possa avere un effetto significativo nello sviluppo di queste tecnologie. Il NIST nell’annunciare l’AI Safety Institute e un consorzio correlato indica numerose aree come di rilievo per l’iniziativa tra cui:
- AI Governance
- AI Safety
- Trustworthy AI
- Responsible AI
- AI system design and development
- AI fairness
- AI Explanability and Interpretability
Sono tutti aspetti centrali alla valutazione del rischio dell’AI che saranno affrontati con strumenti e metodologie tipiche del NIST ovverosia mediante standard, linee guida, e best practices in materia.
Negli anni il NIST ha saputo catturare in numerose aree linee guida e best practices che hanno influenzato il panorama globale, basti pensare per esempio all’impatto che la Zero Trust Architecture ha avuto nel mondo della cybersecurity. C’è da augurarsi che anche nel campo dell’AI l’istituto sappia contribuire e influenzare in modo positivo, anche se già sui confini che definiscono il comportamento di una AI vi è ampio dibattito, culminato nell’annuncio di Grok-1, il nuovo modello della startup di Elon Musk xAI, caratterizzato come non filtrato in accordo al mantra del discusso imprenditore americano della comunicazione in assenza di moderazione che ha contribuito a trasformare Twitter in X.
Delineare un difficile confine
Da un punto di vista tecnico credo che oltre a definire in qualche modo, con strumenti ancora da inventare, i confini dei modelli di AI in modo che siano rispettosi dell’umanità e non pericolosi, sia necessario cominciare a riflettere sul codice che nei sistemi usa il modello di AI.
Le pipeline che poi integrano i servizi AI in un sistema vero e proprio manipolano costantemente i dati in entrata e in uscita dal modello, potendo creare un “campo di distorsione” che può alterarne in modo significativo il comportamento. Si tratta di una componente centrale da regolamentare, al pari della definizione dei requisiti sulle collezioni di dati utilizzate per addestrare i modelli stessi, e che viene spesso sottovalutata nella convinzione che il modello AI sia autonomo nella propria intelligenza.
Si tratta di un codice necessario anche per superare, almeno oggi, i limiti sulla dimensione del contesto del modello, e che porta ad una continua manipolazione dei dati in ingresso al fine di creare l’illusione di un’interazione più ricca di quello che è in realtà. La memoria e la capacità di attuare sono elementi centrali da affiancare ai modelli AI e ne caratterizzeranno il comportamento.
L’AI Safety Summit
In un contesto simbolico, presso Bletchley Park nei pressi di Londra – luogo in cui Alan Turing decifrò l’Enigma – si è tenuto un incontro di alto profilo che ha visto la partecipazione di leader politici e figure eminenti come Elon Musk per discutere dell’intelligenza artificiale: l’AI Safety Summit.
La presenza di numerosi esponenti politici ha dato al summit una connotazione quasi ufficiale e molte considerazioni hanno avuto una risonanza politica più che tecnica.
In particolare, i rischi correlati all’AI tanto discussi nel corso di questo anno non si ritengono imminenti e i partecipanti si sono divisi sulla reale possibilità anche nel futuro che questi rischi siano concreti. Le varie nazioni si stanno muovendo secondo propri programmi, ma i riflettori sono sicuramente puntati sugli Stati Uniti in questo momento leader indiscussi nello sviluppo di queste nuove tecnologie e dove il Presidente Biden ha appena usato il potere esecutivo per ordinare un insieme di misure volte ad assicurare un maggior controllo sullo sviluppo di questi modelli di AI.
L’approccio giuridico
La definizione di linee guida e best practices tecniche di un AI Safety Institute è un approccio molto diverso da quello di istituire commissioni allo scopo di normare giuridicamente l’intelligenza artificiale. Personalmente sono scettico su questo approccio, sia perché la tecnologia è in continua evoluzione spostando i confini e cambiando continuamente le definizioni, e anche perché la regolamentazione rischia di essere carente di quella concretezza e pertanto di limitare impieghi legittimi e importanti sia per il progresso del paese che per il suo sviluppo industriale.
Non condivido l’idea di chi chiedeva un nerd AI a capo della commissione italiana, ma ad oggi la strategia del paese sembra scarsamente ambiziosa, con la magra consolazione che non siamo l’unico paese europeo. Non è un caso che l’AI Act sia stato discusso prima che un vero e proprio ecosistema AI si potesse formare in Europa, e l’approccio è molto differente da quello intrapreso dal Presidente Biden più orientato alla vigilanza dell’evoluzione tecnologica. Ma difficilmente una commissione può definire una politica industriale, e corriamo il serio rischio di subire anche questa nuova tecnologia così come abbiamo fatto su molte altre nel passato.
Conclusioni
Si parla molto dell’intelligenza artificiale, forse anche troppo, e si specula sicuramente troppo sul futuro, con l’aggravante che spesso lo fa chi non capisce davvero lo stato della tecnologia. L’istituzione di enti capaci di sorvegliare per il pubblico interesse lo sviluppo di queste tecnologie sembra l’unica via percorribile visto lo stato dell’arte, e la velocità con cui gli annunci si susseguono. In fondo sono serviti quasi 20 anni per la stesura del GDPR, due decenni in cui abbiamo compreso la natura del problema e si è potuto pensare ad un framework giuridico di tutela degli individui.
Sembra irrealistico che in pochi mesi si possa raggiungere lo stesso livello di maturità col rischio di ostacolare lo sviluppo tecnologico pur restando incapaci di catturare quelle evoluzioni che possono rappresentare un pericolo per la comunità. Molti standard dell’aviazione sono ancora basati sul lavoro della NACA, l’agenzia che si è poi evoluta nella NASA, ed avevano una natura ingegneristica più che normativa. Forse dovremmo avere un’agenzia al pari di AgiD e ACN dedicata a queste nuove tecnologie.