L’Istituto statunitense per la sicurezza dell’Intelligenza Artificiale del Dipartimento del Commercio degli Stati Uniti (U.S. Artificial Intelligence Safety Institute), che opera presso il National Institute of Standards and Technology (NIST), ha annunciato di aver stipulato accordi con OpenAI e Anthropic per collaborare alla ricerca, alla sperimentazione e alla valutazione della sicurezza della AI prima e dopo che le relative società operino il rilascio pubblico dei nuovi modelli, messi a punto da ciascuna società.
Gli accordi Nist-OpenAI e Anthropic
L’US AI Safety Institute potrà accedere in anticipo ai modelli di intelligenza artificiale sviluppati da OpenAI e Anthropic per valutarne le capacità e identificare potenziali rischi.
Gli accordi stipulati hanno come obbiettivo assicurare una ricerca collaborativa su come valutare le capacità e i rischi per la sicurezza dei nuovi modelli, nonché sui metodi da adottare per mitigare i rischi.
Nel rendere nota la stipula di tali accordi il Direttore dell’U.S. AI Safety Institute, Elizabeth Kelly, ha dichiarato: “Questi accordi sono solo l’inizio ma rappresentano un’importante pietra miliare per contribuire a gestire responsabilmente il futuro dell’IA”.
Il tema importante è la sicurezza dell’IA
Questa dichiarazione, apparentemente scontata, si basa sulla convinzione, molto diffusa specialmente negli USA, che la IA può avere un futuro importante solo se i metodi su ci si basa e i risultati che produce nei diversi campi di applicazione non mettono in pericolo la fiducia delle persone e delle imprese.
Soggetti che quindi vanno rassicurati circa il funzionamento della IA e sui pericoli per le persone e per le società digitali.
Apparentemente la preoccupazione di fondo è analoga a quella che è alla base dello AI Act della UE ma merita sottolineare che per gli USA non si tratta solo di un tema etico risolvibile col riaffermare la centralità degli esseri umani, ma di un problema tecnico da risolvere con misure e vincoli anche tecnici che diano sicurezza alle persone, alle imprese e a tutta la società sugli effetti della IA.
In sostanza, negli USA quello che viene messo al centro non è il problema della centralità della persona umana, né quello dell’etica della IA ma è invece il tema della sicurezza della IA e, di conseguenza, della affidabilità che queste nuove tecnologie danno agli esseri umani di non comportare nuovi rischi per gli utenti e per la società tutta.
La legge in California su AI
Del resto, che questo sia il quadro reale nel quale l’iniziativa in esame deve essere collocata è confermato dal fatto che l’accordo tra lo U.S. Artificial Intelligence Safety Institute e le due società avviene in una fase nella quale in questa materia in California è in piena discussone il progetto di legge SB 1047 dal titolo “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, presentato a febbraio da Scott Wiener, senatore democratico di San Francisco.
- Questo disegno di legge, che ha suscitato l’opposizione forte e rumorosa di Meta e di Google e di molte decine di fondatori di start up e dell’Incubatore Y Combinator, ha tra i suoi punti più rilevanti quello di chiedere agli sviluppatori degli strumenti di intelligenza artificiale più potenti di verificare se gli strumenti messi sul mercato o accessibili al mercato possono consentire attacchi alle infrastrutture pubbliche, attacchi informatici molto dannosi o eventi che interessino le masse.
- Inoltre, sempre secondo questo disegno di legge, gli sviluppatori devono anche verificare se gli strumenti messi sul mercato possono contribuire a creare armi chimiche, biologiche, radioattive o nucleari.
- Lo stesso disegno di legge prevede di istituire CalCompute, e cioè un sistema pubblico di computer condivisi che potrebbe essere usato per costruire o ospitare strumenti di IA offrendo un’alternativa alle poche aziende oggi operanti che offrono servizi di cloud computing. Il CalCompute che si vuole istituire dovrebbe consentire, secondo i sostenitori del disegno di legge, di implementare in modo sicuro e protetto modelli di IA su “larga scala” e di promuovere lo sviluppo equo della tecnologia.
- Il disegno di legge SB 1047 ha anche come scopo proteggere gli informatori (whistleblowers) presso le aziende che costruiscono forme avanzate di IA e presso gli appaltatori di tali aziende in modo che non vi sia alcun ostacolo a segnalare pericoli o altre criticità nell’attività delle aziende presso le quali essi operano e che si occupano di IA. A questo proposito, Rebecca Bauer-Kahan, democratica di San Ramon, ha detto che “i dipendenti devono essere in grado di segnalare pratiche pericolose senza temere ritorsioni”.
Ancora più interessante la dichiarazione di Rebecca Buer-Kahn che, rilasciando una dichiarazione scritta, ha affermato “se i californiani vogliono sentirsi a proprio agio con queste nuove tecnologie, i dipendenti devono essere in grado di denunciare le pratiche pericolose senza temere ritorsioni”. Di conseguenza, ha continuato, “[le protezioni che il governo fornisce non dovrebbero essere limitate ai rischi noti dell’IA avanzata poiché questi sistemi possono essere in grado di causare danni che non possiamo ancora prevedere”.
Come si vede, l’elemento comune a tutte queste dichiarazioni è sempre la preoccupazione che i cittadini perdano fiducia nelle tecnologie IA e che, quindi, lo sviluppo di queste sia compromesso.
Le critiche delle compagnie che operano in questo settore sono state fortissime e hanno avuto in comune l’accusa che il disegno di legge avrebbe messo a rischio l’open source e le startup sia per i costi di conformità, sia per la prevedibile resistenza dei produttori di nuovi sistemi di IA a metterne a disposizione l’uso col rischio che gli utilizzatori operassero in modo da determinare danni dei quali anche essi, come produttori dei sistemi di IA, avrebbero potuto essere considerati responsabili.
Tanto Open AI, quanto Meta e Google hanno osservato che il disegno di legge SB 1047 della California, se approvato, avrebbe come effetto di scoraggiare l’innovazione della IA in California proprio in un momento in cui, invece, sarebbe necessario promuoverla.
Né sono mancati richiami al fatto che una legge così complessa e ambiziosa dovrebbe essere adottata a livello federale e non statale anche per massimizzare i suoi effetti positivi e minimizzare i suoi aspetti negativi.
A seguito di queste critiche sono state introdotte, durante il dibattito sul SB 1047, numerose innovazioni e modifiche senza, però, che l’atteggiamento critico e i timori delle OTT cambiassero sufficientemente.
La discussione è ancora in corso anche se il legislatore californiano ha approvato il testo e ora spetta al Governatore della California esprimersi definitivamente.
In ogni caso, la vicenda californiana, qui riassunta per sommi capi, è estremamente interessante perché stimola l’attenzione a una legislazione ben più concreta e attenta a rafforzare la fiducia dei cittadini rispetto alla IA di quanto non sia, invece, il tanto lodato (da noi europei) IA Act della UE.
La notizia che si è ora pervenuti a un accordo tra l’Istituto statunitense per la sicurezza della AI con Anthropic e OpenAI è, in questo quadro, particolarmente importante.
Dimostra, infatti, che le preoccupazioni del legislatore californiano di rafforzare le regole IA per tutelare la fiducia dei cittadini erano e sono fondate, e condivise dalle stesse imprese.
I limiti dell’Europa: cosa bisogna fare
Tutto questo riconferma dunque la limitatezza dell’approccio europeo alla regolazione della IA.
Allo stesso tempo individua in una cooperazione continua e costante tra imprese della IA e enti regolatori e di vigilanza la via maestra per rafforzare la fiducia dei cittadini e dei sistemi economici nell’uso di sistemi di IA.
Sarebbe bene che la UE seguisse con attenzione quanto sta avvenendo in California e che le imprese di IA facessero propria la preoccupazione di fondo di garantire, innanzitutto, la fiducia dei cittadini e delle imprese sull’uso delle tecnologie di IA. Cosa, questa, che è ben diversa e ben più concreta del puro richiamo etico all’antropocentrismo della IA.
Infine, non si può non dire che le preoccupazioni della California sono le stesse che condussero a suo tempo la UE ad approvare il GDPR per incentivare la fiducia dei cittadini nella società digitale.
Dunque, tutto è in movimento intorno a noi e anche le diverse sensibilità nelle diverse aree del mondo sono elementi integranti della società digitale globale nella quale viviamo e sempre più vivremo.