Un comunicato della Casa Bianca annuncia otto impegni delle società dell’intelligenza artificiale nei confronti del Governo.
Gli impegni delle aziende dell’AI
In conformità con l’attenzione dedicata fin dall’inizio del loro incarico, dal Presidente Biden e dalla Vice Presidente Harris per governare i rischi posti dalla AI e proteggere la sicurezza e i diritti degli americani, il Presidente USA ha convocato alla Casa Bianca sette Aziende leder nella AI (Amazon, Anthropic, Google, Inflection Meta, Microsoft e Open AI).
Scopo della convocazione, chiesta dalle stesse imprese, era proprio quello condividere impegni volontariamente assunti dalle imprese su sollecitazione della Amministrazione per assicurare lo sviluppo di una AI technology sicura, fondata su uno sviluppo trasparente della loro attività.
Nella riunione è stato ribadito che le Aziende che sviluppano tecnologie basate sulla AI hanno la responsabilità di garantire la sicurezza dei loro prodotti. Allo stesso tempo la Amministrazione Biden-Harris ha incoraggiato l’industria ha adottare gli standards più elevati possibile per garantire che la innovazione della AI non comprometta i diritti e la sicurezza degli USA.
I tre principi
Gli impegni proposti dall’Amministrazione, che le Aziende invitate hanno scelto di sottoscrivere immediatamente, sottolineano tre principi che l’Amministrazione, come ha ripetuto nella Conferenza stampa il Presidente, considera fondamentali per chi opera nell’ambito AI per garantire safety, security and trust delle attività offerte e della tecnologia messa a disposizione degli utenti. In questo quadro tanto il Presidente nelle dichiarazioni rese nella Conferenza stampa dedicata a questo incontro, quanto il comunicato della Casa Bianca del 21 luglio 2023, sottolineano che l’Amministrazione USA intende richiamare continuamente l’attenzione delle Compagnie sulla loro responsabilità e adottare iniziative e azioni concrete per garantire la sicurezza degli Americani.
Verso un executive order presidenziale
Si annuncia così che l’Amministrazione sta mettendo a punto un Executive Order presidenziale per aiutare non solo a garantire la sicurezza degli americani di fronte alle tecnologie AI ma anche per fare dell’America la potenza guida sulla strada di tecnologie di AI che assicurino una innovazione responsabile.
Governare i rischi
L’impegno, immediatamente sottoscritto dalle sette aziende leader presenti alla riunione, si basa su alcuni punti precisi.
Il primo riguarda la condivisione del principio che occorre garantire che i prodotti siano sicuri e tutelino la incolumità degli utenti prima che essi siano messi sul mercato.
A tal fine i prodotti dovranno essere testati da esperti indipendenti che diano garanzie circa la sicurezza del prodotto rispetto alle principali fonti di rischio delle tecnologie AI, quali la biosicurezza e la cybersicurezza nonché agli effetti di larga scala che l’uso della AI può avere rispetto alla società.
In questo quadro le Aziende dovranno condividere le informazioni con le industrie e il governo e con la società civile e l’accademia.
Lo scopo è sempre quello di governare i rischi: a tal fine dovranno essere definite le migliori pratiche per tutelare la sicurezza e per assicurare l’informazione sui tentativi di aggirare le protezioni, in un quadro di cooperazione tecnica fra gli operatori.
Sicurezza
Il secondo principio condiviso tra Amministrazione e Compagnie riguarda l’obbligo di considerare la sicurezza come l’aspetto primario dei sistemi da costruire e mettere in campo.
Le Aziende si impegnano a investire in cybersicurezza e a salvaguardare e proteggere i proprietari della tecnologia senza imporre modelli di peso insostenibile. Il peso dei modelli adottati per garantire la sicurezza è allo stesso tempo una parte essenziale e molto critica dei sistemi di AI e le Aziende concordano che essi debbano essere previsti e imposti solo dopo che i rischi sono stati concretamente analizzati.
Infine le Aziende concordano sulla necessità di facilitare la possibilità per le parti terze di scoprire e comunicare le vulnerabilità eventualmente riscontrate nei sistemi di AI.
Fiducia
Il terzo punto riguarda la necessità di conquistare la fiducia del pubblico
Anche questo punto si articola in temi precisi:
Innanzitutto le Aziende sottoscrittrici e la Amministrazione USA sottolineano la necessità di meccanismi di AI che garantiscano la possibilità per gli utenti di sapere che i contenuti sono generati da sistemi di AI in modo da ridurre i rischi di frodi e inganni.
In secondo luogo le Aziende devono rendere pubbliche le notizie relative alle capacità dei loro sistemi di AI e agli ambiti che consentono usi appropriati come quelli che invece comportano usi inappropriati, questi documenti devono garantire sia dai rischi per la sicurezza delle persone che dai rischi per la sicurezza dei gruppi sociali e proteggere da bias e comportamenti non corretti.
A questo si deve aggiungere che le Aziende sono impegnate a dare priorità alle ricerche che tutelino da rischi per i gruppi sociali, compresi quelli relativi a danni e discriminazioni, nonché a favorire ricerche per proteggere la privacy.
AI for social good
Infine le Aziende sono tenute a sviluppare e mettere in campo sistemi che possano aiutare la società ad affrontare le sfide più rilevanti prevedibili all’orizzonte. Dalla lotta al cancro ai cambiamenti climatici la AI può contribuire enormemente a incrementare la prosperità e la sicurezza di tutti e a questo prioritariamente le Aziende devono orientare i loro sforzi in materia di AI.
Gli otto impegni delle società AI
- Le aziende si impegnano a testare la sicurezza interna ed esterna dei loro sistemi di IA prima del loro rilascio.
- Le aziende si impegnano a condividere le informazioni tra gli operatori del settore e con i governi, la società civile e il mondo accademico sulla gestione dei rischi dell’IA.
- Le aziende si impegnano a investire in misure di sicurezza informatica e di protezione contro le minacce interne per proteggere i pesi dei modelli proprietari e non rilasciati.
- Le aziende si impegnano a facilitare la scoperta e la segnalazione da parte di terzi delle vulnerabilità nei loro sistemi di IA.
- Le aziende si impegnano a sviluppare solidi meccanismi tecnici per garantire che gli utenti sappiano quando il contenuto è generato dall’IA, come ad esempio un sistema di watermarking.
- Le aziende si impegnano a comunicare pubblicamente le capacità, i limiti e le aree di utilizzo appropriate e inappropriate dei loro sistemi di IA.
- Le aziende si impegnano a dare priorità alla ricerca sui rischi sociali che i sistemi di IA possono comportare, anche per evitare pregiudizi e discriminazioni dannose e proteggere la privacy.
- Le aziende si impegnano a sviluppare e impiegare sistemi avanzati di IA per contribuire ad affrontare le maggiori sfide della società.
Gli obiettivi
E’ stato notato che gli impegni sono volontari e non hanno ancora un sistema di enforcement, a differenza dell‘AI Act; ma come si vede i principi sottoscritti dalle Compagnie leader in materia di AI sono numerosi e dettagliati cosicché è ragionevole attendersi che anche l’annunciato Executive order di Biden avrà una incidenza molto rilevante nel settore dello sviluppo della AI.
Quest’ultimo punto è particolarmente importante perché il comunicato stampa della Presidenza USA annuncia anche che l’Amministrazione vuole lavorare per arrivare a mettere a punto e veder approvato un solido framework che possa al livello internazionale più ampio possibile governare lo sviluppo della AI.
Si annuncia che sono già in corso contatti avanzati con Australia, Brasile, Canada, Cile, Francia, Germania, India, Israele, Italia, Giappone, Kenia, Messico, Olanda, Nuova Zelanda, Nigeria, Filippine, Singapore, Sud Corea, Repubbliche Arabe Unite e Regno Unito.
L’obbiettivo USA è dichiaratamente quello di costruire un quadro ampio di consensi che supporti il Giappone, leader del G7 di Hiroshima, nel fare di questo prossimo G/7 un forum internazionale adeguato a sviluppare e condividere i principi della governance della AI.
Il Comunicato contiene inoltre l’annuncio di ulteriori incontri già programmati del Presidente Biden e della Vice Prsidente Harris, sempre in tema di regolazione della AI.
In sostanza il quadro che emerge da tutto questo riguarda almeno tre aspetti importanti.
Governo USA e AI: tre punti che emergono
- Il primo aspetto è certamente che la AI è considerata dagli USA la tecnologia emergente di maggior impatto sul futuro delle società e del mondo nel suo complesso.
- Il secondo aspetto è che gli USA intendono regolare questa tecnologia in tutte le sue possibili declinazioni puntando però sul coinvolgimento delle Aziende leaders e in accordo con esse.
- Il terzo, e ancor più importante, aspetto è che gli USA puntano dichiaratamente a costruire un framework di principi e di regole che possa essere condiviso dal numero più ampio possibile di Stati non solo per affermare e consolidare la leadership USA e delle aziende americane in questo campo, ma anche per tutelare la umanità intera da usi impropri e dannosi delle tecnologie di AI.
Si tratta di uno scenario estremamente interessante che impone a tutti gli operatori, Aziende, Governi e rappresentanti dei diritti umani, la massima attenzione.
La AI non appare, almeno in questo quadro, solo come un tecnologia del futuro ma anche come il settore più rilevante e immediato nel quale l’umanità è impegnata a operare avendo a mente gli interessi del mondo piuttosto che quelli degli Stati o dei diversi ecosistemi.
In questo senso le iniziative USA paiono essere il punto di approdo, per il momento finale, di una globalizzazione che, fondata inizialmente sulla convinzione che lo sviluppo economico fosse basato sulla minor regolazione possibile approda finalmente alla consapevolezza che la Terra è un solo pianeta ed il solo pianeta abitato dall’umanità cosicché globalizzazione significa anche, alla fine di un lungo processo, far prevalere gli interessi degli uomini e della vita sul mero interesse allo sviluppo economico e all’aumento delle ricchezze da chiunque possedute.