Si è tenuto da pochi giorni a Montreal, il primo vertice della GPAI – la Global Partnership on Artificial intelligence – promosso con l’intento di coinvolgere gli stakeholder esperti di tutto il mondo nell’ambito di un summit digitale caratterizzato da svariati panel di discussione aventi ad oggetto specifici focus di approfondimento sull’evoluzione futura dell’intelligenza artificiale.
Aperto dal presidente francese Emmanuel Macron e dal l Primo Ministro canadese Justin Trudeau, per l’Italia, ha partecipato la ministra all’innovazione, Paola Pisano, che ha sottolineato l’importanza della condivisione dei dati tra i Paesi, soprattutto su questioni come la salute o la logistica e ha evidenziato le opportunità della prossima Presidenza italiana del G20 per integrare le visioni e i progetti GPAI nella discussione globale.
Ma cos’è la e come nasce la partnership globale sull’intelligenza artificiale? Senza dubbio, si tratta di un’interessante iniziativa per dare una risposta concreta all’esigenza di affrontare le sfide globali poste dall’innovazione digitale mediante un approccio condiviso tra settore pubblico e settore privato in una dimensione transnazionale. Obiettivo, orientare il processo decisionale delle politiche destinate ad incidere sulla futura evoluzione delle tecnologie.
Ripercorriamone allora la genesi e facciamo il punto sulle funzioni e gli obiettivi della GPAI.
Come nasce la Global Partnership on Artificial Intelligence
La Global Partnership on Artificial Intelligence è un’iniziativa internazionale, annunciata dal Primo ministro del Canada e dal Presidente della Repubblica francese prima del vertice del G7 2018, in attuazione della dichiarazione Canada-Francia su AI del giugno 2018, alla quale hanno preso parte Australia, Canada, Francia, Germania, Giappone, India, Italia, Messico, Nuova Zelanda, Regno Unito, Repubblica di Corea, Singapore, Slovenia, Stati Uniti d’America e Unione Europea.
Dopo aver annunciato il mandato per la costituzione del gruppo internazionale sull’intelligenza artificiale durante la conferenza multistakeholder G7 sull’intelligenza artificiale nel dicembre 2018, in occasione del vertice G7 nell’agosto 2019 a Biarritz, i Capi di Stato e di Governo hanno riconosciuto la Global Partnership on Artificial Intelligence (GPAI) proposta da Canada e Francia nell’ambito della strategia di Biarritz per una trasformazione digitale aperta, libera e sicura, tenuto conto delle linee guida indicate dalla Recommendation of the Council on Artificial Intelligence approvata dall’OCSE nel 2019 per affermare il riconoscimento di principi costituenti standard generali OCSE che mirano ad assicurare la tutela della privacy e della sicurezza digitale nelle politiche di implementazione dell’intelligenza artificiale.
La Raccomandazione Ocse
La Raccomandazione Ocse, sebbene priva di valore giuridicamente vincolante, individua specifici principi complementari su cui si basa la gestione responsabile di una IA affidabile, al fine di promuovere la crescita inclusiva, lo sviluppo sostenibile e il benessere sociale delle persone, nel rispetto dello Stato di diritto, della trasparenza, dei diritti umani, dei valori democratici per garantire una società giusta e giusta.
I sistemi di IA devono funzionare in modo solido, sicuro e protetto per tutto il loro ciclo di vita e i potenziali rischi dovrebbero essere costantemente valutati e gestiti. Le organizzazioni e le persone che sviluppano, implementano o gestiscono sistemi di IA dovrebbero essere ritenuti responsabili del loro corretto funzionamento in linea con i principi OCSE vigenti.
Per un modello sinergico di cooperazione transnazionale
L’OCSE fornisce, inoltre apposite raccomandazioni ai governi, sollecitati a facilitare gli investimenti pubblici e privati in ricerca e sviluppo per stimolare l’innovazione in un’IA affidabile, promuovere ecosistemi di intelligenza artificiale accessibili con infrastrutture digitali in grado di condividere dati e conoscenze, garantire un ambiente politico favorevole alla distribuzione di sistemi di intelligenza artificiale affidabili, consentire alle persone di acquisire competenze in materia di IA, nonché cooperare a livello transfrontaliero e settoriale per progredire nella gestione responsabile di un’IA affidabile.
In attuazione della Raccomandazione, è stato costituito l’Osservatorio politico AI dell’OCSE nel febbraio 2020, come hub innovativo con il compito di elaborare linee guida su metriche, politiche e pratiche di IA per aiutare a implementare i principi vigenti, facilitando il dialogo funzionale a condividere le migliori pratiche sulle politiche di IA, anche nella prospettiva di monitorare i progressi nella sua attuazione.
Nel maggio 2020, durante la riunione ministeriale del G7 sulla scienza e la tecnologia, i Paesi del G7 hanno formalizzato l’impegno di lanciare il partenariato globale sull’IA per migliorare la cooperazione multi-stakeholder nel progresso dell’IA, aperta agli esperti e stakeholder di tutto il mondo, provenienti dal settore pubblico e privato, dalle comunità accademiche e scientifiche, nonché dalla società civile, per affrontare, secondo un approccio condiviso, le sfide globali legate allo sviluppo dell’intelligenza artificiale, con particolare riferimento alle principali priorità di intervento funzionali a favorire la ripresa economica nella fase post-epidemica, a seguito dell’emergenza sanitaria “Covid-19”.
Nel giugno 2019, il G20 ha adottato i principi dell’IA incentrata sull’uomo che si ispirano ai principi dell’IA dell’OCSE.
In particolare, si è riconosciuta la necessità di realizzare un modello sinergico di cooperazione transnazionale nel settore dell’innovazione tecnologica, che persegua l’obiettivo di guidare lo sviluppo responsabile dell’IA nel rispetto dei diritti umani, inclusione, diversità e sostenibilità economica, fornendo supporto operativo teorico-pratico ad attività di ricerca all’avanguardia e a progetti di sperimentazione dei sistemi dell’IA.
AI, il rapporto dell’Agenzia dell’Unione europea per i diritti fondamentali
Di questi giorni anche il rapporto della Fra, l’Agenzia dell’Unione europea per i diritti fondamentali. “Le persone devono essere informate su quando l’Ai viene utilizzata, su come funziona e anche su come mettere in discussione le decisioni automatizzate”, ha affermato il direttore dell’Fra, Michael O’Flaherty.
Il rapporto punta il dito in particolare sulle decisioni automatizzate al servizio di diagnosi mediche, polizia predittiva, pubblicità mirata.
Invita i Governi e le aziende di regolare l’AI nel rispetto dei diritti fondamentali e assicurare una disclosure di funzionamenti e impatti dell’AI in particolare se i sistemi possono avere conseguenze su vite umane e anche in chiave di tutela contro il rischio di discriminazioni.
L’organizzazione interna del GPAI
L’organizzazione interna del GPAI si articola nella presenza del Consiglio, presieduto per il primo biennio dal Ministro Navdeep Bains del governo del Canada, con il supporto del Ministro Cedric, Segretario di Stato per il digitale e le telecomunicazioni per la Francia, in qualità di Presidente entrante della GPAI.
Il Consiglio è responsabile di tutte le decisioni principali, comprese quelle relative all’adesione e alla partecipazione, e include tutti i membri dell’organizzazione, fornendo direttive strategiche per lo svolgimento delle attività realizzate dall’organizzazione.
Opera anche un Comitato direttivo elettivo, composto da cinque membri del governo del Consiglio e sei rappresentanti non governativi della plenaria del gruppo di esperti multistakeholder, con il compito di attuare le direttive del Consiglio, fornendo supporto al Segretariato GPAI e ai Centri di competenza.
Inoltre, è prevista l’istituzione di una segreteria presso l’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) a Parigi, al fine di sostenere il Consiglio GPAI e il Comitato direttivo GPAI, nonché collaborare con i Centri di competenza e facilitare le sinergie tra il lavoro scientifico e tecnico della GPAI e Leadership politica AI fornita dall’OCSE.
Gli obiettivi della GPAI
Oltre al coinvolgimento di Stati nazionali e organizzazioni internazionali, secondo un approccio “multistakeholder”, il GPAI mira, dunque, a sollecitare la partecipazione di esperti dell’industria, della società civile e del mondo accademico, mediante la costituzione di gruppi di lavoro preposti allo studio di specifiche questioni riguardanti l’uso responsabile dell’IA, la governance dei dati, il futuro del lavoro, l’innovazione e la commercializzazione.
AI e lotta al Covid
Alla luce dell’attuale emergenza pandemica, il gruppo di lavoro sull’IA responsabile ha costituito anche un sottogruppo ad hoc, composto da esperti sanitari, membri e rappresentanti di organizzazioni internazionali, preposto a valutare l’impatto dell’intelligenza artificiale sulle pandemie, per supportare lo sviluppo e l’uso responsabile di soluzioni abilitate dall’intelligenza artificiale nell’ambito della lotta al “Covid-19” e altre future pandemie, mediante l’elaborazione di metodi, algoritmi, codici e dati condivisi in formato aperto e sicuro nel rispetto della privacy, per garantire la tutela del diritto alla salute pubblica e aiutare a salvare vite umane.
In particolare, il sottogruppo stimolerà la collaborazione intersettoriale e transfrontaliera in sinergia con il mondo accademico, i governi, il settore privato, la società civile e le organizzazioni internazionali, mediante lo sviluppo di progetti di intelligenza artificiale per affrontare la pandemia, accelerare la ricerca, potenziare il rilevamento dei dati e la prevenzione.
Attività della GPAI
Sono previsti due centri di competenza che operano a Montreal e Parigi (l’International Center of Expertise of Montreal for the Advancement of Artificial Intelligence – ICEMIA – che sostiene i gruppi di lavoro sull’IA responsabile, compreso il sottogruppo sull’impatto dell’IA sulle pandemie) e sulla governance dei dati, mentre il National Institute for Research in Digital Science and Technology – INRIA – di Parisi sostiene i gruppi di lavoro sul futuro del lavoro e innovazione e la commercializzazione).
I gruppi di lavoro sono tenuti a presentare le proprie relazioni sulle attività svolte ogni anno durante lo svolgimento di una plenaria aperta alla partecipazione di esperti multi-stakeholder esperti di scienza, industria, società civile, sindacati, organizzazioni internazionali e governi per discutere sui risultati dei progetti intrapresi dai gruppi di lavoro GPAI.
Il GPAI è supportato da un segretariato, ospitato dall’OCSE a Parigi, e svolge le proprie funzioni nell’ambito dei due centri di competenza situati a Montreal e Parigi, per fornire supporto amministrativo alla ricerca scientifica in relazione a progetti da sviluppare nei vari settori ICT, beneficiando dell’attività realizzata dalla Rete di esperti dell’OCSE sull’IA e dall’Osservatorio della politica dell’OCSE sull’intelligenza artificiale.