l’analisi

Governance dell’IA, un impegno titanico: approcci a confronto



Indirizzo copiato

In un’era in cui i sistemi di IA governano il mondo. Perciò è giunto il momento di predisporre processi di governance e conformità che assicurino garanzie di trasparenza, controllo e consapevolezza, nel rispetto dei diritti fondamentali e dei principi etici condivisi

Pubblicato il 19 mag 2023

Valentina Grazia Sapuppo

Legal, Privacy & Cybersecurity Advisor



women in tech2

Negli ultimi anni, tanti sono stati coloro che hanno cercato di porre delle regole di governance dell’Intelligenza Artificiale. Seppur si sia tentato di ricostruire, anche semplicemente in termini definitori, il lavoro è stato – e lo è ancora – di titanica portata. Da tutte le parti del mondo sono stati creati dei framework di funzionamento base, che vantano i canoni delle attività di self assesment. Partendo dall’impegno delle realtà internazionali, che si propongono di offrire schemi per governare i sistemi di Intelligenza Artificiale, si è giunti, ormai, ad una presa d’atto del problema, che ha comportato l’adozione di scelte legislative importanti, soprattutto in ambito Europeo.

La governance dell’Intelligenza Artificiale

Prima di passare ad approfondire il tema della esigenza di nuovi framework, risulta necessario accennare alle criticità e alle questioni aperte in tema di governance dei sistemi di Intelligenza Artificiale. Come accennato, una delle criticità storiche che dovrà essere superata è quella definitoria. Ancora oggi non riusciamo a individuare una definizione universale di ciò che rientri nell’alveo dei cosiddetti sistemi di Intelligenza Artificiale. Tale gap presta il fianco a evidenti profili di incertezza creativa e applicativa, in merito al perimetro di cui abbiamo a che occuparci. Nonostante l’impegno dei grandi Russell e Norvig, i quali offrono una delle definizioni di IA maggiormente accreditate nel mondo specialistico, nel 2018 AIGO[1] – il working group composto dagli esperti dell’OECD, aveva cominciato a elaborare una descrizione dei sistemi di Intelligenza Artificiale, al fine di dare vita a una definizione universale. Qualche anno più tardi, il legislatore europeo[2] ha enucleato una propria idea di cosa deve ritenersi rientrare tra i sistemi di Intelligenza Artificiale, ancora non confermata e che, a nostro modesto parere, non appare risolutoria. In Italia, anche il Consiglio di Stato, con la nota sentenza n. 7891 del 2021[3], si è cimentato in questo esercizio definitorio, dimostrando un lodevole sforzo interpretativo nel distinguere tra i concetti di Intelligenza Artificiale e di algoritmo. Nonostante gli sforzi epocali, è ictu oculi evidente che la machine a gouverneur[4] è stata messa in moto. I timori sulla creazione incessante, senza governo ex ante, accolti come firmatario anche da chi scrive, sono messi nero su bianco dai promotori della iniziativa Pause Giant AI Experiments: An Open Letter[5], tra cui rileviamo alcuni nomi come quelli di Yoshua Bengio, Stuart Russell, Elon Musk e Yuval Noah Harari.

L’esigenza di nuovi framework

A Singapore, tra il 2019 e il 2020, è stato pubblicato il Model AI Governance Framework[6], un modello quadro che converte i principi etici più rilevanti in pratiche che possono implementabili nei processi di sviluppo dei sistemi di Intelligenza Artificiale.

Immagine che contiene testoDescrizione generata automaticamente

Nel manifesto leggiamo che “le organizzazioni che utilizzano l’IA nel processo decisionale dovrebbero garantire che il processo decisionale sia spiegabile, trasparente ed equo. Anche se la perfetta spiegabilità, la trasparenza e l’equità è impossibile da raggiungere, le organizzazioni dovrebbero sforzarsi di garantire che il loro uso o applicazione dell’IA lo sia intrapresa in modo da rispecchiare gli obiettivi per quanto possibile di questi principi. Questo aiuta a costruire fiducia e fiducia nell’IA.”[7]. Le macroaree prese in considerazione sono identificate in “strutture e misure di governance interna, coinvolgimento umano nel processo decisionale potenziato dall’IA, coinvolgimento umano nella gestione delle operazioni, interazione e comunicazione con gli stakeholder”.

Negli stessi anni, in Australia è stato pubblicato l’AI Ethics Framework[8], il quale avevo lo scopo di guidare le organizzazioni e i governi nella progettazione, nello sviluppo e nell’implementazione responsabile dei sistemi di Intelligenza Artificiale.

Immagine che contiene diagrammaDescrizione generata automaticamente

La Commissione Europea, invece, ha avanzato il primo modello regolatorio legislativo per i sistemi di IA, con la Proposta presentata lo scorso aprile 2021, la quale descrive il c.d. Regulatory Framework Proposal On Artificial Intelligence[9], già rimaneggiato e che dovrebbe essere pubblicato, nella sua versione definitiva, nell’estate 2023.

Immagine che contiene graficoDescrizione generata automaticamente

L’Università di Turku in Finlandia ha presentato, nel 2022, il Framework AIGA – Artificial Intelligence Governance and Auditing[10], che illustra un ciclo di vita dettagliato e completo della Governance dell’Intelligenza Artificiale, frutto di un progetto di co-innovazione interdisciplinare sulla governance e l’auditing dell’IA, realizzato da un team di partner accademici e industriali e finanziato dal programma AI Business di Business Finland.

Immagine che contiene testoDescrizione generata automaticamente
Immagine che contiene diagrammaDescrizione generata automaticamente

Tale quadro, seppur apparentemente eterogeneo, presenta diversi elementi in comune, che sono manifestamente incardinati in diversi framework, che vanno da ALTAI ad altri disseminati in rete, elaborati da realtà accademiche, associative o di impresa per realizzare attività di self assessment sui sistemi di Intelligenza Artificiale. Tutela dei diritti umani, trasparenza, dignità umana, sistemi di gestione e supervisione umana, accountability, diversità, non discriminazione ed equità, per esempio, sono alcuni tra i punti principali di ancoraggio dei modelli che passeremo in rassegna nei prossimi paragrafi.

Tra il Self-Assessment List for Trustworthy Artificial Intelligence – ALTAI e l’Artificial Intelligence Act – AIA

Nell’aprile 2019 l’High-Level Expert Group on Artificial Intelligence – AI HLEG ha presentato alla Commissione Europea ALTAI – Assessment List for Trustworthy Artificial Intelligence[11], una lista di valutazione finale per l’intelligenza artificiale affidabile. Come leggiamo dalla descrizione ufficiale, pubblicata nel 2020, “lo strumento supporta l’azionabilità dei requisiti chiave delineati dalle linee guida etiche per l’intelligenza artificiale affidabile”, le quali “hanno introdotto il concetto di intelligenza artificiale affidabile, basato su sette requisiti chiave”, tra cui “la supervisione umana, la robustezza tecnica e la sicurezza, la privacy e governance dei dati, la trasparenza e la diversità, la non discriminazione ed equità, il benessere ambientale e sociale, la responsabilità”. ALTAI parte, quindi, dalla finalità che sia assicurato che i sistemi di Intelligenza Artificiale rispettino, in prima battuta, i diritti fondamentali delle persone – tra cui, esplicitamente citati, la libertà di espressione e di informazione e/o la libertà di riunione e associazione – i diritti del fanciullo e delle persone vulnerabili, tra cui anche quelli dei lavoratori.

L’obiettivo, in riferimento a tale primo punto focale, è quello di dimostrare che le persone – che dovessero trovarsi ad interagire con i sistemi di Intelligenza Artificiali oggetto del self assessment – abbiamo chiaro il fatto di non star dialogando con un essere umano e che, soprattutto, siano liberi nelle proprie scelte e decisioni.

Tale ultimo punto è oggi al centro di un grande dibattito[12] presso le Nazioni Unite, che vede protagonista la tutela dei neuro-diritti, oggi posti ai limiti della manipolazione e della dipendenza uomo-macchina, con riferimento ai rischi e alle sfide delle neuro-tecnologie. In seconda battuta, in ALTAI non mancano riferimenti a temi quali la supervisione dei sistemi di Intelligenza Artificiale Human-in-the-loop Artificial Intelligence – HitAI, il miglioramento continuo dei processi di gestione, i meccanismi di controllo e di misurazione, la sicurezza delle informazioni e alle registrazioni delle evidenze, il Data Protection Impact Assessment – DPIA ex art. 35 del Regolamento (UE) 679/2016, l’analisi dei rischi e la cybersecurity.

Segnato questo passo importante e significativo, il legislatore europeo ha dimostrato di non volersi tirare indietro dal legiferare sul tema in modo concreto.

Infatti, “dopo svariate comunicazioni a partire dal 2018 e il Libro bianco del 2020 tesi a ritagliare un ruolo pro-attivo per l’Europa, basato sul binomio regole-investimenti, nell’aprile del 2021 è arrivata all’interno del c.d. AI package la proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (AI Act[13], d’ora in poi “AIA”), accompagnata dalla Comunicazione Promuovere un approccio europeo all’intelligenza artificiale nonché da una revisione del Piano coordinato sull’intelligenza artificiale.”[14].

Come in ALTAI, l’AIA fa ampio riferimento alla necessità che si adotti un sistema di gestione che consenta una reale attuazione di adeguate pratiche di sorveglianza del sistema e di governance dei dati, oggetto di elaborazione dei sistemi di Intelligenza Artificiale. L’attenzione, inoltre, è focalizzata sulla necessità di fornire dettagliate istruzioni tecniche, sia per l’uso sia per l’installazione, di tutte le forme – i.e, descrizione dell’architettura hardware e/o software – in cui il sistema di Intelligenza Artificiale è stato immesso sul mercato o fornito come servizio, nonché le principali scelte di progettazione, comprese le motivazioni e le ipotesi formulate e le risorse computazionali utilizzate per sviluppare, addestrare, sottoporre a prova e convalidare il sistema, anche per quanto riguarda le persone o i gruppi di persone sui quali il sistema è destinato a essere utilizzato. In tal modo, infatti, potrà essere soddisfatto quanto prescritto dall’articolo 13 della proposta dell’AIA.

Vantando un approccio basato sul rischio, come abbiamo accennato nel paragrafo due, la proposta prescrive che i sistemi di gestione dovranno essere corredati da politiche, procedure e istruzioni scritte afferenti alla qualità del sistema di Intelligenza Artificiale, e dovranno essere verificati durante l’intero ciclo di vita e monitorati anche successivamente alla loro immissione sul mercato. Inoltre, dovranno essere registrate le opportune evidenze circa le eventuali modifiche del sistema di Intelligenza Artificiale, nonché i log di sistema e le garanzie di accuratezza, robustezza e cybersicurezza, in conformità con gli articoli 9, 12 e 15 della proposta dell’AIA, così da poter mantenere la dichiarazione e/o marcatura di conformità̀ europea, esplicitamente prescritta, anche alla luce di eventuali segnalazione di incidenti gravi o malfunzionamenti, che dovranno obbligatoriamente essere comunicati.

ENISA: Cybersecurity of AI and Standardization

Nel marzo 2023, ENISA ha pubblicato il report Cybersecurity of AI and Standardisation[15], al fine specifico di “fornire una panoramica degli standard (esistenti, in fase di stesura, in esame e pianificati) relativi alla sicurezza informatica dell’intelligenza artificiale (AI), valutarne la copertura e identificare le lacune nella standardizzazione, nonché di contribuire alle attività preparatorie all’attuazione della proposta di regolamento dell’UE che stabilisce norme armonizzate sull’intelligenza artificiale (COM(2021) 206 definitivo) (il progetto di legge sull’intelligenza artificiale) sugli aspetti rilevanti per la sicurezza informatica.” Il documento ha il pregio, tra gli altri, di individuare le risultanze del nostro working group CEN-CENELEC, JTC 21 “Artificial intelligence”[16], responsabile sia dello sviluppo e dell’adozione di standard per l’IA e i dati correlati (in particolare quelli dell’ISO/IEC JTC 1 SC 42), sia del compito di fornire indicazioni ad altri comitati tecnici che si occupano di Intelligenza Artificiale.

Con il working group JTC 21 si lavora da mesi sulla ISO/IEC 42001, specificatamente dedicata alla definizione di un Sistema di gestione dell’Intelligenza Artificiale. In ISO, inoltre, operiamo sulle tematiche afferenti all’Intelligenza Artificiale anche nel working group JTC 1 SC 42[17], che funge da fulcro e promotore del programma di standardizzazione del JTC 1 sull’Intelligenza Artificiale e fornisce una guida ai comitati JTC 1, IEC e ISO che sviluppano applicazioni di intelligenza artificiale.

Il documento in oggetto ha un altro pregio indiscusso, ossia quello di esplicitare quanto ancora non ha visto la luce e cioè che “la ISO-IEC 42001 sui sistemi di gestione dell’IA e la ISO-IEC 27001 sui sistemi di gestione della cybersecurity possono essere integrate dalla ISO 9001 sui sistemi di gestione della qualità per avere una copertura adeguata della gestione dell’IA e della qualità dei dati.” Tale assunto consente certamente di asserire che questa sarà la strada che dovrà essere seguita al fine di concretizzare quanto prescritto dall’AIA circa la necessaria presenza di un sistema di gestione che assicuri una piena governance dei sistemi di Intelligenza Artificiale.

ISO/IEC 42001 – “Information technology — Artificial intelligence — Management system”

Siamo quasi a metà del percorso che porterà alla pubblicazione del framework ISO/IEC 42001 “Information technology — Artificial intelligence — Management system”[18], standard ancora in cantiere e sul quale lavoriamo da mesi.

Tale nuovo standard si propone di soddisfare diversi obiettivi di sviluppo sostenibile delle Nazioni Unite[19] e descrive un vero e proprio sistema di gestione per i sistemi di Intelligenza Artificiale e, quasi certamente, farà convogliare in sé quanto già presente nelle diverse norme ISO/IEC tra cui, ad esempio, le attività di risk assessment – descritte con la metodologia ISO/IEC 31000:2018[20], il Cybersecurity Framework NIST[21] e il NIST 800-53 – Security and Privacy Controls for Information Systems and Organizations[22], nonché i framework ISO/IEC 27005:2018[23] e 22301:2019[24] sulla business continuity[25].

Al fine di rendere omogenea la struttura delle norme ISO/IEC, anche la ISO/IEC 42001 presenterà il suo High Level Structure – HLS[26], valido per tutti i sistemi di gestione aziendale, e che descrive un “approccio per processi sistemico-adattivo basato sul ciclo Plan – Do – Check – Act, con forte accento sulla fase di pianificazione, una analisi del contesto in cui opera l’organizzazione al fine di assicurare una piena comprensione dei fattori che possono impattare, positivamente e negativamente, sulla capacità di raggiungere i risultati attesi, i concetti di leadership e di impegno dell’Alta direzione per enfatizzare l’importanza del top management affinché i requisiti del Sistema di Gestione non siano percepiti come separati dalla gestione del business, un approccio basato sul rischio attraverso cui definire le esigenze da considerare e gestire per anticipare potenziali effetti indesiderabili e, al contempo, individuare fattori con impatto vantaggioso, un orientamento agli obiettivi e pianificazione delle modifiche per assicurare il raggiungimento dei risultati attesi, nonché la necessità di informazioni documentate necessarie al mantenimento e miglioramento del Sistema di Gestione.”[27]

Conclusioni

Alla luce della nostra analisi è chiaro come da tutte le parti del mondo sono stati creati framework che vantano le caratteristiche tipiche delle attività di self assesment di un sistema di gestione. Passando poi dall’impegno delle realtà internazionali, che si propongono di offrire schemi per governare i sistemi di Intelligenza Artificiale, si è giunti, ormai, ad una presa d’atto del problema, che ha comportato l’adozione di scelte legislative importanti, soprattutto in ambito europeo. È chiaro che il tema rappresenta un problema che dovrà essere definito una volta per tutte, cercando di fuggire i rischi insiti nella superfetazione normativa che caratterizzano l’Unione Europea degli ultimi tempi, nonché i rischi paventati dalle preoccupazioni su un uso distopico dei sistemi di Intelligenza Artificiale[28].

Note e bibliografia

AIGA – Artificial Intelligence Governance and Auditing, visionabile al link: https://ai-governance.eu/

Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment, visionabile al link: https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment

Assolombarda, High Level Structure: il nucleo degli standard internazionali leggermente rivisto, visionabile al link: https://www.assolombarda.it/servizi/industria-innovazione-e-qualita/informazioni/high-level-structure-il-nucleo-degli-standard-internazionali-leggermente-rivisto

Australia’s Artificial Intelligence Ethics Framework, visionabile al link: https://www.industry.gov.au/publications/australias-artificial-intelligence-ethics-framework

CEN-CENELEC, JTC 21 “Artificial intelligence”, visionabile al link: https://www.cencenelec.eu/areas-of-work/cen-cenelec-topics/artificial-intelligence/

Consiglio di Stato, Terza Sezione, Sentenza n. 7891 del 25.11.2021, visionabile al link: https://www.giustizia-amministrativa.it/portale/pages/istituzionale/visualizza/?nodeRef=&schema=cds&nrg=202104698&nomeFile=202107891_11.html&subDir=Provvedimenti

Cybersecurity Framework NIST, visionabile al link: https://www.nist.gov/cyberframework

ENISA, Cybersecurity of AI and Standardisation, visionabile al seguente link: https://www.enisa.europa.eu/publications/cybersecurity-of-ai-and-standardisation

Future of life Institute, Pause Giant AI Experiments: An Open Letter, visionabile al link: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Gorla, S., Rampazzo, A., La Governance dell’AI attraverso le norme ISO, visionabile al link: https://www.ictsecuritymagazine.com/articoli/la-governance-dellai-attraverso-le-norme-iso/

ISO 22301:2019, Security and resilience — Business continuity management systems — Requirements, visionabile al link: https://www.iso.org/standard/75106.html

ISO/IEC 27005:2018, Information technology — Security techniques — Information security risk management, visionabile al link: https://www.iso.org/standard/75281.html

ISO 31000, Risk management, visionabile al link: https://www.iso.org/iso-31000-risk-management.html

ISO/IEC DIS 42001, Information technology — Artificial intelligence — Management system, visionabile al link: https://www.iso.org/standard/81230.html

ISO/IEC JTC 1/SC 42, “Artificial intelligence”, visionabile al link: https://www.iso.org/committee/6794475.html

Malgieri, G., Ienca, M., Artificial Intelligence Act: a che punto siamo e i principali nodi da sciogliere, AgendaDigitale.EU, visionabile al link: https://www.agendadigitale.eu/cultura-digitale/artificial-intelligence-act-a-che-punto-siamo-e-i-principali-nodi-da-sciogliere/

Naveen Joshi, What Will A Dystopian World With AI In Charge Be Like?, Forbes, visionabile al link: https://www.forbes.com/sites/naveenjoshi/2022/08/16/what-will-a-dystopian-world-with-ai-in-charge-be-like/?sh=6b5edc8e2f55

NIST 800-53 – Security and Privacy Controls for Information Systems and Organizations, visionabile al link: https://csrc.nist.gov/publications/detail/sp/800-53/rev-5/final

OECD, Artificial Intelligence in Society, The technical landscape, visionabile al link: https://read.oecd-ilibrary.org/science-and-technology/artificial-intelligence-in-society_8b303b6f-en#page1

Proposal For A Regulation Of The European Parliament And Of The Council Laying Down Harmonised Rules On Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts, visionabile al link: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206

Proposta di Regolamento Del Parlamento Europeo E Del Consiglio Che Stabilisce Regole Armonizzate Sull’intelligenza Artificiale (Legge Sull’intelligenza Artificiale) E Modifica Alcuni Atti Legislativi Dell’unione, ”, visionabile al link: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52021PC0206

Regulatory framework proposal on Artificial Intelligence, visionabile al link: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

Singapore’s Approach to AI Governance, visionabile al link: https://www.pdpc.gov.sg/help-and-resources/2020/01/model-ai-governance-framework

UNI, ISO rilascia la nuova versione di HLS, visionabile al link: https://www.uni.com/index.php?option=com_content&view=article&id=10578:iso-rilascia-la-nuova-versione-di-hls-una-light-review-con-qualche-sorpresa&catid=171&Itemid=2612

United Nations, 17 Goals to Transform Our World, visionabile al link: https://www.un.org/sustainabledevelopment/

United Nations – Requests addressed to the Advisory Committee stemming from Human Rights Council resolutions and currently under consideration by the Committee Neurotechnology and human rights, visionabile al seguente link: https://unesdoc.unesco.org/ark:/48223/pf0000384185

Wiener, N., Introduzione Alla Cibernetica. L’uso Umano Degli Esseri Umani, visionabile al link: https://www.bollatiboringhieri.it/libri/norbert-wiener-introduzione-alla-cibernetica-9788833923451/

  1. OECD, Artificial Intelligence in Society, The technical landscape, visionabile al link: https://read.oecd-ilibrary.org/science-and-technology/artificial-intelligence-in-society_8b303b6f-en#page1
  2. Proposta di Regolamento Del Parlamento Europeo E Del Consiglio Che Stabilisce Regole Armonizzate Sull’intelligenza Artificiale (Legge Sull’intelligenza Artificiale) E Modifica Alcuni Atti Legislativi Dell’unione, i.e., “I sistemi di Intelligenza Artificiale – IA sono sistemi software – e possibilmente hardware – progettati da esseri umani e che, avendo ricevuto un obiettivo complesso, agiscono nel mondo reale o digitale percependo il loro ambiente attraverso l’acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, applicando il ragionamento alla conoscenza o elaborando le informazioni derivate da questi dati e decidendo le migliori azioni da intraprendere per raggiungere l’obiettivo dato. I sistemi di Intelligenza Artificiale possono utilizzare regole simboliche o apprendere un modello numerico. Possono anche adattare il loro comportamento analizzando come l’ambiente è influenzato dalle loro azioni precedenti”, visionabile al link: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52021PC0206
  3. Consiglio di Stato, Terza Sezione, Sentenza n. 7891 del 25.11.2021, i.e., “non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato. Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’Intelligenza Artificiale. In questo caso l’algoritmo contempla meccanismi di machine learnig e crea un sistema che non si limita solo ad applicare le regole sofware e i parametri preimpostati – come fa invece l’algoritmo tradizionale – ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”, visionabile al link: https://www.giustizia-amministrativa.it/portale/pages/istituzionale/visualizza/?nodeRef=&schema=cds&nrg=202104698&nomeFile=202107891_11.html&subDir=Provvedimenti
  4. Wiener, N., Introduzione Alla Cibernetica. L’uso Umano Degli Esseri Umani, visionabile al link: https://www.bollatiboringhieri.it/libri/norbert-wiener-introduzione-alla-cibernetica-9788833923451/
  5. Future of life Institute, Pause Giant AI Experiments: An Open Letter, visionabile al link: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  6. Singapore’s Approach to AI Governance, visionabile al link: https://www.pdpc.gov.sg/help-and-resources/2020/01/model-ai-governance-framework
  7. Nostra traduzione.
  8. Australia’s Artificial Intelligence Ethics Framework, visionabile al link: https://www.industry.gov.au/publications/australias-artificial-intelligence-ethics-framework
  9. Regulatory framework proposal on Artificial Intelligence, visionabile al link: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  10. AIGA – Artificial Intelligence Governance and Auditing, visionabile al link: https://ai-governance.eu/
  11. Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment, visionabile al link: https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment
  12. United Nations – Requests addressed to the Advisory Committee stemming from Human Rights Council resolutions and currently under consideration by the Committee Neurotechnology and human rights, visionabile al seguente link: https://unesdoc.unesco.org/ark:/48223/pf0000384185
  13. Proposal For A Regulation Of The European Parliament And Of The Council Laying Down Harmonised Rules On Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts, visionabile al link: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206
  14. Malgieri, G., Ienca, M., Artificial Intelligence Act: a che punto siamo e i principali nodi da sciogliere, AgendaDigitale.EU, visionabile al link: https://www.agendadigitale.eu/cultura-digitale/artificial-intelligence-act-a-che-punto-siamo-e-i-principali-nodi-da-sciogliere/
  15. ENISA, Cybersecurity of AI and Standardisation, visionabile al seguente link: https://www.enisa.europa.eu/publications/cybersecurity-of-ai-and-standardisation
  16. CEN-CENELEC, JTC 21 “Artificial intelligence”, visionabile al link: https://www.cencenelec.eu/areas-of-work/cen-cenelec-topics/artificial-intelligence/
  17. ISO/IEC JTC 1/SC 42, “Artificial intelligence”, visionabile al link: https://www.iso.org/committee/6794475.html
  18. ISO/IEC DIS 42001, Information technology — Artificial intelligence — Management system, visionabile al link: https://www.iso.org/standard/81230.html
  19. United Nations, 17 Goals to Transform Our World, visionabile al link: https://www.un.org/sustainabledevelopment/
  20. ISO 31000, Risk management, visionabile al link: https://www.iso.org/iso-31000-risk-management.html
  21. Cybersecurity Framework NIST, visionabile al link: https://www.nist.gov/cyberframework
  22. NIST 800-53 – Security and Privacy Controls for Information Systems and Organizations, visionabile al link: https://csrc.nist.gov/publications/detail/sp/800-53/rev-5/final
  23. ISO/IEC 27005:2018, Information technology — Security techniques — Information security risk management, visionabile al link: https://www.iso.org/standard/75281.html
  24. ISO 22301:2019, Security and resilience — Business continuity management systems — Requirements, visionabile al link: https://www.iso.org/standard/75106.html
  25. Gorla, S., Rampazzo, A., La Governance dell’AI attraverso le norme ISO, visionabile al link: https://www.ictsecuritymagazine.com/articoli/la-governance-dellai-attraverso-le-norme-iso/
  26. UNI, ISO rilascia la nuova versione di HLS, visionabile al link: https://www.uni.com/index.php?option=com_content&view=article&id=10578:iso-rilascia-la-nuova-versione-di-hls-una-light-review-con-qualche-sorpresa&catid=171&Itemid=2612
  27. Assolombarda, High Level Structure: il nucleo degli standard internazionali leggermente rivisto, visionabile al link: https://www.assolombarda.it/servizi/industria-innovazione-e-qualita/informazioni/high-level-structure-il-nucleo-degli-standard-internazionali-leggermente-rivisto
  28. Naveen Joshi, What Will A Dystopian World With AI In Charge Be Like?, Forbes, visionabile al link: https://www.forbes.com/sites/naveenjoshi/2022/08/16/what-will-a-dystopian-world-with-ai-in-charge-be-like/?sh=6b5edc8e2f55

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati