la proposta

Governare il futuro dell’IA: cinque punti per uno sviluppo etico



Indirizzo copiato

L’IA è uno strumento straordinario, ma può diventare un’arma potente e ci saranno alcuni nel mondo che cercheranno di usarla in questo modo. Serve perciò un lavoro importante per tutelare democrazia e diritti fondamentali, affinché questa tecnologia possa promuovere una crescita inclusiva e sostenibile del pianeta

Pubblicato il 17 lug 2023

Matteo Mille

Chief Marketing and Operations Officer di Microsoft



ChatGPT nei robot sociali: nuovi orizzonti di interazione ed empowerment umano

Siamo di fronte a una svolta epocale. Così come lo è stata la nascita del world wide web o dello smartphone, è ormai chiaro l’impatto che l’intelligenza artificiale generativa può avere nelle nostre vite.  Come ha ricordato nelle scorse settimane il presidente Microsoft Brad Smith, siamo la prima generazione nella storia dell’umanità a creare macchine in grado di prendere decisioni che in precedenza potevano essere prese solo da persone.

Ma come possono quindi i governi garantire che l’AI sia soggetta allo stato di diritto? In breve, quale forma dovrebbero assumere le nuove leggi, i regolamenti e le politiche?

Come Microsoft abbiamo sviluppato un documento con una proposta in cinque punti affinché possa contribuire al dibattito e allo stesso tempo al progresso sicuro di questa tecnologia.

Facciamo però prima un passo indietro, per comprendere perché è stato necessario.

Evitare potenziali  criticità o utilizzi malevoli dell’intelligenza artificiale

Quando le persone hanno iniziato a utilizzare soluzioni di AI spesso sono rimaste sorprese o addirittura sbalordite altri invece sono preoccupati o addirittura spaventati dalle potenzialità di queste tecnologie. È quindi essenziale per aziende e Paesi porsi la domanda su come questa tecnologia dirompente possa generare un beneficio concreto, evitando potenziali  criticità o utilizzi malevoli. Come possiamo controllare una tecnologia così potente e indirizzarne gli impatti in ottica positiva?  Solo attraverso un dialogo aperto a tutti gli attori coinvolti, unito ad azioni decise ed efficaci è chiave per poter definire gli ambiti di applicazione

In Microsoft, da sempre abbiamo agito su questo fronte seguendo principi etici che abbiamo definito, pubblicato, implementato e che guidano il nostro lavoro. E abbiamo costruito sistemi di ingegneria e di governance in costante miglioramento per mettere in pratica questi principi. Oggi quasi 350 persone lavorano all’AI responsabile in Microsoft, aiutandoci a implementare le migliori pratiche per costruire sistemi di AI sicuri, protetti e trasparenti a beneficio della società intera.

I progressi conseguiti grazie al nostro approccio ci hanno dato la capacità di applicare l’AI in contesti sempre più ampi, contribuendo ad attenuare o risolvere grandi sfide globali:  dalla medicina dove l’Intelligenza Artificiale può davvero contribuire a salvare la vita delle persone e a supportare i medici per  su nuove cure per il cancro per esempio, o a generare nuove conoscenze sulle proteine. L’AI può fornire previsioni per proteggere popolazioni da fenomeni atmosferici particolarmente  pericoloso, mentre altre innovazioni stanno contribuendo a respingere i cyberattacchi sempre più sofisticati o  a proteggere i diritti umani fondamentali, anche in nazioni afflitte da invasioni o guerre civili.

Anche le attività quotidiane trarranno beneficio da questa ondata di innovazione. Agendo come copilota nella vita delle persone, la potenza dei modelli di AI generativa come Microsoft Copilot sta rivoluzionando la collaborazione e migliorando la produttività delle persone al lavoro.

Garantire un controllo adeguato sull’AI

Ma non è sufficiente concentrarsi solo sulle opportunità dell’AI. Dobbiamo pensare per tempo e in modo chiaro alle implicazioni che potrebbe avere nel caso non venisse indirizzata verso un impatto positivo. Con l’avanzare della tecnologia, è altrettanto importante garantire un controllo adeguato sull’AI. Come azienda siamo impegnati a sviluppare e utilizzare l’AI in modo sicuro e responsabile. Tuttavia, riconosciamo anche che le barriere di sicurezza necessarie richiedono un senso di responsabilità ampiamente condiviso e non dovrebbero essere lasciate alle sole aziende tecnologiche.

I sei principi etici per l’IA di Microsoft

Quando nel 2018 Microsoft ha adottato i suoi sei principi etici per l’IA, abbiamo notato che un principio è il fondamento di tutto il resto: la responsabilità. Questa è l’esigenza fondamentale: garantire che le macchine rimangano soggette a un’efficace supervisione da parte delle persone e che le persone che progettano e gestiscono le macchine siano responsabili nei confronti di tutti gli altri.

In breve, dobbiamo sempre garantire che l’AI rimanga sotto il controllo umano. Questa deve essere una priorità sia per le aziende tecnologiche che per i governi.

Ciò si collega direttamente a un altro concetto essenziale, ricordato di recente sempre dal nostro Presidente Brad Smith. In una società democratica, uno dei nostri principi fondamentali è che nessuna persona è al di sopra della legge. Nessun governo è al di sopra della legge. Nessuna azienda è al di sopra della legge e nessun prodotto o tecnologia dovrebbe essere al di sopra della legge.

I cinque punti per un’IA etica

Ecco perché siamo arrivati alla proposta in cinque punti.

In primo luogo, è necessario implementare e costruire nuovi quadri di riferimento per la sicurezza dell’AI, che siano guidati dai governi.

In secondo luogo, sviluppare nuovi requisiti di sicurezza che, di fatto, creerebbero una sorta di freno di controllo per i sistemi di AI che gestiscono  il funzionamento di determinate infrastrutture critiche. Sarebbero simili ai “sistemi di frenata” che gli ingegneri hanno da tempo integrato in altre tecnologie come ascensori, scuolabus e treni ad alta velocità, per gestire in sicurezza non solo gli scenari quotidiani, ma anche le emergenze e dove la supervisione umana resta centrale.

Come Microsoft riteniamo utile anche l’istituzione di una nuova agenzia che regoli l’AI e fissi i requisiti di licenza.

Quarto punto, promuovere la trasparenza e garantire l’accesso all’AI da parte del mondo accademico e non profit. Riteniamo che un obiettivo pubblico fondamentale sia quello di promuovere la trasparenza e ampliare l’accesso alle risorse dell’AI.

Infine, riteniamo indispensabile perseguire nuove partnership pubblico-privato per utilizzare l’AI come strumento efficace per affrontare le inevitabili sfide sociali che si presentano con le nuove tecnologie.

Conclusioni

L’IA è uno strumento straordinario. Ma, come altre tecnologie, anch’essa può diventare un’arma potente e ci saranno alcuni nel mondo che cercheranno di usarla in questo modo.

È necessario un lavoro importante per utilizzare l’AI e al contempo tutelare democrazia e diritti fondamentali, affinché questa tecnologia possa promuovere davvero una crescita inclusiva e sostenibile del pianeta. La chiave del successo sarà sviluppare iniziative concrete e congiunte tra governi, aziende e ONG.

“Non chiedete cosa possono fare i computer, chiedete cosa dovrebbero fare.”

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2