non solo chatgpt

Per un’AI etica occorre uno sforzo globale: cosa devono fare aziende e governi

I nuovi modelli di intelligenza artificiale saranno in grado di trasformare l’economia, aumentare la produttività, aiutare intere nazioni a crescere e creare nuovi lavori. Ma dall’altra parte non sarà un cammino senza sfide. Ma per ridurre i rischi, aziende tech e governi dovranno definire insieme un approccio etico

Pubblicato il 24 Feb 2023

Matteo Mille

Chief Marketing and Operations Officer di Microsoft

shutterstock_1789508378.jpg

Il 2023 è già stato definito come l’anno dell’AI, il debutto di un’epoca in cui i benefici di questa tecnologia saranno davvero a portata di tutti, generando nuove opportunità per aziende e persone e trasformando l’economia, la sicurezza, il lavoro.

Accanto ai vantaggi, non bisogna però dimenticare i rischi. E, se è vero che ogni cambiamento inevitabilmente apre quindi le porte a nuove sfide, per fare in modo che l’AI sia una vera opportunità, le aziende tecnologiche devono lavorare a stretto contatto con i governi e le istituzioni per definire un approccio etico comune all’intelligenza artificiale e ai nuovi trend digitali.

Privacy: ecco perché è cruciale per un’AI etica e responsabile

In principio fu ChatGPT

Il primo effetto che va riconosciuto a ChatGPT è senz’altro quello di aver fatto esplodere l’intelligenza artificiale nell’uso e nell’immaginazione popolare. L’ai di OpenAI ha portato milioni di persone a dialogare, letteralmente, con il computer. L’AI e il suo impatto sono stati un tema portante anche del WEF di Davos, appuntamento annuale dove CEO di grandi aziende e leader politici e istituzionali si incontrano per discutere dei nostri tempi.

Insomma, il ritmo con cui l’intelligenza artificiale sta avanzando è notevole e guardando al futuro una cosa è chiara: l’AI sarà celebrata per i suoi benefici ma anche esaminata con attenzione e, in una certa misura, temuta.

Da sempre, infatti, qualsiasi strumento può essere utilizzato per portare benefici o, attraverso un utilizzo malevolo, per andare a creare nuovi problemi, divisioni o addirittura situazioni di pericolo. Più potente è lo strumento, maggiore è il beneficio o il danno che può causare. Sebbene la trasformazione digitale nel mondo abbia un grande potenziale, il mondo stesso ha trasformato la tecnologia a volte in strumenti potenti altre volte in armi formidabili. L’intelligenza artificiale, ad esempio, può svolgere un ruolo cruciale nella ricerca di una cura per il cancro, nella lotta al cambiamento climatico, può aiutare le persone con disabilità. Ma può anche essere sfruttata per diffondere fake news o addirittura minacciare la democrazia. Per infondere fiducia sul ruolo che la tecnologia dovrebbe svolgere nel promuovere i diritti umani in futuro e nel promuovere la crescita, è più che mai necessario abbracciare un senso di responsabilità condivisa dove anche le aziende di tecnologia facciano la propria parte. Resta quindi ferma la nostra convinzione che, affinché l’AI sia davvero vantaggiosa per tutti, debba essere sviluppata e utilizzata in un modo che possa infondere fiducia nelle persone e nelle organizzazioni che poi la utilizzeranno.

Affrontare i problemi dell’AI su base globale

Governi, organizzazioni e mondo accademico devono unirsi e lavorare insieme per dare forma al futuro. Non dovremmo aspettare che una nuova tecnologia sia a uno stadio di sviluppo già maturo prima di iniziare a mettere in atto principi e regole. Per sfruttare al meglio l’Intelligenza Artificiale e le sue applicazioni come il riconoscimento facciale, per trasformare e migliorare il modo in cui viviamo e lavoriamo, dobbiamo farlo non solo in una singola comunità o Paese, ma su base globale. Ognuno di noi ha la responsabilità di partecipare e un ruolo importante da svolgere. E se noi come Microsoft sosteniamo organizzazioni e persone a fare di più grazie al digitale, un ruolo importante che abbiamo è contribuire a stabilire principi etici che siano utili a tutta la società. A questo proposito nel 2020 abbiamo siglato la “Rome Call for AI Ethics”, un documento – pubblicato dalla Pontificia Accademia per la Vita e promosso dalla Fondazione RenAIssance che Microsoft ha firmato insieme a IBM e FAO – nato per sostenere l’impegno verso lo sviluppo di tecnologie AI trasparenti, inclusive, socialmente vantaggiose e responsabili. Recentemente questo documento è stato sottoscritto anche dai leader religiosi ebraici e musulmani.

Il piano del Vaticano per l’AI etica: basterà a ricordarci di restare umani?

I principi per un’AI etica

In quanto firmatari della “Rome Call for AI Ethics” lavoriamo a livello nazionale e internazionale, per promuovere una “algoretica”, ovvero lo sviluppo e l’utilizzo dell’Intelligenza Artificiale secondo i seguenti principi, fondamentali di una buona innovazione:

  • Trasparenza: i sistemi di intelligenza artificiale devono essere comprensibili;
  • Inclusione: devono essere prese in considerazione le esigenze di tutti gli esseri umani in modo che tutti possano beneficiarne e che a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi;
  • Responsabilità: coloro che progettano e implementano soluzioni di Intelligenza Artificiale devono procedere con responsabilità e trasparenza;
  • Imparzialità: non creare o agire secondo il pregiudizio, salvaguardando così l’equità e la dignità umana;
  • Affidabilità: i sistemi di Intelligenza Artificiale devono essere in grado di funzionare in modo affidabile;
  • Sicurezza e privacy: i sistemi di Intelligenza Artificiale devono funzionare in modo sicuro e rispettare la privacy degli utenti.

Il nostro approccio all’AI etica è basato proprio su questi principi e si fonda sulla creazione proattiva di misure per i sistemi di intelligenza artificiale affinché si riesca ad anticipare e mitigare eventuali rischi e, al contempo, massimizzarne i vantaggi. Tuttavia, se i principi sono fondamentali, non sono sufficienti. Il vero sforzo è trasformarli in buone pratiche e per farlo in Microsoft abbiamo avviato una struttura di governance per consentire un avanzamento responsabile di questa tecnologia, introdotto regole per standardizzare i nostri requisiti di AI responsabile, percorsi di formazione per aiutare i nostri dipendenti ad agire secondo i nostri principi e a riflettere profondamente sugli impatti socio-tecnici dell’AI lavorando su strumenti e processi per un’implementazione efficace.

Un altro aspetto fondamentale su questi temi è mantenere aperto il dialogo con tutti gli attori coinvolti perché sono le scelte collettive che facciamo che daranno forma al modo in cui costruiremo e utilizzeremo l’AI e il futuro che contribuirà a realizzare.

Conclusioni

Sintetizzando, in questo momento storico ci troviamo davanti a un punto di svolta. Crediamo fermamente nei benefici che questa nuova generazione di AI può creare perché questi nuovi modelli saranno in grado di trasformare l’economia, aumentare la produttività, aiuteranno intere nazioni a crescere e creare nuovi lavori. Ma dall’altra parte non sarà un cammino senza sfide e, se lavoriamo già da anni per ridurre i rischi e per fare in modo che l’AI non abbia pregiudizi di sorta preservando una governance da parte dell’uomo, bisognerà proseguire in questo senso

A complemento di questo, recentemente Microsoft ha annunciato la disponibilità generale del servizio Azure OpenAI per consentire a un maggior numero di aziende e sviluppatori di accedere ai modelli di AI più avanzati al mondo. La disponibilità al momento però è limitata ai clienti che soddisfano e aderiscono agli standard relativi ai nostri principi di AI responsabile ed etica. I clienti dovranno fare richiesta di accesso descrivendo il caso d’uso o l’applicazione prevista prima di ottenere l’accesso al servizio e questo perché crediamo davvero che promuovere il dialogo e la condivisione delle migliori pratiche tra governi, aziende, NGO e cittadini sarà la chiave per massimizzare il potenziale della tecnologia e offrire vantaggi su vasta scala a tutti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati