le sfide

Intelligenza artificiale per un mondo migliore: come realizzare l’utopia

Le tesi sull’Intelligenza artificiale sono polarizzate tra chi teme una sopraffazione della tecnologia sull’uomo e chi vi vede la chiave per un mondo più equo. Una utopia che si può realizzare solo con una “via critica”: studiando con attenzione le problematiche etico-sociali

Pubblicato il 07 Ago 2018

Juan Carlos De Martin

Centro Nexa su Internet e Società, DAUIN, Politecnico di Torino

Antonio Santangelo

Centro Nexa su Internet e Società, DAUIN, Politecnico di Torino

Antonio Vetrò

Centro Nexa su Internet e Società e Future Urban Legacy Lab – Politecnico di Torino

intelligenza-artificiale_519560572

L’Intelligenza Artificiale deve svolgere al meglio le sue funzioni, o è importante che contribuisca anche a costruire una società più giusta? Vediamo quali sono i principi generali che si possono seguire per progettare tecnologie che siano allo stesso tempo intelligenti, eque e aperte.

Intelligenza artificiale, un dibattito polarizzato

Oggi esistono due principali visioni sull’Intelligenza Artificiale. Da un lato vi sono diversi autori che, animati da una concezione distopica di questa tecnologia, temono che l’uomo ne possa perdere il controllo, venendone sopraffatto. In questo caso, gli scenari sono quelli di un’Intelligenza Artificiale che prenderà decisioni importanti al posto nostro, ci ruberà il lavoro, ci discriminerà, violerà la nostra privacy, ci controllerà di nascosto e, in contesti estremi come quelli di guerra, ci ucciderà. Dal lato opposto, invece, altri pensatori sognano un mondo che, proprio grazie all’Intelligenza Artificiale, diventerà più equo: i governanti saranno supportati da potenti strumenti di calcolo che processeranno e sapranno interpretare nella maniera migliore grandi moli di dati, i lavoratori saranno sollevati dai compiti più gravosi e ripetitivi, i prodotti e i servizi costeranno di meno, le aziende aumenteranno i profitti, gli apparati burocratici si snelliranno e le pratiche si velocizzeranno, i crimini diminuiranno e le malattie verranno studiate meglio, fino a debellarle.

Le problematiche etico-sociali dell’intelligenza artificiale

Noi, naturalmente, preferiremmo che si realizzasse la seconda, tra queste due visioni. Tuttavia, affinché essa si inveri, riteniamo utile perseguire una strada specifica, che chiamiamo la via critica verso l’utopia. Si tratta di studiare con grande attenzione le problematiche etico-sociali nascoste dietro ai meccanismi di design e sviluppo delle tecniche di Intelligenza Artificiale, affinché gli strumenti a cui esse danno origine siano progettati in maniera responsabile e inclusiva. Il mondo scientifico, infatti, sta muovendo passi rilevanti per mettere l’etica al centro della programmazione dell’Intelligenza Artificiale: si veda ad esempio all’iniziativa congiunta di Harvard e MIT, a capo di un fondo di finanziamento da 27 milioni di dollari per studiare l’etica e il governo dell’Intelligenza Artificiale, tema sui cui in Italia il Centro Nexa su Internet e Società e il Laboratorio Nazionale CINI su Informatica e Società hanno già organizzato una conferenza nazionale il 18 dicembre 2017.

La sfida che ci attende

La sfida che ci attende, come comunità scientifica e come società, è: che tipo di razionalità vogliamo imporre all’Intelligenza Artificiale?

Come già abbiamo dimostrato in un precedente articolo apparso su Agenda Digitale, le “forme di conoscenza” su cui si appoggiano gli algoritmi che “animano” queste macchine sono il frutto di basi di dati (o, nel più semplice dei casi, di indagini statistiche), che possono anche essere – anche se non è detto che lo siano – accurate, ma che rappresentano certe storture della nostra società. In particolare, esiste un problema di bias del mondo in cui viviamo che spesso non sono identificati e vengono inseriti all’interno degli strumenti informatici di cui ci serviamo, e di cui sempre più ci serviremo, con il risultato che molte ingiustizie non potranno che perpetuarsi e acuirsi.

Intelligenza artificiale e attività decisionali, i problemi

Ma i problemi etici sollevati dal funzionamento dell’Intelligenza Artificiale vanno ben oltre la composizione delle sue “forme di conoscenza”. Il grande interrogativo è legato all’utilizzo di questo genere di strumenti nell’attività decisionale, sia come assistenti degli esseri umani, sia come “soggetti” autonomi. In tutti e due i casi, queste tecnologie producono degli effetti sulla vita delle persone, a proposito dei quali è necessario potere sempre individuare un responsabile in carne e ossa, o quantomeno istituzionale. Il punto, però, è capire di chi si tratti, se del produttore o del possessore dell’Intelligenza Artificiale, oppure ancora del suo utente finale: è giusto incolpare il Ministro di un Governo, oppure intentare una causa a uno Stato, per aver attuato certe politiche, sulla base del supporto di algoritmi che si appoggiano su dati affetti dai bias di cui si è scritto? Se un robot – per esempio un’auto senza conducente, oppure un drone pilotato da un computer – fa del male a qualcuno, chi deve essere incriminato?

Trasparenza e apertura: l’etica dell’AI

Da un punto di vista etico, poi, l’Intelligenza Artificiale pone problemi di trasparenza e di apertura, poiché spesso non è possibile determinare né quali sono i dati su cui essa basa il suo funzionamento, né l’architettura dei suoi algoritmi, che sono coperti dal segreto industriale. Questo può rivelarsi pericoloso in molti ambiti. Per esempio, nel mondo del lavoro, cominciano a sollevarsi perplessità sull’utilizzo di strumenti di Intelligenza Artificiale nella selezione e nella gestione del personale, di cui né gli impiegati, né i corpi intermedi conoscono i meccanismi. Ma si pensi anche agli scenari distopici dell’adozione di macchine “opache” da parte dello Stato, che amministrerebbe il suo potere senza consentire ai cittadini di poterne controllare l’operato. Per questo motivo, è importante la promozione degli open data e dell’open code degli strumenti di Intelligenza Artificiale operanti in decisioni ad alto impatto sulla vita delle persone. Ovviamente, il contraltare del paradigma open è la necessità di tutelare la privacy degli individui, un problema che induce a porre dei paletti oltre i quali la trasparenza non può essere perseguita. Uno dei nodi tipici, nel campo dell’Intelligenza Artificiale e non solo è, per esempio, quello del cosiddetto “effetto mosaico”, legato all’utilizzo secondario di certi dati, molto frequente nelle ricerche in ambito sanitario, che non è facile prevedere sin dall’inizio e che, per questo, rende di complessa attuazione il consenso informato. Un consenso che deve essere chiamato in causa anche per stabilire in quali situazioni ognuno di noi possa rifiutarsi di essere sottoposto a “trattamento” mediante strumenti di Intelligenza Artificiale.

La via critica all’utopia: i principi generali

Per affrontare queste sfide poste dalla progettazione di un’Intelligenza Artificiale animata da una solida “razionalità etica”, può essere utile seguire alcuni principi generali, che citiamo dal libro bianco Intelligenza Artificiale al servizio del cittadino (2018), che due degli autori di questo articolo hanno contribuito a redigere, insieme all’Agenzia per l’Italia Digitale (Agid). Tra questi, innanzitutto, va menzionato quello che si potrebbe definire “umanistico” o “antropocentrico”, secondo cui l’Intelligenza Artificiale deve essere sempre messa al servizio dell’uomo e non viceversa. Ci sono, poi, “principi di equità, come quello procedurale (non arbitrarietà delle procedure), formale (uguale trattamento per individui o gruppi uguali) e sostanziale (rimozione effettiva degli ostacoli di natura economico-sociale)”, il soddisfacimento di alcuni bisogni di base universali, come il rispetto dei diritti di libertà e di rivendicazione di questi ultimi.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati