L’Intelligenza Artificiale deve svolgere al meglio le sue funzioni, o è importante che contribuisca anche a costruire una società più giusta? Vediamo quali sono i principi generali che si possono seguire per progettare tecnologie che siano allo stesso tempo intelligenti, eque e aperte.
Intelligenza artificiale, un dibattito polarizzato
Oggi esistono due principali visioni sull’Intelligenza Artificiale. Da un lato vi sono diversi autori che, animati da una concezione distopica di questa tecnologia, temono che l’uomo ne possa perdere il controllo, venendone sopraffatto. In questo caso, gli scenari sono quelli di un’Intelligenza Artificiale che prenderà decisioni importanti al posto nostro, ci ruberà il lavoro, ci discriminerà, violerà la nostra privacy, ci controllerà di nascosto e, in contesti estremi come quelli di guerra, ci ucciderà. Dal lato opposto, invece, altri pensatori sognano un mondo che, proprio grazie all’Intelligenza Artificiale, diventerà più equo: i governanti saranno supportati da potenti strumenti di calcolo che processeranno e sapranno interpretare nella maniera migliore grandi moli di dati, i lavoratori saranno sollevati dai compiti più gravosi e ripetitivi, i prodotti e i servizi costeranno di meno, le aziende aumenteranno i profitti, gli apparati burocratici si snelliranno e le pratiche si velocizzeranno, i crimini diminuiranno e le malattie verranno studiate meglio, fino a debellarle.
Le problematiche etico-sociali dell’intelligenza artificiale
Noi, naturalmente, preferiremmo che si realizzasse la seconda, tra queste due visioni. Tuttavia, affinché essa si inveri, riteniamo utile perseguire una strada specifica, che chiamiamo la via critica verso l’utopia. Si tratta di studiare con grande attenzione le problematiche etico-sociali nascoste dietro ai meccanismi di design e sviluppo delle tecniche di Intelligenza Artificiale, affinché gli strumenti a cui esse danno origine siano progettati in maniera responsabile e inclusiva. Il mondo scientifico, infatti, sta muovendo passi rilevanti per mettere l’etica al centro della programmazione dell’Intelligenza Artificiale: si veda ad esempio all’iniziativa congiunta di Harvard e MIT, a capo di un fondo di finanziamento da 27 milioni di dollari per studiare l’etica e il governo dell’Intelligenza Artificiale, tema sui cui in Italia il Centro Nexa su Internet e Società e il Laboratorio Nazionale CINI su Informatica e Società hanno già organizzato una conferenza nazionale il 18 dicembre 2017.
La sfida che ci attende
La sfida che ci attende, come comunità scientifica e come società, è: che tipo di razionalità vogliamo imporre all’Intelligenza Artificiale?
Come già abbiamo dimostrato in un precedente articolo apparso su Agenda Digitale, le “forme di conoscenza” su cui si appoggiano gli algoritmi che “animano” queste macchine sono il frutto di basi di dati (o, nel più semplice dei casi, di indagini statistiche), che possono anche essere – anche se non è detto che lo siano – accurate, ma che rappresentano certe storture della nostra società. In particolare, esiste un problema di bias del mondo in cui viviamo che spesso non sono identificati e vengono inseriti all’interno degli strumenti informatici di cui ci serviamo, e di cui sempre più ci serviremo, con il risultato che molte ingiustizie non potranno che perpetuarsi e acuirsi.
Intelligenza artificiale e attività decisionali, i problemi
Ma i problemi etici sollevati dal funzionamento dell’Intelligenza Artificiale vanno ben oltre la composizione delle sue “forme di conoscenza”. Il grande interrogativo è legato all’utilizzo di questo genere di strumenti nell’attività decisionale, sia come assistenti degli esseri umani, sia come “soggetti” autonomi. In tutti e due i casi, queste tecnologie producono degli effetti sulla vita delle persone, a proposito dei quali è necessario potere sempre individuare un responsabile in carne e ossa, o quantomeno istituzionale. Il punto, però, è capire di chi si tratti, se del produttore o del possessore dell’Intelligenza Artificiale, oppure ancora del suo utente finale: è giusto incolpare il Ministro di un Governo, oppure intentare una causa a uno Stato, per aver attuato certe politiche, sulla base del supporto di algoritmi che si appoggiano su dati affetti dai bias di cui si è scritto? Se un robot – per esempio un’auto senza conducente, oppure un drone pilotato da un computer – fa del male a qualcuno, chi deve essere incriminato?
Trasparenza e apertura: l’etica dell’AI
Da un punto di vista etico, poi, l’Intelligenza Artificiale pone problemi di trasparenza e di apertura, poiché spesso non è possibile determinare né quali sono i dati su cui essa basa il suo funzionamento, né l’architettura dei suoi algoritmi, che sono coperti dal segreto industriale. Questo può rivelarsi pericoloso in molti ambiti. Per esempio, nel mondo del lavoro, cominciano a sollevarsi perplessità sull’utilizzo di strumenti di Intelligenza Artificiale nella selezione e nella gestione del personale, di cui né gli impiegati, né i corpi intermedi conoscono i meccanismi. Ma si pensi anche agli scenari distopici dell’adozione di macchine “opache” da parte dello Stato, che amministrerebbe il suo potere senza consentire ai cittadini di poterne controllare l’operato. Per questo motivo, è importante la promozione degli open data e dell’open code degli strumenti di Intelligenza Artificiale operanti in decisioni ad alto impatto sulla vita delle persone. Ovviamente, il contraltare del paradigma open è la necessità di tutelare la privacy degli individui, un problema che induce a porre dei paletti oltre i quali la trasparenza non può essere perseguita. Uno dei nodi tipici, nel campo dell’Intelligenza Artificiale e non solo è, per esempio, quello del cosiddetto “effetto mosaico”, legato all’utilizzo secondario di certi dati, molto frequente nelle ricerche in ambito sanitario, che non è facile prevedere sin dall’inizio e che, per questo, rende di complessa attuazione il consenso informato. Un consenso che deve essere chiamato in causa anche per stabilire in quali situazioni ognuno di noi possa rifiutarsi di essere sottoposto a “trattamento” mediante strumenti di Intelligenza Artificiale.
La via critica all’utopia: i principi generali
Per affrontare queste sfide poste dalla progettazione di un’Intelligenza Artificiale animata da una solida “razionalità etica”, può essere utile seguire alcuni principi generali, che citiamo dal libro bianco Intelligenza Artificiale al servizio del cittadino (2018), che due degli autori di questo articolo hanno contribuito a redigere, insieme all’Agenzia per l’Italia Digitale (Agid). Tra questi, innanzitutto, va menzionato quello che si potrebbe definire “umanistico” o “antropocentrico”, secondo cui l’Intelligenza Artificiale deve essere sempre messa al servizio dell’uomo e non viceversa. Ci sono, poi, “principi di equità, come quello procedurale (non arbitrarietà delle procedure), formale (uguale trattamento per individui o gruppi uguali) e sostanziale (rimozione effettiva degli ostacoli di natura economico-sociale)”, il soddisfacimento di alcuni bisogni di base universali, come il rispetto dei diritti di libertà e di rivendicazione di questi ultimi.