Si può considerare un’intelligenza artificiale alla stregua di un qualsiasi altro individuo? Attualmente no, ce lo dice la legge, ce lo dicono i fatti e, tutto sommato anche il buon senso. Tuttavia, il quesito, e le questioni etiche a esso legate, rimangono sul tavolo in attesa di una risposta soddisfacente.
Rapporto uomo-macchina: un nuovo animismo
Riguardo al rapporto tra uomo e macchina, stiamo infatti vivendo una sorta di nuovo animismo del XXI secolo, in cui il confine tra ciò che vivo e ciò che non lo è sembrerebbe essersi notevolmente assottigliato, eppure questo stesso animismo, ossia, la necessità di attribuire comportamenti a noi assimilabili agli oggetti inanimati è molto umana. E i casi in cui questi aspetti sono ribaditi non mancano.
Nei mesi scorsi, ad esempio, il dibattito è tornato nuovamente di stretto interesse a proposito del “dialogo” tra un ex ingegnere di Google – tale Blake Lemoine – e l’intelligenza artificiale (Mda) su cui stava lavorando e che aveva definito senziente sulla base del presunto timore di morire (tramite il suo spegnimento) da parte di questa.
Il caso ha fatto rapidamente il giro del mondo, soprattutto a causa dell’allontanamento dell’ingegnere da Google, ma non è certo l’unico.
Prima di questo, infatti, un microonde con installata una IA aveva sostanzialmente tentato di uccidere il suo creatore invitandolo a introdurre la testa al suo interno.
D’altra parte, il famoso fisico Stephen Hawking otto anni fa aveva anticipato che “lo sviluppo della piena intelligenza artificiale potrebbe segnare la fine della razza umana”. In effetti, il tema è piuttosto sentito ed è periodicamente oggetto di dibattito. Fisici, ingegneri, religiosi, filosofi e persino cineasti si sono interrogati su questo argomento, ciascuno con la sua verità, senza però giungere a sviluppi concreti, a iniziare dall’ambito regolamentare. Per quanto riguarda, infatti, la rideterminazione del ruolo dell’IA, al momento, abbiamo sostanzialmente le mani legate. La disciplina europea (direttiva 374/85), ad esempio, qualifica i robot come un prodotto e costruisce un sistema di responsabilità oggettiva nel quale non vi è spazio per i concetti di colpa o dolo nell’ipotesi di prodotto difettoso. Figuriamoci codificare il fatto che l’IA possa essere effettivamente considerata un soggetto responsabile delle proprie azioni, senziente e quindi persino capace di provare emozioni paragonabili a quelle umane.
Il futuro della robo-responsabilità: tutte le sfide regolatorie
Il bot saudita Sophia
Vi sono poi casi in cui sono stati fatti degli enormi passi in avanti. È questo il caso del bot saudita Sophia che, nel 2017, a metà tra il serio e il faceto ma non solo per marketing, ha ricevuto la cittadinanza dell’Arabia Saudita, suscitando anche le proteste di diversi commentatori, i quali hanno evidenziato che questo robot aveva più diritti delle donne saudite stesse.
Gli esempi citati sono obiettivamente dei casi limite, paradossali, persino fantascientifici, eppure sono bastati a riaccendere un dibattito fortemente attuale al quale la trasformazione digitale non fa altro che fornire ulteriore linfa. Una prima discriminante, ad esempio, potrebbe essere il fatto se l’IA sia concepita per operare in modo attivo, e quindi di agire in base alle informazioni a disposizione, anche in modo predittivo, una fattispecie in cui l’etica guadagna un ruolo di primo piano.
A tal proposito, sarebbe opportuno riconsiderare il ruolo che l’IA ha e assumerà nella nostra società alla luce degli inevitabili sviluppi che vi saranno. Dalla guida autonoma alle applicazioni in ambito medico, dalla sicurezza alla finanza l’intelligenza artificiale è sempre più presente e determinante nelle nostre vite, tanto da affidarle letteralmente il nostro benessere, fiduciosi che almeno la legge 0 e la legge 1 della robotica vengano sempre rispettate.
Un aggiornamento normativo sull’utilizzo dell’IA che ponga la persona al centro
A questo punto, si rende davvero necessario un aggiornamento normativo sull’utilizzo dell’IA che ponga al centro dell’attenzione la persona ed i suoi diritti fondamentali, quali: la sicurezza, la salute, la libertà, la dignità, l’autodeterminazione, la non discriminazione, la protezione dei dati personali, la trasparenza e la responsabilità individuale e sociale ma che ponga anche le premesse affinché gli utenti godano della necessaria consapevolezza tecnologica tale per cui siano dei soggetti partecipi e attivi delle tecnologie stesse.
A questo necessario passaggio, potremmo addirittura abbinare una normativa che tuteli l’IA dagli interventi umani, ovvero individuare una carta dei diritti e dei doveri cui i robot – riconosciuto il loro ruolo nella nostra società – dovrebbero in qualche modo essere tenuti ad “attenersi”. Ciò che suona in effetti come “fantalegislazione” potrebbe essere la semplice anticipazione dello scenario che ci attende.
L’intelligenza artificiale è ancora un ambito poco sondato, e in parte anche un po’ temuto, sia dal punto di vista normativo che da quello tecnologico. Vale tuttavia la pena approfondirlo, anche perché le opportunità e i casi di utilizzo possono essere quasi sterminati a fronte di pericoli, oggettivamente limitati. Il tutto, tenendo sempre ben chiaro che la complessità dell’intelligenza umana non potrà mai essere copiata fino in fondo.