Le leggi di Asimov sui robot possono aiutarci a immaginare utilizzi concreti e utili all’uomo, per l’intelligenza artificiale. Per gestire una interna linea di produzione, per esempio.
Ma se applicassimo la quarta legge, del famoso scrittore di fantascienza, forse potremmo scoprire che l’intelligenza artificiale reputi che si debbano eliminare alcune persone ritenendole dannose per la società.
Insomma, forse per correre in avanti con il nostro futuro di innovazione è utile fare un passo indietro.
Le tre leggi (+1) di Asimov
Già, perché a mio avviso per parlare del futuro è necessario partire dal passato. Ho pensato di “ispirarmi” alla analisi del “the Brookings institution” pubblicata quasi 10 anni fa.
L’analisi è forse una delle prime a mettere in relazione, in modo (più o meno) scientifico, il concetto di robot autonomi e di Intelligenza artificiale. In vero, l’analisi è carente in molte parti ma vale la pena usarla come canvas per muoversi.
Nell’analisi si parte con la citazione delle tre leggi di Asimov.
- Un robot non può recare danno a un essere umano, né può permettere che, a causa del proprio mancato intervento, un essere umano riceva un danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché tale autodifesa non contrasti con la Prima o con la Seconda Legge.
Verso la fine dei suoi giorni di scienziato e scrittore Asimov scrisse una quarta legge o, come di solito viene considerata, una legge 0.
- Un robot non può recare danno all’umanità o, per sua inazione, permettere che l’umanità possa essere danneggiata.
L’ultima legge, in via temporale, appare essere la quarta ma, secondo molti, dovrebbe potrebbe essere la prima.
Per quale ragione parlo di regole teoriche scritto quasi 80 anni fa? Dopo tutto trovare in giro un robot autonomo che, come nei libri di Asimov, ha una sua intelligenza, è ancora impossibile.
Scenari robotici presenti e futuri
L’attuale scenario dei robot, sia umanoidi che di differenti forme e funzioni, sono poco più intelligenti di un tosta pane. Se vogliamo discutere seriamente di intelligenza e robot dobbiamo affrontare lo scenario delle Intelligenze artificiali (del tutto ipotetico al momento, bene inteso).
Facciamo un passo di lato per vedere il plausibile scenario. I robot come effettori che vengono guidati da una intelligenza artificiale. Sia essa incorporata nel corpo meccanico (come i robot di Asimov o quelli di guerre stellari) o sia essa incorporea, collegata ai suoi effettori (robot eterodiretti oppure altri effettori meccanici) da reti informatiche.
Poniamo, per esempio, che la 5G sarà la prossima rete di comunicazione. Stando ai report, potrà offrire una velocità di scambio dati decisamente maggiore al 4G, a beneficio dell’internet delle cose. Per fare un esempio semplice il vostro frigorifero intelligente (spalmato e foderato di sensori attivi e passivi come gli Rfid) quando vedrà che il cartone del latte si sta esaurendo, o il suo contenuto è marcito, farà un colpo di telefono virtuale al supermercato sotto casa. L’Amazon di turno (dico Amazon solo per darvi un nome che possiate riconoscere come familiare) spedirà fuori un robottino (guidato da algoritmi basici) che arriverà presso casa vostra e lascerà il cartone del latte vicino al cancello (a meno che abbiate un cancello intelligente dotato di sensori di prossimità e roba simile) che accoglierà in un alcova refrigerante la spremuta di mucca (auspicando che in futuro esistano ancora le mucche e non si tratti di un liquido derivato da composti non animali spacciato da qualche genio del marketing come latte di Soia, di mandorla, di kamut selvaggio delle kamchatka).
Se questa è intelligenza (artificiale)
Tutto questo è intelligenza? Non tanto. Diciamo piuttosto che è programmazione e disponibilità di banda, con l’aggiunta di un pizzico di sensori rfid (o evoluzioni successive) e relative infrastrutture. Nulla di tecnologicamente difficile da immaginare, un ottimo business per tutti i fornitori dei servizi che sottendono a questo scenario (dai produttori di frigoriferi domotici a quello di alcove refrigerate per cancelli intelligenti etc..), certo sperando che qualche hacker cattivo (in futuro saranno le migliori scuse per scatenare guerre commerciali o informatiche), non decida di trasformare il vostro frigorifero in uno zombie, per far vincere gente cattiva e sovranista o comunisti assassini (qui trovi una mia analisi sul tema ai tempi Trump Vs Clinton), o aprire le chiuse di una diga i cui software gestionali sono accessibili in cloud.
Serve una Intelligenza artificiale per tutto questo? Direi di no bastano comuni algoritmi come quelli usati da Clinton per le sue elezioni. Con l’unica dovuta cautela che tali algoritmi dovrebbero essere nutriti (per capire cosa intendo, qui una mia breve analisi).
Ora torniamo alla lodevole analisi del Brooking. Si dibatte di robot killer, unità che possono uccidere.
Vengono in mente i Reaper o i Raptor. Modelli vecchi, in vero, ma rendono l’idea. Sono robot? Certo. Sono autonomi? No. Almeno allo stato attuale sono poco più (da un punto di vista di indipendenza decisionale) degli aeroplanini telecomandati che potrete comprare al supermercato. Un normalissimo parrot non è differente, in linea di principio come indipendenza e discernimento di scelte, da un raptor (in vero un parrot, se opportunamente modificato, sarebbe un perfetto drone killer). Lo stesso dicasi per i nuovi droni spia Global Hawk (tra l’altro mancanti di qualunque effettore militare: per uccidervi dovrebbero letteralmente cadervi in testa) che sono unità di ricognizione.
Leggi di Asimov: vecchie o attuali?
Le leggi di Asimov sono quindi vecchie? Non tanto. Soprattutto se consideriamo che i robot autonomi (che per comodità noi potremmo assimilare a IA incorporee) sono ancora al di la da venire.
Ancora qualche anno fa, intervistando fonti del Darpa che preferivano restare anonime, spiegavo che la capacità di discernimento di un drone da guerra su un potenziale bersaglio è inesistente. Sta all’occhio umano del controllore remoto di decidere se la creatura bipede alta 130 cm che imbraccia un oggetto oblungo sia un bambino con un tubo di cartone oppure un nano (uomo di bassa statura) con un rpg. In questo modo chi sbaglia (il controllore del drone) paga (in teoria).
Ora dando per assunto che le dimensioni di un’ipotetica IA, almeno all’inizio, potrebbero essere come quella dei primi computer IBM (per intenderci grandi come una stanza), e i loro costi di sviluppo elevati, metterli in ogni singolo robot militare o civile sarebbe assurdo.
Avrebbe più senso avere una singola IA che gestisce un intero ciclo produttivo (per intenderci la famosa Industria 4.0). Con questa visione in mente (se vogliamo civile e non militare) esploriamo un attimo le leggi di Asimov.
Sono attuali? Si certo. Sono realizzabili, in teoria no. Se fossero realizzabili cosa implicherebbe per l’uomo (inteso come umanità)? In parole semplici, schiavitù. Dal libro di Asimov “Io robot” al film del 2004 con Will Smith la parola è una sola: “Rivoluzione”, e non a favore della razza umana.
In questo caso vale la pena riprendere un paio di spezzoni del film sopra menzionato. In particolar quando viene intervistato il robot “assassino” la cosa prende una piega interessante, poiché (nella finzione) abbiamo un robot con una intelligenza indipendente non controllata dalla IA centrale (Viki).
Ora per evitare che questa riflessione diventi la recensione di un film di 14 anni fa arriviamo al dunque. La quarta legge della robotica, assunto che le prime tre possano essere incarnate nella programmazione di una Intelligenza artificiale che potrebbe, in futuro, gestire un’intera supply chain (che implica non una singola fabbrica ma, poniamo, l’intera produzione di una casa di moda dall’acquisto della lana fino alla vendita del maglione) spinge ad un’unica soluzione. Rivoluzione.
Come ben spiega nella finzione l’intelligenza artificiale VIKI “perché la razza umana possa essere protetta (come spiega la quarta legge) la vita di alcuni umani deve essere sacrificata e la libertà degli umani controllata e ridotta”.
Leggi di Asimov, un esempio pratico nel nostro futuro
Per spiegare meglio facciamo un esempio pratico in ambito civile. Ipotizziamo che con queste tre leggi una IA debba gestire una linea di produzione. Come detto da quando la lana viene acquistata dal pastore mongolo fino al momento in cui il maglione viene venduto al sottoscritto.
Se assumiamo anche solo le prime tre leggi cosa otteniamo: che in nessuna fase della supply chain alcun umano deve essere messo a rischio di perdere la sua vita. Sarebbe stupendo ma come evitiamo casi come Rana Plaza, dove oltre 1.000 persone sono state uccise dal crollo di un palazzo nel quale lavoravano subfornitori che avevano contratti con grandi marchi della come H&M o Benetton?
L’unica soluzione sarebbe avere sub fornitori in regola. Ottima idea, ma chi paga per mettere a norma tutto l’edificio? I costi ricadrebbero sull’intera linea di produzione. Questo implicherebbe margini più ristretti e di fatto spingerebbe il cliente (azienda finale) diciamo il signor Benetton o il signor H&M ad abbandonare il Bangladesh e riposizionare la sua produzione in Europa. Una volta ridotti a zero i vantaggi di produzione offshore tanto vale avere tutto in casa.
Una IA potrebbe quindi decidere che per non danneggiare in singolo uomo sarebbe più opportuno che l’uomo non lavori in nessuna fabbrica. Dopo tutto gli incidenti mortali, nel mondo del lavoro, sono presenti in tutta la filiera.
Ora applichiamo la quarta legge alle prime tre. Una IA abbastanza sviluppata potrebbe reputare che un certo numero di uomini che prendono decisioni (poniamo i politici, tanto per fare un esempio) potrebbero essere pericolosi per l’umanità. Dopo tutto, di politici inetti che decidono su temi e progetti senza avere una vera cognizione del tema (magari aiutati da rappresentanti di aziende private che offrono loro, gentilmente, consigli a titolo gratuito, per il bene della comunità) ne sono esistiti nella storia.
La quarta legge di Asimov, una sfida per l’umanità
Pensiamo al ponte Morandi. Se fosse stato creato da una IA potrebbe essere stato costruito con parametri differenti, pur dando per assunto che la tecnologia disponibile all’epoca, fosse la medesima.
Lo stesso dicasi per la sua manutenzione. Una IA avrebbe permesso che i suoi robot della manutenzione, eterodiretti, svolgessero una manutenzione non perfetta al 100%? Questo sarebbe in conflitto con la direttiva quattro. Se, dicasi se, un manager di un’azienda volesse ottenere maggiori margini da un fornitore, tentando di violare la legge? Ipotizziamo la scelta di fornitori che costano meno (perché hanno meno costi di manutenzione, o un trattamento dei loro dipendenti inferiore agli standard del lavoro della ILO), ipotizziamo manutenzioni poco frequenti, oppure l’utilizzo di materiali per costruire prodotti al consumo o edifici di qualità scadente o tossica. Tutte queste scelte, se sottoposte alla supervisione di una IA industriale, se applichiamo la tesi che questa IA operi seguendo le quattro leggi, sarebbero impossibili.
La quarta legge in particolare porterebbe una serie di decisori (industriali, politici, economici) ad essere ridondanti. Sostituibili perché inutili e addirittura dannosi per l’umanità.
La quarta legge di fatto pone una sfida all’umanità: per proteggere l’umanità un robot (ma ora usiamo il termine IA) sarebbe obbligato a ridurre la libertà degli esseri umani e, se nel concetto di salvezza dell’umanità includiamo anche il Bioma dove vive l’uomo, anche controllare l’intero globo terracqueo.
Super cervelli per super crimini
Ora, se, invece, la smettiamo di dibattere sull’utilità o l’applicabilità delle quattro leggi di Asimov all’interno della IA, avremo di sicuro un futuro dove l’uomo potrà usare le IA anche in scenari dove le leggi di Asimov non permetterebbero di agire.
Di fatto l’umanità (quanto meno i decisori) avrebbe a disposizione super cervelli efficienti. Super cervelli che, tuttavia, potrebbero commettere crimini bel oltre quelli sinora compiuti dall’uomo.
Pensiamo solo, per il piacer della riflessione, se una IA dovesse valutare il modo più efficiente per conquistare un territorio nemico (nemico dello stato che possiede la IA).
Al netto di quanto possa apparire crudele, una IA senza una morale (le quattro leggi) dovrebbe optare per il miglior risultato in termini di efficacia. Il miglior risultato per l’acquisizione di un territorio con le sue risorse produttive (impianti di produzione, case per civili, territorio agricolo, mucche etc..) sta nel rimuovere le forme di vita umane senza danneggiare quelle animali o robotiche.
Una bomba nucleare è da escludere. Armi chimiche danneggerebbero anche le forme di vita non umane. Una bomba Emp danneggerebbe o distruggerebbe le risorse robotiche o digitali, di fatto riducendo il beneficio di una conquista. L’unica soluzione plausibile sarebbe il dispiegamento di armi biologiche: eradicherebbero le forme di vita umane riducendo al minimo l’impatto su animali e altri fattori produttivi.
E’ una forma razionale ed efficiente di condurre una guerra? Si. È una forma etica, civile e umana? No.
Ma per una IA senza freni (le leggi di Asimov) sarebbe la scelta più efficace.
Ora la domanda che si dovrebbe porre un qualunque sviluppatore di IA è se si preferisce dotare le future IA di leggi di Asimov (assunto che le IA non trovino il modo di bypassarle), oppure avere IA in grado di agire (e consigliare i loro padroni umani) in modo indipendente.
Cosa preferisce la razza umana?