La tecnologia può senza dubbio aiutare gli uomini in molti compiti gravosi, ma quando arriviamo a delegare alle macchine non solo “decisioni” algoritmiche (quindi calcolabili) ma anche “scelte” che richiedono giudizio, buon senso, equilibrio, prudenza, saggezza, ecco che i rischi legati all’automazione delle scelte (soprattutto quelle life critical) inevitabilmente aumentano.
Se ne stanno accorgendo anche le maggiori web company americane – Facebook e Google in primis – che iniziano a chiedere aiuto alla società per “frenare” o per “regolare” quello che hanno creato, dopo anni di pressione affinché il mercato e la tecnologia fossero lasciati quali unici strumenti di “regolazione” della società, trascurando e svalutando completamente le altre due dimensioni fondamentali per la vita democratica: l’educazione e le norme (Lessig, 1999).
Cerchiamo allora di capire se, sulla base di questi presupposti, si può sperare che il ruolo delle norme e dell’educazione ritornino ad essere centrali per le future generazioni.
Zuckerberg chiede aiuto ai Governi
Nella sua recente intervista al Washington Post, Mark Zuckerberg arriva a chiedere ai “policy maker“, ai governi, di regolamentare Internet: “La tecnologia è una parte importante della nostra vita e aziende come Facebook hanno immense responsabilità…abbiamo bisogno di un ruolo più attivo dei governi e dei regolatori. Aggiornando le regole per Internet…abbiamo bisogno di una nuova regolamentazione in quattro aree: contenuti dannosi, integrità elettorale, privacy e portabilità dei dati.” (Zuckerberg, 2019).
Un anno fa, di fronte al Congresso Usa, Zuckerberg ammetteva la propria responsabilità, rispetto allo scandalo “Cambridge Analytica”, con la famosa frase “”I’m responsible and I’m sorry” (BBC, 2018). Anche Samidh Chakrabarti, product manager di Facebook, riconosceva l’impatto che i social network hanno sulla democrazia: “… nel 2016 (nelle elezioni USA), abbiamo tardato ad accorgerci di come la nostra piattaforma…venisse usata in modi imprevisti, con ripercussioni sociali che non erano state immaginate” (Kennedy, 2018).
L’Ethics Advisory Board di Google
Anche il recente caso della costituzione, da parte di Google, di un Ethics Advisory Board con persone esterne per fornire “consigli” sugli aspetti etici degli sviluppi tecnologici dell’impresa (seppur repentinamente cancellato a seguito delle proteste dei lavoratori stessi di Google per la presenza di personaggi controversi come Kay Coles James nota per le sue posizioni reazionarie sull’ambiente e sui migranti), sta ad indicare una difficoltà, quasi una richiesta di aiuto alla società (Johnson e Lichfield, 2019).
Ritorna alla mente il monito di Mary Shelley “… Ho visto lo sventurato, il miserabile mostro che avevo creato” (Shelley, 1818), nel romanzo Frankenstein. E ancora prima, l’avvertimento lanciato nel 1797 da Goethe con l’Apprentista Stregone, quando il discepolo del mago non riesce a riprendere il controllo della situazione che lui stesso ha scatenato.
Su un altro fronte, le indagini sul recente disastro aereo del volo ET302 in Etiopia stanno forse facendo emergere un altro caso di eccessiva delega alla tecnologia: sembra che il software di controllo abbia impedito ai piloti di riprendere il controllo dell’aereo: “… the pilots … could not regain control” (Gates, 2019).
Paradossalmente, quando l’umano riesce a riprendere il controllo, come nel caso del pilota Chesley Sullenberger che riesce a far atterrare il volo US1549 con i motori bloccati sul fiume Hudson in pieno centro a New York nel Gennaio del 2009, viene processato per non avere seguito le procedure previste dai regolamenti; fortunatamente viene poi assolto e premiato per aver salvato la vita a tutti i passeggeri.
Il giusto mix tra quattro dimensioni
Perché non viene cercata la giusta miscela tra le quattro dimensioni mercato, tecnologia, educazione e norme quando di progettano sistemi complessi? Una delle tante ragioni, oltre al mito del mercato capace di autoregolarsi, risiede nel considerare la tecnologia come neutra e infallibile.
Finalmente si riscopre quello che tutti gli studi di “Science, Technology, and Society” hanno dimostrato da anni: che la tecnologia non è neutra, che la tecnologia e la società si plasmano a vicenda (Johnson, 1985), che non tutto ciò che e’ tecnicamente possibile… è socialmente desiderabile, ambientalmente sostenibile, eticamente accettabile.
Il risveglio delle coscienze nella Silicon Valley
Finalmente persino in Silicon Valley si assiste ad un “risveglio delle coscienze”: molti ingegneri informatici non dicono più “I’m just an engineer” (persistendo nell’illusione di neutralità), ma chiedono esplicitamente di conoscere per chi e per quale scopo stanno lavorando (Conger e Metz, 2018). Emerge la necessità di un codice deontologico: un code-of-ethics per informatici e’ stato appena definito dalla più grande comunità di computer professionals del mondo: l’ACM, Association for Computing Machinery (ACM, 2018). Nelle scuole di ingegneria più prestigiose viene introdotta la disciplina computer ethics per imparare a valutare anche gli impatti sociali ed etici delle tecnologie dell’informazione (Singer, 2008)
Anche nell’ambito delle cosiddette “intelligenze artificiali” (perché non definirle semplicemente algoritmi che si calibrano con – tanti! – dati?) la Commissione europea ha definito un High Level Expert Group on Artificial Intelligence per definire delle linee guida sugli aspetti etici.
I primi risultati sono molto interessanti: queste tecnologie devono promuovere il benessere delle persone e del pianeta, prevenire danni dall’uso improprio o dal comportamento imprevisto delle macchine, preservare il valore intrinseco delle scelte umane e contenere i rischi di una delega eccessiva alle macchine, contribuire alla giustizia globale e all’accesso equo ai benefici di queste tecnologie, garantire la trasparenza degli algoritmi (intelligibilità) e delle responsabilità’ (ethical accountability) (Floridi e al., 2018).
Ci sono tutti gli elementi per immaginare un futuro dove le tecnologie aiutano gli umani e dove i computer professionals forniscono alla società e ai policy makers valutazioni realistiche delle potenzialità e dei limiti delle tecnologie dell’informazione, dove il ruolo delle norme e dell’educazione ritornano ad essere centrali per le future generazioni.
_____________________________________________________________
BIBLIOGRAFIA
– ACM (2018), ACM Code of Ethics and Professional Conduct, www.acm.org/code-of-ethics.
– BBC (2018), Zuckerberg to Congress: “I’m responsible and I’m sorry“, BBC News, 10 April 2018.
– Conger K., Metz C. (2018), Tech Workers Now Want To Know: What Are We Building This For?, New York Times, 7 October 2018.
– Floridi L., Cowls, J., Beltrametti M., Chatila R., Chazerand P., Dignum V., Luetge C., Madelin R., Pagallo U., Rossi F., Schafer B., Valcke P., Vayena E. (2018), AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations, Minds and Machines (2018) 28:689–707.
– Gates D. (2019), Why Boeing’s emergency directions may have failed to save 737 MAX, The Seattle Times, 3 April 2019.
– Kennedy M. (2018), Facebook Says Social Media Can Be Negative For Democracy, NPR, 22 Janary 2018.
– Johnson B., Lichfield G. (2019), Hey Google, sorry you lost your ethics council, so we made one for you, Technology Review, 6 April 2019.
– Johnson D.G. (1985), Computer Ethics, Pearson.
– Lessig L. (1999), Code and other laws of cyberscpace, Basic Books.
– Shelley M. (1818), Frankenstein; or, The Modern Prometheus, Lackington, Hughes, Harding, Mavor & Jones.
– Singer N. (2018), Tech’s Ethical ‘Dark Side’: Harvard, Stanford, and Others Want to Address It, New York Times, 12 February 2018.
– Zuckerberg M. (2019), The Internet needs new rules. Let’s start in these four area, Washington Post, 30 March 2019.