Lo sviluppo di sistemi di intelligenza artificiale sempre più complessi e performanti implica, e sempre più lo farà in futuro, una serie di problematiche etiche e giuridiche. La protezione dei dati è sicuramente uno degli ambiti più rilevanti fra quelli coinvolti, ma non è il solo: dalla contrattualistica alla proprietà intellettuale e alla responsabilità da prodotto, sono numerosi i settori coinvolti.
Con questa rubrica, vi accompagneremo in un viaggio attraverso le principali tematiche giuridiche ad oggi connesse allo sviluppo dei sistemi di intelligenza artificiale, individuando sia le criticità sia le opportunità emergenti, e identificando gli strumenti giuridici attualmente disponibili per fronteggiare le nuove sfide.
AI, una (difficile) definizione
Prima di esaminare le principali questioni giuridiche che si pongono con lo sviluppo della AI, è opportuno comprendere di cosa si tratti in concreto: le implicazioni e gli sviluppi pratici dell’AI sono sotto gli occhi di tutti, ma è ancora oggi difficile fornire una definizione univoca e globalmente accettata di “intelligenza artificiale”.
Per semplicità qui parliamo di “sistemi AI”. Questo perché il concetto di AI è molto ampio, e può abbracciare diverse prospettive: non bisogna commettere l’errore di pensare alla AI come al solo settore della robotica, ma è necessario tenere in considerazione numerose altre caratteristiche proprie dei sistemi AI.
Per chi volesse approfondire il tema, a livello normativo, una prima definizione di AI, per quanto ampia e generica, è fornita nel documento “Draft Ethics guidelines for trustworthy AI”, pubblicato di recente Commissione Europea (in data 18.12.2018: la Commissione Europea, prima di fornire una disciplina analitica in materia di AI, ha prima ritenuto opportuno suggerire un approccio etico alla materia, che in un secondo momento potrà indirizzare anche le scelte dei legislatori comunitari e nazionali). Si tratta di una definizione “provvisoria” di AI, in considerazione del fatto che il documento è sottoposto a consultazione pubblica e sarà disponibile una versione definitiva non prima del marzo 2019. Qui di seguito uno stralcio della definizione fornita:
“Artificial intelligence (AI) refers to systems designed by humans that, given a complex goal, act in the physical or digital world by perceiving their environment, interpreting the collected structured or unstructured data, reasoning on the knowledge derived from this data and deciding the best action(s) to take (according to pre-defined parameters) to achieve the given goal. AI systems can also be designed to learn to adapt their behaviour by analysing how the environment is affected by their previous actions. As a scientific discipline, AI includes several approaches and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical systems)”.
Per meglio comprendere il concetto di AI, può essere di aiuto anche una definizione fornita dalla proposta di legge USA di fine 2017 denominata “Fundamentally Understanding the Usability and Realistic Evolution of Artificial Intelligence Act of 2017”:
“any artificial systems that perform tasks under varying and unpredictable circumstances, without significant human oversight, or that can learn from their experience and improve their performance (…)”.
Si tratta di definizioni volutamente ampie, idonee ad includere ogni sistema – hardware o software – in grado di reagire alle variabili ambientali, e migliorare le prestazioni sulla base dell’esperienza acquisita (c.d. ”machine learning” e “machine reasoning”, funzionalità peraltro citate anche all’interno della definizione di cui al documento della Commissione Europea, sopra citato), senza un rilevante contributo umano. Tali definizioni sono utili perché consentono di inquadrare al meglio la vastità di possibili applicazioni (e implicazioni) della AI.
AI, le principali questioni giuridiche e etiche
La definizione, per quanto ampia, del concetto di AI è fondamentale per comprendere le principali questioni giuridiche sollevate dai suoi sviluppi.
Sono, intuitivamente, oggetto di numerosi approfondimenti e discussioni le implicazioni e i rischi dell’utilizzo AI in materia di tutela dei dati personali (dal momento che l’analisi, il trattamento e l’elaborazione di grandi quantitativi di dati e informazioni è alla base del funzionamento di ogni sistema AI).
Ma si pongono anche altri temi: dalla proprietà intellettuale, al diritto dei contratti, alla responsabilità civile. E non bisogna dimenticare che siamo solo alle prime fasi della evoluzione dei sistemi AI: nel futuro si porranno ulteriori affascinanti temi, che ad oggi ci riesce difficile immaginare.
Alle problematiche giuridiche si affiancano, naturalmente, anche tematiche di natura eminentemente etica e filosofica (come correttamente compreso anche dalla Commissione Europea con il documento sopra citato): non le affronteremo in questa sede, ma sono estremamente importanti perché con tutta probabilità influenzeranno i futuri approcci legislativi.
In ogni caso, stante l’importanza delle questioni da affrontare, è fondamentale che ogni intervento normativo adotti un’ampia nozione di AI in un’ottica di neutralità tecnologica. Senza necessariamente richiamare complicate analogie con reti e capacità neuronali, per AI a livello normativo si dovrebbe coprire tutti i sistemi in grado di imparare autonomamente dall’ambiente circostanze ed esperienza acquisita (un po’ come dovremmo fare tutti noi!).
La sfida della gestione degli sviluppi dell’AI
Gli sviluppi nel settore dell’AI occorsi negli ultimi anni stanno ponendo le basi per una nuova rivoluzione industriale, che potrebbe coinvolgere ogni settore e comparto economico: non si tratta solo di automazione dei processi produttivi, ma per la prima volta nella storia dell’uomo questi potranno essere governati e gestiti da macchine in grado di interagire con l’ambiente circostante e apprendere da eventi pregressi, anche con capacità predittive per comportamenti futuri. Il tutto, ovviamente, non si sviluppa solo a livello di produzione industriale, ma si estende anche alla prestazione di servizi di ogni genere.
La gestione degli sviluppi della AI comporta per i governi e le istituzioni sovranazionali una sfida decisiva che, se affrontata correttamente e tempestivamente, costituirà una straordinaria opportunità di crescita sia dei singoli stakeholder, sia di interi sistemi-paese.
Al contrario, se una rivoluzione di tale portata non sarà gestita e governata con attenzione (non solo dai singoli operatori, ma anche a livello macroeconomico), potrebbe creare scenari pericolosi, con perdita di grandi quantitativi di posti di lavoro e allocazione della ricchezza sempre più sproporzionata.
AI, applicazioni pratiche e scenari futuri
In questa rubrica vi parleremo anche di alcune applicazioni pratiche e scenari futuri, pur consapevoli che in questo momento è necessario saper interpretare il presente, piuttosto che cedere alla tentazione di interpretare futuristici, quanto ipotetici, scenari. La rivoluzione portata dalla AI è, infatti, già in corso. I sistemi AI operano da tempo nella nostra vita quotidiana, e influenzano in modo più o meno diretto le nostre condotte e le nostre decisioni (basti pensare agli algoritmi sui quali si fondano le tecnologie dell’informazione (es. alcuni assistenti virtuali, i chatbot per servizi di supporto e assistenza della clientela, software predittivi di comportamenti economici dei consumatori, sistemi smart home, tecnologie smart car, ecc.), o che forniscono servizi in ambito di prevenzione del crimine o di frodi (es. i software che elaborano e processano le immagini provenienti da sistemi di videosorveglianza in luoghi pubblici per “riconoscere” volti già schedati o comportamenti “sospetti”, o i software preordinati alla vigilanza antifrode nel settore bancario e finanziario).
Come ogni novità tecnologica (o economica, o produttiva), la diffusione e la pervasività dei sistemi AI pone numerose tematiche di natura non solo giuridica, ma anche etica.
Nonostante i sistemi AI siano già “presenti” e “operanti” nelle nostre vite, non esistono ancora (non solo a livello italiano) fonti normative che disciplinino specificamente i vincoli e i limiti all’operatività delle tecnologie AI, e gli impatti che possono avere sulla condotta umana.
In assenza di specifiche disposizioni normative sul punto, quindi, le problematiche giuridiche emerse devono per ora essere affrontate e risolte alla luce delle fonti esistenti, che devono essere “adattate”, per quanto possibile, alle nuove situazioni giuridiche che si creano con la AI.