La stretta interconnessione tra il mondo dell’Intelligenza artificiale e le applicazioni pratiche della nostra vita quotidiana, verso la quale da decenni l’Europa sta rivolgendo uno sguardo attento e di ampia portata, sembra essere ormai realtà.
Dal momento che i prodotti abilitati per l’IA possono avere sviluppi non previsti e non conosciuti al momento dell’acquisto, ma che si manifestano a seguito della loro prima introduzione nel mercato emerge la necessità – come sottolineato in una Risoluzione recentemente approvata in sede Ue – di adattare le norme di sicurezza, già esistenti, dell’Unione Europea per i prodotti, affinché sia assicurata la tutela dei consumatori in presenza di eventuali e potenziali danni oltre che fare chiarezza negli elementi del sinallagma produttore- utente, il primo circa i suoi obblighi, il secondo circa l’utilizzo dei dispositivi.
L’AI applicata al quotidiano: apparecchi sempre più innovativi nelle nostre case
Prima di entrare nel merito delle ricadute dell’AI nel diritto Ue, facciamo una ricognizione sulle novità tecnologiche che possono darci un’idea dei vantaggi dell’intelligenza artificiale nelle nostre case.
In occasione del CES 2020, Consumer Electronics Show, svoltosi anche quest’anno nel mese di gennaio a Las Vegas, sono stati numerosi i prodotti di nuova generazione, frutto dell’AI, presentati e destinati ad essere utilizzati nelle case dei consumatori; parliamo di smartphone, notebook, TV, prodotti per le smart home che gestiscono il riscaldamento, la sicurezza e l’illuminazione delle abitazioni, in coordinamento con l’assistente vocale, prodotti con sistemi Demand Response, dispositivi per ricaricare le sedie a rotelle utilizzando le colonne delle auto elettriche, software che collegano videocitofoni con smartphone per ordini da remoto.
Molteplici, infine, i nuovi elettrodomestici smart; è stata presentata al CES 2020 una nuova lavatrice, con motore AI DD, che riesce, oltre a verificare il volume ed il peso della biancheria, a identificare la tipologia di tessuto. Le informazioni permettono, con tecnologia deep learning, di individuare il ciclo di lavaggio adeguato oltre a fornire ottime performance sia nella pulizia sia nella conservazione degli indumenti, con verifiche di maggiore durata del 15%.
Ultra innovativi, inoltre, i frigoriferi con tecnologia ThinQ di seconda generazione: l’AI è in grado di fare un inventario in tempo reale dei prodotti ivi contenuti, predisponendo opzioni per riordinarli; altri frigoriferi si basano sulla nuova tecnologia AI di image recognition, con pianificazione dei pasti e maggiore personalizzazione. Addirittura, un nuovo frigorifero permetterà anche di monitorare, insieme ad altri strumenti compatibili, i locali della casa.
Mercato, quest’ultimo, della sicurezza degli ambienti domestici, e non solo, sempre all’avanguardia, con possibilità di controlli sempre più sofisticati, sfruttanti app che consentono di operare a distanza, magari integrati da videocamere dotate di software di riconoscimento facciale, con possibilità di creare profili.
Si parla anche di serrature intelligenti, di dispositivi connessi dotati di una tecnologia di rilevamento di perdite di acqua, di cestino intelligente per la gestione dei rifiuti domestici (il calore sprigionato chiude e sigilla il sacco che viene sostituito, automaticamente, da uno nuovo quando l’uomo preleva quello da gettare), di un nuovo assistente vocale mobile che interagisce in base all’umore, alle azioni ed alle volontà dell’uomo (attiva, in automatico, senza necessità dell’ordine umano, un aspirapolvere quando cadono briciole a terra). Ed ancora, è stato presentato uno strumento di allenamento domestico, con specchio intelligente e tapis roulant, che monitora le attività e la forma fisica, ed infine, ha visto la realizzazione una culla intelligente adeguata alle Linee Guida per il sonno sicuro, collegata al bluetooth, con possibilità dei genitori di gestire il time dal loro smartphone. E, per completare, non si può non menzionare l’introduzione di nuovi sistemi di guida autonoma di ultimissima generazione, con tutte le implicazioni conseguenti.
Le ricadute dell’AI nel diritto europeo
La Commissione per il Mercato Interno e per la protezione dei consumatori del Parlamento Europeo ha approvato il 23 gennaio 2020 una Risoluzione, con 39 voti favorevoli, 4 astenuti, nessuno contrario, sottoposta alla votazione della Camera in seduta plenaria.
La Commissione, evidenziando i problemi derivanti dai possibili sviluppi non previsti e non conosciuti al momento dell’acquisto di prodotti IA, ha sottolineato la necessità di adattare le attuali norme di sicurezza per assicurare la tutela dei consumatori.
L’Unione Europea, in tale ambito, ha già una ricca regolamentazione normativa che, invero, deve essere aggiornata in virtù delle nuove categorie; pensiamo alla responsabilità da prodotto ed alle nozioni giuridiche di “danno” e “difetto” che vanno riletti alla luce delle caratteristiche tecnologiche dell’AI; del pari, va rivista anche la disciplina della distribuzione dell’onere probatorio considerata la posizione di indubbia “debolezza” dell’utente.
Torna, allora, in evidenza un concetto che permea ogni realtà, ossia il rischio, rectius l’analisi del rischio, con il fine di mantenere la giusta convivenza delle nuove realtà AI con la quotidianità dell’uomo-consumatore.
Cosa prevede la Direttiva 85/374/CEE del Consiglio d’Europa
L’originaria Direttiva europea sulla responsabilità per danno da prodotti difettosi 85/374/CEE ha rappresentato un importante completamento della normativa dell’Unione Europea in materia di sicurezza dei prodotti, unitamente alle nuove modalità di approccio nella previsione di regole condivise, con riduzione anche dell’onere amministrativo, finalizzate ad un equilibrato funzionamento del Mercato unico.
Nella Relazione al Parlamento Europeo, al Consiglio ed al Comitato economico e sociale europeo – COM(2018) 246 final, la Commissione Europea ha analizzato e valutato la Direttiva 85/374/CEE ed ha anticipato le considerazioni sulle problematiche emergenti nel settore delle nuove tecnologie.
Vige, da tempo, la responsabilità oggettiva del produttore nel caso di verificazione di danni a carico dei consumatori, con previsione della possibilità di esonero in alcuni casi: quando i produttori riescono a dimostrare che il prodotto, al momento dell’inserimento sul mercato, non aveva il difetto poi riscontrato; che il difetto fosse riferibile comunque al rispetto di regole pubbliche esistenti e che, ab origine, lo stato delle conoscenze tecniche non aveva permesso di rilevarlo. Regola dell’esclusione da responsabilità non imposta agli Stati bensì rimessa alla valutazione di ciascun Paese, con facoltà di deroga espressamente prevista dalla Direttiva.
Il consumatore, dal giorno in cui ha riscontrato il difetto e da esso è stato danneggiato, dimostrandone il nesso di causalità, deve avanzare richiesta risarcitoria entro tre anni; comunque, dopo dieci anni dall’inserimento nel mercato del prodotto, non è più possibile avanzarla.
La Commissione Europea, come da previsione normativa, ogni cinque anni presenta al Consiglio ed Parlamento una relazione informativa ed una valutazione.
In riferimento al periodo 2011-2017, non è emersa alcuna procedura di infrazione; in sede di giustizia europea, invero, la Corte di Giustizia dell’Unione europea si è espressa in quattro pronunce relative a prodotti farmaceutici e presidi medici, con interventi sull’annosa questione dell’onere probatorio, spesso molto, troppo gravoso sul consumatore.
La Relazione, infine, si conclude con la valutazione della Direttiva, risultato di un’analisi attenta di alcuni aspetti rilevanti: la sua efficacia, efficienza, coerenza e pertinenza.
Circa l’efficacia, la valutazione è risultata positiva in quanto è stato ritenuto mantenuto il giusto equilibrio tra la tutela dei danneggiati e la garanzia di una “concorrenza leale sul mercato unico”, pur dovendo intervenire su alcune criticità come l’onere della prova; circa l’efficienza, è stato ritenuto esistente un “quadro giuridico stabile per il mercato unico e per l’armonizzazione della protezione dei consumatori”, anche se l’equilibrio tra costi e vantaggi non è uniforme ma varia a seconda dello Stato, del prodotto e dei settori.
La Direttiva, infine, è stata ritenuta sia coerente, in quanto integrata nell’ambito normativo europeo, anche in materia di sicurezza dei prodotti e rispetto a quella specialistica dei prodotti oltre che a quella generale, sia pertinente in quanto ancora appropriate sono le esigenze iniziali.
Concludendo, quindi, il riscontro valutativo sulla Direttiva 85/374/CEE è risultato soddisfacente.
La Direttiva 85/374/ CEE è ancora attuale?
Ciononostante, è una Direttiva ancora attuale oppure corre il rischio, in tempi brevi considerato il dinamismo delle nuove tecnologie, di diventare obsoleta?
È la stessa Commissione che si pone questa domanda nell’esaminare la persistenza degli elementi suindicati, raccogliendo le perplessità dei portatori di interessi soprattutto in merito all’attualità dei concetti fulcro della Direttiva, alla differenza tra prodotti e servizi se si pensa all’Internet of things, dove prodotti e servizi interagiscono, ed alla natura dei danni derivati ed al concetto di difetto.
Nella Comunicazione della Commissione Europea “Ottimizzare i vantaggi dell’intelligenza artificiale per l’Europa” COM (2018)237, è emersa la necessità di una strategia coerente e globale.
La Direttiva pare, comunque, sia sopravvissuta negli ultimi anni alle innovazioni tecnologiche ma è indubbio che occorra un adeguamento; si pensi all’onere della prova gravante sul consumatore ed alle reali difficoltà nelle “tecnologie digitali emergenti” – come sono definite nella Relazione: “I prodotti possono essere sempre più modificati, adattati e rimessi a nuovo senza che i produttori possano esercitare alcun tipo di controllo. I prodotti avranno inoltre un crescente grado di autonomia. I mercati tradizionali vengono rivoluzionati da modelli imprenditoriali emergenti. L’impatto di questi sviluppi sulla responsabilità per danno da prodotti difettosi richiede ulteriori riflessioni. …Produttori e consumatori devono sapere che cosa possono attendersi dai prodotti in termini di sicurezza, grazie a un quadro chiaro in materia di sicurezza”.
Sempre la Commissione Europea, nella Comunicazione “Resilienza, deterrenza e difesa: verso una cibersicurezza forte per l’UE” COM (2017)450, ha evidenziato che la non gestione dei problemi di ripartizione dei costi in termini di “attribuzione dei danni per le aziende e le catene di approvvigionamento” impediranno il crearsi di un saldo mercato unico nel nuovo settore.
Le conclusioni della Commissione Europea, quindi, sono dirette al mantenimento ed adeguamento della Direttiva ed, all’uopo, sono stati creati due tavoli di lavoro, uno finalizzato ad interpretare, applicare e, se del caso, aggiornare la Direttiva a fronte delle innovazioni tecnologiche emergenti, l’altro per valutare se il regime di responsabilità (fermo restando il principio della responsabilità oggettiva dei produttori) sia adeguato nel raggiungimento del giusto equilibrio tra incentivazione nell’uso delle nuove tecnologie, con stabilità degli investimenti, e la conferma della fiducia dei consumatori- come emerge anche dal documento di lavoro dei servizi della stessa Commissione in ambito di responsabilità per le tecnologie digitali emergenti -SWD(2018)137.
Intelligenza artificiale: il dibattito sull’accountability?
Accountability è un termine, da qualche anno, in uso nelle varie Governance, in ambito della protezione dei dati personali ex GDPR ma anche in quello della responsabilità amministrativa delle persone giuridiche, degli enti e delle società ed associazioni anche prive di personalità giuridica ex Dlgs 231/2001, entrambe di derivazione europea, e può essere definita come la capacità di dar conto della responsabilità, ossia palesare, ai terzi interessati, cosa e come è stato fatto, in un quadro sanzionatorio in caso di violazione delle regole imposte.
Nell’ambito dell’Intelligenza Artificiale, il vero problema è rappresentato dall’imprevedibilità di comportamenti autonomi; fenomeno per cui è stata coniata l’espressione “Emergence Intelligence”.
In letteratura, sono stati previsti due potenziali ambiti di responsabilità: quello del produttore di dati o della rete, che inserisce i dati per alimentare lo sviluppo dell’AI, e quello del produttore che amalgama l’AI, ossia del programmatore.
Gli esperti distinguono, inoltre, l’automatismo e l’autonomia, sebbene i confini tra i due concetti si stiano sempre più assottigliando.
Quando si parla di sistemi di intelligenza artificiale autonoma, il riferimento è ad un’AI che opera in funzione delle proprie sfere di “libertà” ed in virtù delle informazioni elaborate nei processi di decisione automatizzati; è necessario un apprendimento senza soluzione di continuità, con adattamenti e modifiche degli algoritmi.
E il contenuto di tale persistente processo di assimilazione incide sulle decisioni finali, operative della macchina; ed è qui che si insinua il dubbio sulla corretta individuazione di nuovi criteri per l’attribuzione della responsabilità.
Infatti, il rischio sta proprio nella circostanza che l’AI può agire in ambienti con forti variabili che possono incidere sull’apprendimento e, quindi, sulla risoluzione dei problemi; si può parlare di prevedibilità/imprevedibilità aggravata dalla velocità computazionale, al di là del contenimento umano.
L’autonomia, quindi, è la peculiarità dell’AI, frutto di una sempre più marcata tendenza di automatizzazione delle macchine; ma i processi possono portare alla modifica degli algoritmi iniziali a seguito dell’apprendimento continuo.
Ed ecco che si ripropongono, per l’ennesima volta, nuove e più complesse implicazioni dovute anche all’applicazione degli algoritmi con conseguenze nella ripartizione dei costi tra i soggetti interessati; è chiaro che, dinanzi a tutto ciò, le regole attualmente esistenti possono risultare inefficienti, tenendo conto sia della probatio- che può essere- diabolica a carico del consumatore utente sia della circostanza che può trattarsi di difetti non conosciuti né conoscibili al momento dell’introduzione nel mercato del prodotto, comportando un esonero del produttore da responsabilità.
Diverse sono state le proposte avanzate ma è indubbio che l’unica soluzione prospettabile potrebbe essere la previsione di una responsabilità “multilivello”, come da taluni prospettata, proprio a fronte della connessione tra l’accountability ed i vari regimi di responsabilità esistenti.
E, concludendo, le preoccupazioni della Commissione del Mercato interno fanno leva proprio sulle problematiche legate al controllo dei dispositivi AI, nati e programmati per essere entità autonome.
Le prospettive future
La previsione del mantenimento del regime di responsabilità oggettiva dei produttori anche in ambito AI non può che avere ripercussioni sul mercato, con gravi effetti economici sia nella domanda che nell’offerta. L’optimum sarebbe quello di prevedere un ambito di responsabilità dei produttori frutto di un adeguato approccio comune di tutti i soggetti interessati, al fine di non creare meccanismi di deterrenza nei settori della produzione AI e, al contempo, garantire forme di prevenzione e, quindi, di sicurezza per i consumatori.
Nel parere della Commissione per il Mercato Interno e la protezione dei consumatori (13.12.2018), destinato alla Commissione per l’Industria, la ricerca e l’energia su una politica industriale europea globale in materia di robotica e intelligenza artificiale (2018/2008 (IN)- COM(2018)0237, si legge nella parte dei Suggerimenti: “Protezione e rafforzamento del ruolo dei consumatori- 31. crede che le tecnologie di intelligenza artificiale sviluppate sia per la produzione industriale che per uso personale dovrebbero essere soggette a controlli di sicurezza del prodotto da parte delle autorità di vigilanza del mercato e a norme di tutela dei consumatori che garantiscano, se del caso, standard minimi di sicurezza e affrontino il rischio di incidenti causati dall’interazione o dal funzionamento a stretto contatto con gli esseri umani; ritiene che qualsiasi politica sull’intelligenza artificiale debba affrontare le questioni etiche e relative alla protezione dei dati, inclusi i dati di terze parti e i dati personali, alla responsabilità civile e alla cibersicurezza; 32. ricorda che gli algoritmi rappresentano la chiave di volta dell’intelligenza artificiale e della robotica; chiede agli Stati membri di garantire che per l’IA siano utilizzati esclusivamente dati di elevata qualità, in particolare dati aggiornati, accurati e attendibili, al fine di assicurare la fiducia e il consenso dei consumatori; rammenta, in tal senso, l’importanza di poter spiegare i processi decisionali delle tecnologie di IA, dell’imparzialità degli algoritmi, rispettando al contempo il diritto dell’UE, in particolare per quanto riguarda i segreti commerciali, nonché l’importanza di creare strutture di revisione che consentano di correggere eventuali errori nelle decisioni operate dall’IA; 33. sottolinea l’importanza di un’intelligenza artificiale di facile utilizzo per gli utenti, al fine di accrescere la fiducia dei consumatori; ritiene che, nei casi in cui decisioni definitive e permanenti sono prese dall’IA e non dall’uomo, i consumatori dovrebbero esserne informati e dovrebbero essere in grado di chiedere un controllo e una rettifica da parte di esseri umani; pone in evidenza che, quando interagiscono con un sistema automatizzato, gli utenti dovrebbero essere informati su come contattare una persona fisica e come garantire che le decisioni operate dal sistema possano essere verificate e corrette; 34. prende atto del documento di lavoro dei servizi della Commissione, del 25 aprile 2018, sulla responsabilità per le tecnologie digitali emergenti (SWD(2018)0137); osserva la relativa conclusione, ovvero che, pur essendo stabile e funzionante, l’attuale quadro di responsabilità dovrebbe essere riesaminato dal gruppo di esperti sulla responsabilità alla luce delle nuove tecnologie di intelligenza artificiale, al fine di garantire che sia idoneo allo scopo e che includa la prospettiva dei consumatori, degli innovatori e delle imprese che operano all’interno dell’UE; 35. evidenzia la necessità di educare i cittadini, in particolar modo i più giovani, a comprendere il funzionamento dell’intelligenza artificiale; chiede di rafforzare il ruolo dei cittadini e dei consumatori dell’UE rendendo l’IA più facilmente disponibile per i cittadini, i consumatori e la società civile; ritiene che tale obiettivo possa essere conseguito offrendo un’educazione intensiva e diffusa finalizzata a una migliore comprensione dell’intelligenza artificiale.”
La Commissione per la protezione dei consumatori e del mercato interno del Parlamento europeo nella Risoluzione approvata il 23 gennaio 2020 ha, quindi, affrontato nuovamente le suddette tematiche, legate allo sviluppo delle AI e dei processi ADM.
Le sfide degli esperti sono molteplici, legate alla necessità di un adeguato risk assessment.
Dalla lettura della Risoluzione, emerge che i servizi ed i beni che utilizzano AI ed il processo ADM possono comportare il rischio di errori, discriminazione ed addirittura danni ai consumatori, in relazione- ad esempio- ai prezzi differenziati o ai servizi professionali automatizzati, svolti senza la supervisione di professionisti umani altamente qualificati.
Inoltre, gli attuali quadri di sicurezza e responsabilità dell’Unione europea potrebbero essere adattati in relazione a nuovi prodotti e servizi abilitati ad AI, al fine di garantire la libera circolazione nel Mercato unico, con previsione di risarcimento in caso di danni.
Ma, soprattutto: “This is especially important where products and services have automated decision-making capabilities where competent authorities, businesses and consumers do not have access to clear information on how a decision was taken. In this case transparency can only be ensured through reverse burden of proof”.
Infine, ulteriori standard e definizione degli obiettivi, compresa la qualità dei dati e l’eliminazione della distorsione di tutti i datasets con la previsione di garanzie nella progettazione e nel collaudo del processo decisionali degli algoritmi, rappresenteranno tappe fondamentali per aiutare le imprese europee ad essere “compete globally”.
Petra De Sutter, Presidente della Commissione per il mercato interno, ha così commentato: “La tecnologia nel campo dell’intelligenza artificiale e del processo decisionale automatizzato sta avanzando a un ritmo straordinario. Oggi il comitato ha accolto con favore il potenziale di questi progressi, sottolineando allo stesso tempo tre importanti questioni che devono essere affrontate. Dobbiamo assicurarci che sia garantita la protezione e la fiducia dei consumatori, che le norme dell’UE in materia di sicurezza e responsabilità per prodotti e servizi siano idonee allo scopo nell’era digitale e che i set di dati utilizzati nei sistemi decisionali automatizzati siano di alta qualità e sono imparziali ”.
Una volta votata, la Risoluzione è stata trasmessa al Consiglio dell’Unione Europea ed alla Commissione; le proposte per approfondire le tematiche relative verranno presentate il 19 febbraio 2020.