Arriva oggi la proposta di direttiva europea, dalla Commissione ue, su “Nuove regole di responsabilità sui prodotti e sull’IA per proteggere i consumatori e promuovere l’innovazione”.
A fronte della accelerazione normativa che stiamo vivendo a livello globale sul tema della data economy, con l’Europa a fare da locomotiva, indubbiamente era molto attesa questa proposta.
Danni da intelligenza artificiale, l’Ue guarda oltre l’Ai Act: i temi sul tavolo
La direttiva sulla responsabilità dell’intelligenza artificiale
La direttiva sulla responsabilità per i danni da prodotto ha quarant’anni e la tecnologia che sta dietro i prodotti che usiamo oggi e che useremo da qui in avanti è molto più complessa di allora, il che rende più difficile, spesso, ottenere le prove necessarie a dimostrare il nesso di causalità tra il difetto e il danno arrecato all’utente. Se aggiungiamo l’AI a tali prodotti, l’affare si complica ulteriormente.
Questa direttiva è cruciale per permettere alla Commissione, e alle aziende stesse, di rompere quella barriera di scetticismo che potrebbe far desistere i consumatori dall’acquistare un prodotto che usa l’intelligenza artificiale.
Senza un alleggerimento dell’onere della prova e una maggior facilità nell’accesso alle informazioni necessarie a dimostrare il nesso causale, difficilmente gli utenti, siano essi consumatori o altre aziende che si servono degli stessi prodotti, si fideranno ad acquistare dei prodotti per cui non sia chiaro chi sia il responsabile in caso di problemi e malfunzionamenti.
C’è infatti da considerare che spesso questi prodotti sono poi il frutto della collaborazione di molte aziende e che, per sua natura, i risultati dell’AI sono spesso opachi e inspiegabili anche agli occhi dei suoi stessi sviluppatori. Mi sembra dunque un passo importante che consentirà a quelle aziende che sono più trasparenti, e che non vogliono schivare le proprie responsabilità dietro “la scelta dell’algoritmo”, di posizionarsi sul mercato come responsabili e degne della fiducia di chi le sceglierà
Gli obiettivi della direttiva su responsabilità civile connessa a AI
Come scrive la Commissione, l’obiettivo della direttiva sulla responsabilità per l’IA è quello di stabilire regole uniformi per l’accesso alle informazioni e l’alleggerimento dell’onere della prova in relazione ai danni causati dai sistemi di IA, stabilendo una protezione più ampia per le vittime (siano esse persone fisiche o imprese) e promuovendo il settore dell’IA attraverso l’aumento delle garanzie.
La direttiva armonizzerà alcune norme per le richieste di risarcimento al di fuori dell’ambito di applicazione della direttiva sulla responsabilità per danno da prodotto, nei casi in cui il danno è causato da un comportamento illecito. Ciò riguarda, ad esempio, le violazioni della privacy o i danni causati da problemi di sicurezza. Le nuove norme, ad esempio, renderanno più facile ottenere un risarcimento se qualcuno è stato discriminato in un processo di assunzione che coinvolge la tecnologia AI.
La direttiva semplifica l’iter legale per le vittime quando si tratta di dimostrare che la colpa di qualcuno ha causato un danno, introducendo due caratteristiche principali: in primo luogo, nelle circostanze in cui è stata stabilita una colpa rilevante e sembra ragionevolmente probabile un nesso causale con le prestazioni dell’IA, la cosiddetta “presunzione di causalità” affronterà le difficoltà incontrate dalle vittime nel dover spiegare in dettaglio come il danno sia stato causato da una colpa o da un’omissione specifica, cosa che può essere particolarmente difficile quando si cerca di comprendere e navigare in sistemi complessi di IA. In secondo luogo, le vittime avranno più strumenti per ottenere un risarcimento legale, introducendo un diritto di accesso alle prove da parte di aziende e fornitori, nei casi in cui sia coinvolta l’IA ad alto rischio.
Le nuove norme raggiungono un equilibrio tra la protezione dei consumatori e la promozione dell’innovazione, eliminando ulteriori barriere per l’accesso al risarcimento da parte delle vittime e stabilendo al contempo garanzie per il settore dell’IA, introducendo, ad esempio, il diritto di opporsi a un’azione di responsabilità basata su una presunzione di causalità.
Redazione