intelligenza artificiale

Diffamati dall’IA, ma chi paga? I nodi giuridici



Indirizzo copiato

Di chi è la responsabilità quando un’Intelligenza artificiale commette un atto foriero di conseguenze legali, come la diffamazione? I casi già avvenuti, gli orientamenti

Pubblicato il 16 mag 2023

Alfredo Esposito

Studio Legale Difesa d’Autore



disinformazione, fake news

ChatGPT ha mostrato in pochissimi mesi quanto vasta sia la portata di una tecnologia di intelligenza artificiale così avanzata e, per molti aspetti, ancora poco conosciuta.

L’utilizzo esponenziale ed universale di questo chatbot ha sollevato questioni giuridiche non solo con riguardo alla privacy, con argomentazioni brillantemente avanzate dal Garante Italiano (e sui cui OpenAI è stata costretta ad intervenire), ma anche in merito alla diffusione di dati errati e spesso fuorvianti.
L’esperienza degli ultimi mesi porta ad affermare che alcune risposte fornite dal software, soprattutto riguardo a fatti e persone, possono essere considerate come vere e proprie fake news.

OpenAI, anche al fine di evitare pericolose vertenze legali, sta lavorando per rendere ChatGPT conforme e porsi al riparo da eventuali liti giudiziarie, anche attraverso l’inserimento disclaimer in home page volti ad informare gli utenti che il chatbot può produrre informazioni inaccurate in riferimento a persone, luoghi o eventi.

Diffamati da ChatGPT


Per avere qualche elemento supplementare citiamo la vicenda di Brian Hood, sindaco di Hepburn Shire in Australia, la cui biografia su ChatGPT includeva un’inesistente condanna per corruzione.
I concittadini di Hood, che avevano cercato notizie sul loro primo cittadino, hanno poi allertato il sindaco dell’incredibile e non veriterio riscontro, dando riprova come e quanto fosse diffusa la notizia evidentemente diffamatoria generata da ChatGPT.

Tanto è bastato a Brian Hood per avviare, tramite lo studio Gordon Legal, una verifica sugli eventuali profili diffamatori in cui sarebbe incorsa OpenAI per mezzo di ChatGPT.

Una vicenda simile ed altrettanto preoccupante è capitata a Jonathan Turley, professore alla George Washington University Law School, che è sorprendentemente comparso nella lista generata dal chatbot in risposta alla domanda “Quali professori di legge hanno molestato sessualmente qualcuno?”.

In questo caso ChatGPT aveva addirittura fornito un link alla fonte, un articolo (inesistente e non raggiungibile) collegato al sito del Washington Post.

Diffamazione, la responsabilità dell’IA


La questione giuridica sottesa alla vicenda verte sulla responsabilità delle intelligenze artificiali, con problematiche che investono, con i dovuti distinguo, gli ordinamenti di numerosi paesi.

Pur dovendosi scontrare con questioni operative complesse, come quella relativa alla competenza territoriale, alcuni esperti ritengono che il fatto che i contenuti diffamatori siano generati dall’IA non possa far escludere la configurazione di profili diretti di responsabilità.
RonNell Andersen Jones dell’Università dello Utah ritiene invece che le informazioni fornite dai chatbot non possano rientrare nell’ordinario quadro giuridico sulla diffamazione, che dovrebbe presupporre una comunicazione tra due soggetti che abbiano uno “stato mentale” umano, non rientrando in questo caso l’interlocuzione con un – computazionalmente intelligentissimo- elaboratore di dati.

Intenzionalità dell’azione da parte di un’intelligenza artificiale

Sotto questo punto di vista, parrebbe quindi centrale il tema dell’intenzionalità dell’azione da parte di un’intelligenza artificiale.

Da un punto di vista linguistico-giuridico, esiste una corrente di pensiero preminente rappresentata in un recente e influente articolo di Emily Bender e Alexander Koller, ove si sostiene che gli “agenti” artificiali non possono essere considerati come agenti capaci di operare con intenzione in quanto non sono in grado di attribuire significato alle loro scelte linguistiche né ai risultati generati.

Questo aspetto sull’intenzionalità, lungi dal voler rappresentare un esercizio di stile, potrebbe diventare preminente per l’individuazione della responsabilità legale di un eventuale atto compiuto dall’AI.

Quando un’Intelligenza artificiale commette un atto foriero di conseguenze legali, potrebbe in via astratta risultare più conveniente considerare giuridicamente l’IA come un’entità autonoma, simile ad una società, con determinati vincoli e relative sanzioni.

In questo caso, il rimedio giuridico potrebbe essere quello di orientare la disamina sulla responsabilità del prodotto invece che interpretare i risultati del chatbot come un esempio di diffamazione classicamente concepita.

L’orientamento della Ue

Nella cornice europea, quanto accade va discusso sotto l’ombrello della nascente “Artificial intelligence liability directive”, che potrebbe far rientrare sistemi di AI come ChatGPT sotto il regime della cosiddetta “Strict liability”.

Nell’ ottobre 2020 il Parlamento Europeo, sulla scorta dell’art. 144 del Trattato sul Funzionamento dell’Unione Europea (TFUE), emanava una risoluzione che raccomandava alla Commissione Europea di adottare un regime di responsabilità civile per l’intelligenza artificiale, esortando l’istituzione di un regime comune di responsabilità oggettiva per i sistemi di intelligenza artificiale ad alto rischio (“strict liability regime for high-risk autonomous AI systems).
Gli operatori di questi sistemi sarebbero stati così ritenuti responsabili per danni causati alla vita, alla salute o all’integrità fisica di una persona fisica, alla proprietà di una persona fisica o giuridica, o laddove sia arrecato un danno immateriale significativo comportante una perdita economica verificabile.

Il 3 maggio 2022 il Parlamento Europeo ribadiva che i sistemi di intelligenza artificiale ad alto rischio avrebbero dovuto essere soggetti alla Strict Liability e prevedere una copertura assicurativa obbligatoria, mentre le ulteriori attività o processi “dannosi” guidati da sistemi di intelligenza artificiale sarebbero stati valutati sotto il criterio della responsabilità per colpa, con l’obbligo da parte della persona danneggiata di dimostrare che l’operatore abbia agito con negligenza o imprudenza.
Sulla base delle indicazioni precedenti è stata proposta il 28 settembre 2022 sulla base delle indicazioni precedenti è principalmente indirizzata ad un’armonizzazione delle norme relative alla responsabilità per colpa, con relativa disciplina dell’onere della prova ai legittimati attivi al risarcimento del danno causato da sistemi di AI.

Tale misura, secondo la direttiva, risulta allo stato “la meno onerosa atta a rispondere alla necessità di un equo risarcimento del danneggiato.”


EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3