ChatGPT ha mostrato in pochissimi mesi quanto vasta sia la portata di una tecnologia di intelligenza artificiale così avanzata e, per molti aspetti, ancora poco conosciuta.
L’utilizzo esponenziale ed universale di questo chatbot ha sollevato questioni giuridiche non solo con riguardo alla privacy, con argomentazioni brillantemente avanzate dal Garante Italiano (e sui cui OpenAI è stata costretta ad intervenire), ma anche in merito alla diffusione di dati errati e spesso fuorvianti.
L’esperienza degli ultimi mesi porta ad affermare che alcune risposte fornite dal software, soprattutto riguardo a fatti e persone, possono essere considerate come vere e proprie fake news.
OpenAI, anche al fine di evitare pericolose vertenze legali, sta lavorando per rendere ChatGPT conforme e porsi al riparo da eventuali liti giudiziarie, anche attraverso l’inserimento disclaimer in home page volti ad informare gli utenti che il chatbot può produrre informazioni inaccurate in riferimento a persone, luoghi o eventi.
Diffamati da ChatGPT
Per avere qualche elemento supplementare citiamo la vicenda di Brian Hood, sindaco di Hepburn Shire in Australia, la cui biografia su ChatGPT includeva un’inesistente condanna per corruzione.
I concittadini di Hood, che avevano cercato notizie sul loro primo cittadino, hanno poi allertato il sindaco dell’incredibile e non veriterio riscontro, dando riprova come e quanto fosse diffusa la notizia evidentemente diffamatoria generata da ChatGPT.
Tanto è bastato a Brian Hood per avviare, tramite lo studio Gordon Legal, una verifica sugli eventuali profili diffamatori in cui sarebbe incorsa OpenAI per mezzo di ChatGPT.
Una vicenda simile ed altrettanto preoccupante è capitata a Jonathan Turley, professore alla George Washington University Law School, che è sorprendentemente comparso nella lista generata dal chatbot in risposta alla domanda “Quali professori di legge hanno molestato sessualmente qualcuno?”.
In questo caso ChatGPT aveva addirittura fornito un link alla fonte, un articolo (inesistente e non raggiungibile) collegato al sito del Washington Post.
Diffamazione, la responsabilità dell’IA
La questione giuridica sottesa alla vicenda verte sulla responsabilità delle intelligenze artificiali, con problematiche che investono, con i dovuti distinguo, gli ordinamenti di numerosi paesi.
Pur dovendosi scontrare con questioni operative complesse, come quella relativa alla competenza territoriale, alcuni esperti ritengono che il fatto che i contenuti diffamatori siano generati dall’IA non possa far escludere la configurazione di profili diretti di responsabilità.
RonNell Andersen Jones dell’Università dello Utah ritiene invece che le informazioni fornite dai chatbot non possano rientrare nell’ordinario quadro giuridico sulla diffamazione, che dovrebbe presupporre una comunicazione tra due soggetti che abbiano uno “stato mentale” umano, non rientrando in questo caso l’interlocuzione con un – computazionalmente intelligentissimo- elaboratore di dati.
Intenzionalità dell’azione da parte di un’intelligenza artificiale
Sotto questo punto di vista, parrebbe quindi centrale il tema dell’intenzionalità dell’azione da parte di un’intelligenza artificiale.
Da un punto di vista linguistico-giuridico, esiste una corrente di pensiero preminente rappresentata in un recente e influente articolo di Emily Bender e Alexander Koller, ove si sostiene che gli “agenti” artificiali non possono essere considerati come agenti capaci di operare con intenzione in quanto non sono in grado di attribuire significato alle loro scelte linguistiche né ai risultati generati.
Questo aspetto sull’intenzionalità, lungi dal voler rappresentare un esercizio di stile, potrebbe diventare preminente per l’individuazione della responsabilità legale di un eventuale atto compiuto dall’AI.
Quando un’Intelligenza artificiale commette un atto foriero di conseguenze legali, potrebbe in via astratta risultare più conveniente considerare giuridicamente l’IA come un’entità autonoma, simile ad una società, con determinati vincoli e relative sanzioni.
In questo caso, il rimedio giuridico potrebbe essere quello di orientare la disamina sulla responsabilità del prodotto invece che interpretare i risultati del chatbot come un esempio di diffamazione classicamente concepita.
L’orientamento della Ue
Nella cornice europea, quanto accade va discusso sotto l’ombrello della nascente “Artificial intelligence liability directive”, che potrebbe far rientrare sistemi di AI come ChatGPT sotto il regime della cosiddetta “Strict liability”.
Nell’ ottobre 2020 il Parlamento Europeo, sulla scorta dell’art. 144 del Trattato sul Funzionamento dell’Unione Europea (TFUE), emanava una risoluzione che raccomandava alla Commissione Europea di adottare un regime di responsabilità civile per l’intelligenza artificiale, esortando l’istituzione di un regime comune di responsabilità oggettiva per i sistemi di intelligenza artificiale ad alto rischio (“strict liability regime for high-risk autonomous AI systems).
Gli operatori di questi sistemi sarebbero stati così ritenuti responsabili per danni causati alla vita, alla salute o all’integrità fisica di una persona fisica, alla proprietà di una persona fisica o giuridica, o laddove sia arrecato un danno immateriale significativo comportante una perdita economica verificabile.
Il 3 maggio 2022 il Parlamento Europeo ribadiva che i sistemi di intelligenza artificiale ad alto rischio avrebbero dovuto essere soggetti alla Strict Liability e prevedere una copertura assicurativa obbligatoria, mentre le ulteriori attività o processi “dannosi” guidati da sistemi di intelligenza artificiale sarebbero stati valutati sotto il criterio della responsabilità per colpa, con l’obbligo da parte della persona danneggiata di dimostrare che l’operatore abbia agito con negligenza o imprudenza.
Sulla base delle indicazioni precedenti è stata proposta il 28 settembre 2022 sulla base delle indicazioni precedenti è principalmente indirizzata ad un’armonizzazione delle norme relative alla responsabilità per colpa, con relativa disciplina dell’onere della prova ai legittimati attivi al risarcimento del danno causato da sistemi di AI.
Tale misura, secondo la direttiva, risulta allo stato “la meno onerosa atta a rispondere alla necessità di un equo risarcimento del danneggiato.”