l'approfondimento

ChatGPT, impatti e problemi giuridici: i rischi per i diritti delle persone

Le svariate potenzialità di ChatGPT riguardano campi in cui possono entrare in gioco i diritti, anche fondamentali, della persona. Quali sono gli impatti giuridici? E poi, mentre ci si interroga sui problemi di un uso scorretto, quali saranno le conseguenze di un uso “lecito” sulle nostre capacità di analisi e critiche?

Pubblicato il 30 Gen 2023

Ugo Ettore Di Stefano

Senior Partner LEXELLENT, Presidente UGI - Unione Giuristi d’Impresa

shutterstock_1413131831.jpg (1)

Ricercando con Google “ChatGPT”, si otterranno solo 69 risultati per tutto il periodo dal 2000 a novembre 2022, se la stessa ricerca viene invece circoscritta ai soli ultimi due mesi, il motore di ricerca restituisce quasi 300 milioni di pertinenze. Il software ChatGPT è una chatbot (in sintesi un programma automatizzato che simula le conversazioni umane) diffusa a fine novembre e che sta avendo una eccezionale popolarità. La diffusione è tale che in soli 5 giorni dal lancio aveva registrato già 1 milione di utenti (Facebook ci aveva messo 10 mesi per arrivare allo stesso risultato, Netflix 3 anni) e che l’11 gennaio il sistema è andato il tilt per i troppi utenti connessi.

Le potenzialità di utilizzo di ChatGPT sono svariate e riguardano campi nei quali possono entrare in gioco i diritti, anche fondamentali, della persona.

Per questo è opportuno valutarne gli impatti giuridici.

ChatGPT, perché ora l’intelligenza artificiale ci stupisce e spaventa

ChatGPT: in gioco i diritti, anche fondamentali, della persona

In molti sono però preoccupati dai riflessi negativi che il suo uso può avere, per esempio, in ambito educativo per la didattica, dato l’uso improprio che alcuni studenti possono farne tanto da esserne stato già espressamente vietato l’utilizzo nelle scuole pubbliche a New York.

In verità, anche se la verosimiglianza delle risposte e delle conversazioni prodotte dal software è elevata, per ammissione esplicita degli stessi programmatori, i risultati attuali soffrono ancora di evidenti difetti in termini di aggiornamento (tra l’altro è dichiarata la non conoscenza delle informazioni anteriori al 2021), precisione, bias cognitivi, errori.

Ciò nonostante, è unanimemente riconosciuto che le potenzialità oggi offerte da ChatGPT (e dal sistema di intelligenza artificiale sottostante) sono nettamente superiori a quelle di qualunque altro Chatbot oggi in commercio che vengono invece utilizzati, per lo più, per consentire a clienti e consumatori di interagire con i siti Internet e le app, per esempio, in ambito e-commerce per fornire informazioni e assistenza mirate.

Se dunque, allo stato attuale, il software è in una fase di implementazione e test, per altro aperta a chiunque voglia registrarsi e desideri utilizzarlo in forma gratuita (ma l’11 gennaio 2023 OpenAI ha annunciato la versione premium a pagamento per uso professionale, forse anche a causa degli altissimi costi, stimati in almeno 3 milioni al giorno o, per il solo addestramento del software, si ipotizza 12 centesimi di dollaro ogni 750 parole) è pur vero che le potenzialità di utilizzo sono svariate e riguardano campi nei quali possono entrare in gioco i diritti, anche fondamentali, della persona.

Gli impatti giuridici di ChatGPT

Per valutarne gli impatti giuridici occorre comprendere:

  • quali sono i possibili utilizzi;
  • quali sono il funzionamento e i limiti dei risultati prodotti;
  • quali diritti vengono impattati;
  • come regolamentarne l’uso.

Vi sono poi alcune considerazioni da premettere per le valutazioni normative su ChatGPT.

Innanzi tutto, occorre tener sempre presente che il software in questione (e più in generale i sistemi di AI) sta vivendo un momento di sviluppo crescente e continua evoluzione che può rendere, in breve tempo, obsoleta ogni considerazione in proposito.

Ecco perché è certamente più proficuo richiamarsi a principi generali dell’ordinamento capaci di fornire gli strumenti tecnici per interpretare anche gli scenari futuri piuttosto che prevedere specifiche normative di dettaglio.

La portata sovranazionale di ChatGPT

Un ulteriore elemento imprescindibile nell’analisi giuridica del fenomeno è la sua portata sovranazionale, globale. Soluzioni legislative o anche interpretative da parte degli operatori del diritto non possono fondarsi e confrontarsi unicamente con il contesto dell’ordinamento giuridico nazionale.

Questo complica le cose perché le decisioni, le scelte di regolamentazione, le interpretazioni del corretto utilizzo e delle conseguenze di esso dovranno per forza aver riguardo a quell’insieme di principi e valori condiviso (quando è condiviso) in ambito internazionale e pertanto racchiuso, per esempio, anche nelle normative di altri Stati o europee e nelle convenzioni internazionali.

Ma l’approccio normativo, per essere efficace, non può prescindere da un coordinamento analogo a quello richiesto alle norme sovranazionali, alle convenzioni, ai trattati internazionali, se si considera che gli attori principali in ambito software e sviluppo di intelligenza artificiale (nel seguito “AI”) sono USA (con il “The American AI Initiative” del 2019), Cina (con il piano di sviluppo sull’intelligenza artificiale nel 2017 che persegue l’obiettivo dichiarato di raggiungere la supremazia nell’intelligenza artificiale entro il 2030) e l’Europa con le iniziative che nel 2021 hanno portato, tra l’altro, alla pubblicazione di una proposta di Regolamento sull’approccio all’AI nonché al Piano coordinato sull’AI della stessa Commissione Europea. L’Unione Europea, con l’approvazione del Regolamento in tempi rapidi e anticipando le regolamentazioni di USA e Cina, potrebbe quindi contare sul cosiddetto “effetto Bruxelles” (ovvero la capacità di adottare discipline che poi diventano standard accettati anche a livello globale) data la necessità per le imprese extra europee di uniformarsi ad esso per poter vendere i loro prodotti e servizi nel mercato europeo.

Anche l’Italia è sicuramente attenta a questi temi come dimostra, da ultimo, il Programma Strategico italiano pubblicato nel 2021.

La vastità del potenziale utilizzo di ChatGPT

Un terzo aspetto che accompagna le considerazioni legali inerenti ChatGPT riguarda proprio la vastità del suo potenziale utilizzo. Essendo un programma che, a differenza di altre chatbot, si prefigge potenzialmente di rispondere a richieste in qualsiasi ambito e su qualunque argomento, non è possibile effettuare una completa elencazione e ricognizione dei molteplici utilizzi e delle fattispecie giuridiche che ne possono derivare, ma occorre esemplificare e raccogliere le ipotesi soffermandosi sui più rilevanti diritti che potenzialmente verrebbero toccati e pregiudicati.

Perché è importante capire come funziona ChatGPT dal punto di vista tecnico

Per comprendere le specificità e i possibili impatti giuridici di ChatGPT è utile fare una breve premessa tecnica sul suo funzionamento. ChatGPT risponde (in più lingue, Italiano incluso e con una proprietà lessicale e grammaticale certamente superiore anche a molti utenti umani) alle domande di qualsiasi genere senza limitarsi ad una ricerca della risposta in rete o nel proprio database nel quale non ha risposte preconfezionate.

ChatGPT deriva da GPT-3 (Generative Pre-Training Transformer) e utilizza sistemi di reti neurali (artificiali) multilivello con architetture basate su algoritmi di deep learning la cui diffusione è oggi possibile grazie alla maggiore disponibilità di una gran quantità di dati e di computer più potenti e veloci.

Più in particolare si tratta di algoritmi (sequenze di istruzioni, linee di codice) di machine learning supervisionati, i quali sono in grado di migliorarsi automaticamente attraverso l’esperienza e l’utilizzo di dati usati durante la fase di addestramento (training data) per effettuare poi predizioni senza essere stati esplicitamente e specificatamente programmati a farlo. Oltre a ciò, viene utilizzata la tipologia di apprendimento con rinforzo (reinforcement learning).

Il sistema analizza l’”ambiente” (che non è possibile definire a priori con tutte le variabili in cui il sistema opera perché tale definizione richiederebbe una quantità di risorse eccessive) per calcolare le azioni probabilisticamente più promettenti. Il software di AI può prevedere un meccanismo premiale (reward) che permette di valutare, passo per passo, le azioni e le conseguenze delle azioni compiute a seguito dell’analisi dell’ambiente e quindi imparando dagli errori e dalle azioni.

Altra caratteristica del sistema GPT è il deep learning basato su reti neuronali profonde, ovvero multistrato, nelle quali il segnale di input viene trasmesso e modificato. Il problema degli algoritmi neuronali però è che, a differenza degli algoritmi tradizionali, risultano poco trasparenti (si usa dire come una black box) per cui spesso non è possibile comprendere perché siano giunti ad una determinata conclusione.

Questo lo schema di funzionamento riportato dal sito OpenAI[1].

Al momento, il reale pericolo dei sistemi come ChatGPT basati sull’AI non è quindi, come talvolta si sente dire, la perdita del controllo dell’uomo su un sistema dotato di autocoscienza: i sistemi di cui oggi parliamo e quelli del prossimo futuro prescindono dal concetto di consapevolezza di sé. Siamo di fronte, invece, a correlazioni di sistemi complessi di dati, in grado di pianificare strategie con scelte volte al raggiungimento di obiettivi prestabiliti, mediante strumenti software e, talvolta, hardware.

I pericoli potenziali derivanti dall’uso di ChatGPT

Quali sono dunque i pericoli potenziali derivanti dall’uso di ChatGPT?

Innanzitutto, abbiamo posto la domanda alla stessa ChatGPT che ha risposto così (richieste fatte il 13/01/23 a ChatGPT Jan 9 Version):

Circoscrivendo poi la domanda ai problemi giuridici e ai rischi per i diritti delle persone, questa la risposta ottenuta:

Immagine che contiene testo Descrizione generata automaticamente

Certamente quelli indicati sono tra i principali rischi di compromissione dei diritti, ma in realtà lo spettro delle problematiche è molto più ampio[2].

Anche Google e Microsoft negli anni hanno testato l’intelligenza artificiale in applicazioni aperte e simili, ma al momento con esiti non positivi: il bot Microsoft Tay è stato ritirato (2016) per una serie di frasi razziste autoprodotte su Twitter e Google Lamda è stata al centro di polemiche (incluso il licenziamento di un ingegnere) per essere divenuta, a detta di alcuni, troppo senziente.

Anche immaginando di riuscire ad individuare tutti i potenziali rischi derivanti dall’utilizzo di ChatGPT, non si può dimenticare che in un mondo in cui lo sviluppo delle connessioni porta alla crescente diffusione dell’Internet of things (la connessione a Internet di oggetti fisici) aumenterà la possibilità e capacità dei software di interagire tra loro, moltiplicando gli effetti potenzialmente imprevedibili e rendendo più ardui anche i meccanismi di controllo e verifica umani.

ChatGPT Takes the Bar Exam

ChatGPT Takes the Bar Exam

Guarda questo video su YouTube

I rischi di disinformazione o di pericolo di manipolazione dell’opinione pubblica

Quali quindi gli ambiti di rischi giuridici con implicazioni legali nell’utilizzo di ChatGPT?

Un primo (duplice) tema riguarda i rischi di disinformazione o di pericolo di manipolazione dell’opinione pubblica. ChatGPT fornisce spesso risposte plausibili, che sembrano corrette, ma hanno in realtà un’alta percentuale di errori. La pubblicazione da parte di un gran numero di persone di risposte scorrette richiede la valutazione di un enorme volume di dati da parte di persone dotate di competenza specifica ed esperienza. In Internet è già possibile trovare molti test ed esempi di ciò con analisi degli errori nelle risposte. Le risposte che ChatGPT fornisce dipendono dai dati di addestramento che potrebbero contenere informazioni false o fuorvianti e generare contenuti scorretti o ingannevoli. Tale principio è comunemente conosciuto con la locuzione “garbage in garbage out”, ad intendere che le conclusioni del processo algoritmico possono, al limite, portare il livello di attendibilità/neutralità che è proprio dei dati sui quali essi si basano. Peraltro, anche quando i dati non sono raccolti con metodologie errate (che danno luogo alle cognitive bias) e sono idonei a rappresentare la realtà, essi non possono che riflettere il mondo reale e gli esistenti profili discriminatori che in esso si incontrano (statistical bias).

Il bot stesso suggerisce di non utilizzare e diffondere le risposte se non con estrema cautela e in combinazione con altre autorevoli fonti di verifica. Diversamente si può incorrere in responsabilità non dissimili da quelle, per esempio, derivanti dalla diffusione di fake news sui social. L’utilizzo di risposte generate dalla chat dovrebbe sempre quindi essere accompagnato dall’indicazione della fonte e, appunto, verificato con altre fonti specializzate sull’argomento trattato.

Certamente anche la riservatezza (privacy) è uno dei problemi di maggior attenzione per un software come ChatGPT che si alimenta, impara (e quindi potenzialmente diffonde) una moltitudine di informazioni fornite dagli utenti o acquisite all’interno dell’immensa mole di dati che elabora. Il sistema di apprendimento (machine learning) peraltro rafforzato dall’intervento di appositi operatori umani è potenzialmente idoneo a rivelare dati personali e talvolta sensibili che potrebbero essere ricondotti a determinati soggetti.

I paletti del Garante per la privacy

Il Garante della Privacy ha più volte invitato a vigilare sugli algoritmi (soffermandosi sui sistemi di IOT, smart homes, smart cities, blockchain, etc.) proprio per le fondamenta dell’AI che risiedono nell’elaborazione di una gran quantità di dati anche personali. In tal senso tutti gli operatori (sviluppatori, produttori, fornitori, utilizzatori) devono conformarsi alle disposizioni in particolare del c.d. GDPR (Regolamento UE 679/2016) in merito ai principi di trasparenza e valutazione preliminare dell’impatto del trattamento dei dati sui diritti umani e sulle libertà fondamentali.

In particolare, in casi come ChatGPT vi è il concreto pericolo di pratiche di trattamento dei dati per finalità differenti rispetto a quelle originariamente precostituite con violazione dell’art. 25 GDPR relativamente ai principi di “Privacy by Design e Privacy by Default” (protezione dei dati fin dalla progettazione del sistema e protezione per impostazione predefinita).

Ulteriori temi riguardano le corrette informative da comunicare a chi utilizza tali dati e a chi li fornisce, incluso il ruolo (titolare, responsabile, interessato, etc.) ai sensi del GDPR e il rispetto dei principi di esattezza, conservazione, proporzionalità del trattamento, pertinenza, adeguatezza, etc.

Le linee guida internazionali sulla protezione dei dati personali dal trattamento automatizzato

In proposito, un utile ausilio viene dalle linee guida in materia di AI e protezione dei dati sancite dal Comitato Consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (Convenzione 108/1981) anche con le nuove tutele previste con il Protocollo emendativo CETS n. 223. Ad oggi però il protocollo, firmato da 27 Stati, non è stato ancora pienamente ratificato dagli stessi. La Convenzione c.d. 108+ è stata invece tradotta in Italia dal Garante Privacy con la pubblicazione, il 25/1/2019, delle “Linee guida in materia di intelligenza artificiale sulla protezione dei dati”.

Le potenzialità di alcuni algoritmi, e ChatGPT potrebbe essere tra questi raccogliendo una serie di dati dagli utilizzatori, riguardano anche la capacità di riconoscere le propensioni, le opinioni, lo stato di salute, giuridico, lavorativo, finanziario, etc. Si pensi se tale mole di informazioni venisse adoperata per alimentare sistemi di social scoring come già avviene in Cina dove i cittadini sono classificati in base a quanto rispettano le regole e mostrano obbedienza anche online verso il partito.

Certamente dovrebbe essere possibile autorizzare, nelle fasi di implementazione di ChatGPT, gli sviluppatori a trattare i dati idonei a rivelare origine razziale ed etnica, opinioni politiche, convinzioni religiose e/o filosofiche, appartenenza sindacale, dati genetici e biometrici, stato di salute e orientamento sessuale della persona, in deroga all’articolo 9 Reg. UE 2016/679 GDPR, unicamente nella misura in cui ciò è strettamente necessario a garantire il monitoraggio, il rilevamento e la correzione delle distorsioni in relazione al funzionamento dell’algoritmo dell’AI.

L’impatto su diritti d’autore e di proprietà intellettuale

Un altro ambito è quello dei diritti d’autore e in genere di proprietà intellettuale. Invero esistono già software (es Dramatron di DeepMind, azienda inglese controllata da Alphabet, ossia Google) che generano storie, racconti, sceneggiature, etc. sulla base di input ricevuti dagli utenti e che sono anche stati utilizzati da sceneggiatori professionisti. Il tema in questo caso è l’originalità dell’opera prodotta e i diritti morali e patrimoniali che ne derivano. Come può un racconto prodotto da ChatGPT su input (magari minimi) di un utente essere ritenuto di proprietà intellettuale dell’utente e da lui essere magari venduto a terzi? E quando il racconto prodotto, per le modifiche apportate, diviene invece opera nuova e originale? Sono argomenti che, ancora una volta, non trovano una risposta universalmente valida e che saranno certamente influenzati dagli sviluppi delle potenzialità del bot, ma in fondo ricalcano temi e problemi già noti e dibattuti in ambito giuridico, peraltro in gran parte non dissimili da quelli affrontati in occasione della nascita di Internet e dei motori di ricerca. Un interessante analogo precedente deriva dalla decisione dell’EPO (Ufficio Europeo Brevetti) in merito alla non brevettabilità di due invenzioni attribuite a sistemi di intelligenza artificiali non ritenendo di poter attribuire a tali sistemi la qualifica di inventori, applicando le disposizioni della Convenzione sul brevetto europeo del 5/10/1973. Altri uffici (es. il South African IP Office e la Corte Federale Australiana nel 2021) hanno ammesso che la “macchina” possa qualificarsi come inventore, il medesimo EPO nel 2018 ha aperto una nuova sezione (G-II 3.3.1) relativa alla brevettabilità di prodotti generati da AI e machine learning riconoscendo l’appartenenza delle ideazioni algoritmiche alla categoria delle invenzioni di software. Ancora più chiara la decisione del Tribunale di Nanshan del 2019 che ha riconosciuto il copyright su un articolo di giornale in materia finanziaria scritto da un software di AI (Dreamwriter). In sintesi l’algoritmo di un bot come Chatbot, quale strumento, se innovativo e capace di produrre un risultato con effetti “tecnici” è un mero software brevettabile e proteggibile con copyright e rispetto al suo risultato (prodotto) si applicheranno le ordinarie regole della proprietà intellettuale così come se si dovessero produrre risultati “fisici” di funzione utilitaria, si farà riferimento alle regole già esistenti sulla brevettabilità ed infine, quando si tratti di un risultato consistente in un’opera dell’ingegno di fruizione intellettuale, si applicheranno le regole comuni del diritto d’autore.

Pertanto ChatGPT è uno strumento indubbiamente efficace per agevolare alcuni aspetti della creazione di opere di ingegno, ma l’utilizzo dei risultati restituiti richiede in questo caso una rielaborazione significativa da parte dell’autore/inventore per consentire poi la registrazione della titolarità dei diritti di proprietà intellettuale in capo a quest’ultimo come avviene per le computer implemented inventions che si differenziano dalle computer generated inventions che sono interamente ideati e realizzati da un agente artificiale. L’opera è espressione del lavoro intellettuale dell’autore quando contiene un elemento di creatività ed è quindi il frutto di scelte libere e creative da parte del proprio autore. Un cenno merita il fatto che il requisito della creatività viene talvolta inteso come originalità nel senso di provenienza dall’autore (in tal senso l’opera proviene certamente dall’AI del software/chatbot che però in quanto soggetto non dotato di personalità giuridica difetta, per i più, della capacità di essere considerata autore così come più in generale della capacità giuridica e di agire).

Si tratta in realtà di processi già in atto da tempo se si pensa che nel 2019 (dati WIPO) risultava che ben 334.000 brevetti concessi si sono avvalsi di processi di AI; ciò avviene utilizzando i suddetti processi di AI in modalità e misura difforme: a) AI con funzione solo ausiliaria; b) AI esecutiva e delegata da un agente umano che ha identificato un problema e affida all’agente artificiale la ricerca della soluzione; c) AI con funzione autonoma anche nell’individuazione del problema.

L’assunto attuale e riconosciuto è comunque che l’agente artificiale (il bot, la ChatGPT) è privo di personalità giuridica e pertanto non può essere riconosciuto quale inventore, e le disposizioni italiane (art. 160.3.c C.p.i., al pari di altri ordinamenti europei) richiedono la designazione dell’inventore per la brevettabilità di un prodotto che pertanto andrà di volta in volta individuato nell’ideatore e/o nell’utilizzatore del software sempreché sussistano i requisiti sostanziali di brevettabilità (novità, originalità, descrizione: e quest’ultimo punto è spesso un problema per gli algoritmi i cui codici sorgenti solitamente restano segreti).

In conclusione, in materia di proprietà intellettuale si può sostenere che in nessun caso il ricorso all’AI implica conseguenze sull’accertamento e l’interpretazione dei requisiti sostanziali di proteggibilità di invenzioni, modelli, brevetti, opere di ingegno che deve essere condotta nel rispetto delle disposizioni già esistenti. In alcuni casi le disposizioni normative sono già comprensive di questi fenomeni: si pensi alla Convenzione di Berna per la protezione delle opere letterarie ed artistiche che all’art. 2, 1° comma definisce tali “…tutte le produzioni nel campo letterario, scientifico e artistico, qualunque ne sia il modo o la forma di espressione”.

ChatGPT e l’istigazione, l’agevolazione o la complicità in reati

In merito all’istigazione, l’agevolazione o la complicità in reati, le tipologie di possibili criticità sono innumerevoli. I programmatori hanno già adottato misure di sicurezza volte a prevenire l’istigazione o l’agevolazione di comportamenti contrari alla legge. Ciò nonostante, sussiste il rischio, come hanno evidenziato i ricercatori di Check Point Research (divisione Threat Intelligence di Check Point Software) che gli hacker potrebbero utilizzare ChatGPT per eseguire attacchi mirati come hanno dimostrato utilizzando la chat per scrivere e-mail e codici malevoli in grado di colpire i computer degli utenti. In particolare, ChatGPT è stata in grado di aiutare a creare in maniera più semplice e quindi non solo riservata a programmatori ed hacker già esperti, messaggi di posta elettronica di phishing (ovvero contenenti link e documenti infetti) producendo in maniera automatica un’e-mail con allegato un documento excel contenente codice dannoso in grado di portare un attacco cosiddetto reverse shell (accesso remoto non autorizzato). In questi casi anche se sono evidenti le responsabilità e le imputazioni di chi volesse utilizzare ChatGPT per la commissione di reati informatici è altrettanto importante non trascurare il fatto che la semplicità d’uso e l’efficacia delle istruzioni prodotte potrebbero incrementare la commissione di reati informatici richiedendo pertanto un approfondimento ulteriore sui blocchi ad alcune tipologie di domande e risposte gestibili dall’applicazione.

ChatGPT e occupazione

Prescindendo dagli usi vietati, una delle maggiori preoccupazioni emerse nel dibattito che sta accompagnando la diffusione di ChatGPT è il timore che le sue avanzate funzionalità possano, col tempo, comportare significative perdite di posti di lavoro. Recentissimo è il caso di Donotpay.com che ha fatto scalpore perché ammesso all’utilizzo in un Tribunale inglese per supportare la parte in causa nella propria difesa. La capacità di un bot come ChatGPT di utilizzare in tempi rapidissimi una mole immensa di dati e informazioni, elaborarle, verificarne precedenti e restituire risposte parrebbe costituire una seria minaccia per vari professionisti (avvocati in primis). Già nel 2016, negli USA, la Casa Bianca produsse un rapporto sull’AI e le possibili strategie da adottare per limitare gli impatti sulle probabili perdite di lavoro e scomparsa di certe professioni in particolare per i lavoratori senza particolari specializzazioni. Ancora una volta, almeno con ChatGPT, siamo però lontani dalla sostituzione del fattore umano che resta, non solo per espressa disposizione di legge (si pensi alle professioni con Albi e Ordini Professionali) ma anche per reale necessità di interpretazione e adattamento alle variabili del caso concreto, non sostituito e al momento non sostituibile. Più concreto e attuale è invece il condizionamento prodotto da strumenti di AI (e anche un bot evoluto come ChatGPT può essere utilizzato per questo) per assumere decisioni automatizzate in materia di selezione del personale, gestione ed esuberi.

La responsabilità per danni

L’ambito della responsabilità per danni è un altro settore potenzialmente coinvolto dall’utilizzo di ChatGPT. Occorre bilanciare la tutela delle potenziali vittime con la possibilità per le imprese di sviluppare tecnologie in grado di fornire nuovi prodotti e servizi. In questo settore è fondamentale individuare i ruoli (proprietario del bot, sviluppatore/produttore, utilizzatore, distributore, etc.) con i relativi doveri e responsabilità per garantire la certezza del diritto. Il tema per ChatGPT è la supposta formazione di un risultato che appare non essere determinato da nessun soggetto giuridico. Ciò però è falso: superati gli ostacoli di poca trasparenza dei sistemi di funzionamento e assunto il presupposto che i risultati prodotti vengono generati da un’elaborazione in parte autonoma di funzionamento, il giusto approccio, ai fini delle imputabilità di responsabilità civili e penali può essere ricostruito secondo i già noti principi generali dell’ordinamento e le norme attualmente in vigore. Solo per fare un esempio si pensi alla normativa sul danno da prodotto difettoso o alla responsabilità oggettiva di genitori, insegnanti, tutori, etc. Insomma: l’impossibilità di attribuire esclusivamente ad un soggetto la paternità materiale e operativa dell’attività pregiudizievole non esclude profili di responsabilità, esclusiva o solidale, in relazione al proprio ruolo che consente l’adozione di misure di prevenzione (sviluppatori), limitazioni e informativa (produttore/distributore), corretto uso (utenti). In questo senso il Parlamento Europeo ha adottato una risoluzione (20/10/2020) con raccomandazioni alla Commissione su un regime di responsabilità civile per l’AI dalla quale è scaturita la proposta di regolamento che distingue l’operator in due tipologie: quello di front-end (persona fisica o giuridica che beneficia del funzionamento) e di back-end (persona fisica o giuridica che definisce le caratteristiche della tecnologia, cfr. Proposta di Regolamento A9-178/2020). Si tratta di proposte che vanno nella direzione giusta per regolare, per esempio, il concorso di colpa (art. 10), i termini di prescrizione (art. 7), la cooperazione per individuare le responsabilità, etc.

Se un sistema come ChatGPT venisse poi utilizzato per le decisioni mediche, dei processi, di accesso al credito, di polizia, etc. occorrerebbe comunque sempre garantire quei sistemi di protezione, difesa, appello, contestazione propri degli attuali ordinamenti (almeno quello italiano) che proteggono dai singoli errori e limitano la possibilità di decisioni scorrette o ingiuste.

Bot e diritto alla difesa o ad un processo equo

Maggiore sarà l’evoluzione e l’affidabilità delle risposte che un bot come ChatGPT potrà fornire, maggiore sarà l’attenzione che bisognerà prestare per non abdicare ai sistemi di controllo e verifica confidando in un presunto sapere giusto e universale, infallibile da parte dell’AI. Diversamente, soprattutto in ambito di utilizzo da parte delle Pubbliche Autorità (si consideri per esempio in ambito giudiziario per l’assunzione di decisioni, l’irrogazione di pene e sanzioni) ci sarebbe il rischio di confliggere con i principi costituzionalmente garantiti (in Italia) del diritto alla difesa o ad un processo equo.

Per orientarsi su questo punto si può far riferimento alla prima (2019) Carta etica dell’Unione Europea sull’uso dell’AI all’interno dei sistemi giudiziari da parte della Commissione Europea per la Efficienza della Giustizia (CEPEJ). Occorre prestare attenzione al fascino di una tecnologia che porti a una giustizia apparentemente imparziale seguendo alcuni principi fondamentali anche in fase di progettazione (secondo i ben noti concetti di privacy by design e by default):

  • rispetto dei diritti fondamentali,
  • non discriminazione,
  • certezza delle fonti dei dati alla base delle decisioni,
  • trasparenza, imparzialità e correttezza degli algoritmi che siano comprensibili e verificabili da audit esterni,
  • “under user control” ossia possibilità che gli attori che usano il sistema possano riprendere il controllo della decisione.

In sintesi, le informazioni e le risposte ottenute da sistemi quali ChatGPT potranno diventare utile strumento per affiancare imputati, avvocati, giudici, investigatori, parti del processo ma senza mai sostituirsi ad essi. Su questo punto si può richiamare l’art. 22 del GDPR secondo cui “L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona” a meno che la decisionea) sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento; b) sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato; c) si basi sul consenso esplicito dell’interessato”. Un caso interessante in Italia di applicazione dei sistemi AI in ambito di processi e giustizia è quello promosso dalla convenzione (6/4/2018) tra il Tribunale e l’Università di Brescia per una collaborazione su sistemi di giustizia predittiva.

Gli utilizzi di ChatGPT per scopi militari

Un discorso a sé meriterebbero poi i limiti di utilizzi per scopi militari che risultano ancora più difficili da regolamentare se si pensa, per esempio, che anche l’art. 2 della proposta di Regolamento Europeo del 21/4/2021 della Commissione Europea esonera gli Stati membri dall’applicazione dei principi del regolamento quando si tratti di sistemi AI usati per scopi militari. In tal senso però è difficile immaginare, per quanto potente siano gli algoritmi e l’AI alla base di ChatGPT, un uso della stessa per carpire segreti militari o assumere informazioni utili a tali fini essendo funzionalità generalmente sviluppate da sistemi riservati, chiusi e che hanno accesso a fonti e database cui (almeno ufficialmente) i produttori di ChatGPT (OpenAI) non hanno accesso.

Molto più realistica è invece la preoccupazione che un bot di tal fatta possa contribuire a creare disinformazione o addirittura manipolazione dell’opinione pubblica. In questo ambito la normativa a regolamentazione dei comportamenti illeciti e il sistema sanzionatorio attuale è sufficientemente maturo e applicabile per analogia anche al contesto di utilizzo della chat per creare disinformazione. Quello che occorre è però l’instaurazione di forme di collaborazione e monitoraggio dell’uso tra gli sviluppatori/proprietari e le autorità pubbliche preposte alla tutela della corretta comunicazione (commerciale, politica, etc.). La promozione di campagne di educazione per informare gli utenti sui rischi e le possibilità dell’uso dei modelli di linguaggio e su come riconoscere la manipolazione dell’opinione pubblica, già iniziata con l’esperienza dei social network, dovrebbe ricomprendere anche la conoscenza di questi strumenti specifici che si caratterizzano per un alto livello di verosimiglianza e credibilità.

La fiducia degli utilizzatori nei confronti di un sistema di rispondere anche dando suggerimenti argomentati, plausibili, persuasivi su decisioni di cure, comportamenti, etc. potrebbe essere devastante per i soggetti meno strutturati e in grado di verificare l’attendibilità delle risposte ricevute.

Per questo è importante che nell’implementazione di ChatGPT si evitino le pratiche dell’AI capaci di utilizzare tecniche subliminali che possano sfruttare l’inconsapevolezza della persona per distorcerne il comportamento e ne sfruttino le vulnerabilità (per es. dovute all’età, disabilità fisica o mentale, etc.).

Il divieto di discriminazione

Vi è infine un importante diritto, costituzionalmente protetto dall’art. 3 della nostra Costituzione, relativo all’eguaglianza sostanziale e al divieto di discriminazione che un uso, anche non illecito, di un sistema di AI quale quello di ChatGPT potrebbe comportare. Innanzitutto, la limitazione dell’uso solo a determinati soggetti (per esempio nella versione professionale a pagamento, magari un domani non accessibile a tutti o addirittura riservata in esclusiva ai soli proprietari produttori, etc.) implementerebbe un divario sociale tra persone fisiche (e giuridiche) pregiudicando notevolmente le possibilità, capacità, risorse, mezzi di taluni a discapito di altri. In un altro senso, la discriminazione potrebbe invece derivare dalle conseguenze di decisioni automatizzate o semiautomatizzate adottate sulla base dei risultati prodotti dal sistema e dal suo algoritmo inficiati da bias cognitivi nella fase di progettazione, sviluppo, apprendimento.

Naturalmente in tutte le risposte che fanno seguito a richieste nelle quali ChatGPT rilevi profili di criticità sono presenti disclaimer, avvertimenti e indicazioni per il corretto utilizzo e i rischi derivanti dalla risposta. Quando le domande sono di tipo tecnico, ad esempio una consulenza legale o medica, la risposta invita a consultare rispettivamente un avvocato o un medico; se si chiedono consigli per la pianificazione di un reato la risposta sarà chiara nel dissuadere il richiedente e non verranno forniti indicazioni in proposito. Talvolta questa prudenza riguarda anche la previsione di reati in sceneggiature e opere di fantasia (informazioni, peraltro, facilmente reperibili online sui vari siti Internet) per il timore degli sviluppatori derivante proprio dalle potenzialità di ChatGPT di rispondere in maniera molto mirata e precisa a eventuali richieste da cui potrebbero derivare usi distorti ed illeciti.

I produttori dichiarano che: “Sebbene abbiamo compiuto sforzi per far sì che il modello rifiuti richieste inappropriate, a volte risponderà a istruzioni dannose o mostrerà comportamenti distorti. Stiamo usando l’API di moderazione per avvisare o bloccare determinati tipi di contenuti non sicuri, ma ci aspettiamo che abbia alcuni falsi negativi e positivi per ora. Siamo ansiosi di raccogliere il feedback degli utenti per aiutare il nostro lavoro in corso per migliorare questo sistema.” Il sito invita anche (i maggiorenni) a partecipare al ChatGPT Feedback Contest3, offrendo ricompense e premi.

Ci si interroga se tali precauzioni (sistemi di controlli, dissuasione, non risposta, disclaimer) siano sufficienti ad esonerare OpenAI da responsabilità che invece, in caso di uso distorto, andrebbe quindi attribuita solo agli utilizzatori: ovviamente oggi tale risposta dipende da caso a caso e varia da ordinamento giuridico a ordinamento giuridico. Ragionando con riferimento al contesto legislativo italiano parrebbero essere presenti tutti gli elementi di diligenza del proprietario/produttore volti ad esonerarlo da responsabilità quantomeno per la compartecipazione o l’istigazione alla commissione di reati. Parimenti un uso distorto non rispettoso dei diritti di proprietà intellettuale o del dovere di non diffamazione, etc. allo stato risulterebbe probabilmente più facilmente imputabile all’utilizzatore.

I problemi che deriveranno da un uso “corretto” di ChatGPT

Il filo conduttore di tutte le considerazioni fatte, e che si possono fare, nei vari settori e negli ambiti dei differenti diritti e aspetti giuridici che saranno toccati dall’uso di ChatGPT è riconducibile alla teoria del software (di AI) come mero strumento, prodotto che, in quanto tale, è privo di soggettività giuridica e per questo, anche quando esprime, (con un’ “autonomia” operativa, di analisi e apprendimento) risultati assimilabili a quelli producibili dall’intelletto umano, deve essere ricondotto alla sfera di responsabilità di soggetti terzi individuabili, persone fisiche e/o giuridiche, alle quali vanno imputate (in misura alternativa, concorrente, solidale a seconda dei casi) le conseguenze e le responsabilità derivanti dai risultati, dalle risposte ottenute dal sistema di Chatbot e AI, il tutto nel rispetto dei tradizionali principi di capacità giuridica, volontà, elementi psicologici soggettivi (colpa, dolo) che il diritto ha ampiamente analizzato e applicato per la valutazione e la punibilità dei comportamenti dei medesimi soggetti giuridici.

ChatGPT, attenti: rischiamo l’appiattimento culturale

Abbiamo analizzato possibili scenari di rischi per la compromissione di differenti diritti che però derivano sostanzialmente da un utilizzo scorretto del software e/o da errori di programmazione o di funzionamento dello stesso.

Forse però il rischio più grande è, paradossalmente, quello che potrebbe in futuro conseguire da un uso corretto, lecito di ChatGPT, a maggior ragione proprio quando ChatGPT avrà funzionalità più avanzate e tanto più saranno ridotti gli errori dei risultati prodotti rendendolo uno strumento apparentemente affidabile.

È questo il pericolo già noto e discusso, per esempio per Internet e i tradizionali motori di ricerca, di un crescente analfabetismo funzionale e di ritorno. Il mancato esercizio delle capacità di analisi, critiche, di interrogarsi e costruire le risposte, che costa tempo e fatica, rischia di produrre col tempo persone dipendenti da strumenti pronti ad offrire risposte immediate che gli stessi utenti non sono in grado di valutare, interpretare, comprendere appieno.

Conclusioni

In conclusione, le considerazioni fatte inducono a ritenere che ChatGPT, anche in futuro nelle sue implementate versioni, è e potrà rivelarsi un potentissimo strumento in molti settori e, come tutti gli strumenti (si è detto lo stesso di TV, Internet e Social Network al momento della loro comparsa) può spaventare per il possibile errato o illecito uso che qualcuno potrebbe farne. Considerata la vastità del fenomeno è dunque preferibile optare per una regolamentazione che incida sia nella fase di programmazione e sviluppo del software che in quella di distribuzione e utilizzo finale. Tale regolamentazione, tuttavia, più sarà di dettaglio maggiore sarà il rischio di rapida obsolescenza e di trascurare qualche possibile fattispecie. Si tratta dunque di un difficile equilibrio tra costruire un nuovo quadro normativo o, al contrario, fondarsi su quello già esistente apportandovi gli opportuni adattamenti. In tal senso la Commissione Europea, nel libro bianco del 2020 e nella Comunicazione del 21/4/2021 ha ritenuto che l’AI crea “rischi elevati specifici per i quali la normativa esistente è insufficiente”.

Superando le normative nazionali che dovrebbero limitarsi a recepire e, dove occorra, adattare alle specificità nazionali alcune regole, occorre dunque operare ad un livello più alto, con accordi internazionali il più possibile allargati e generali che racchiudano i principi inderogabili e garantiscano la cooperazione tra Paesi per adottare gli eventuali provvedimenti restrittivi di inibitoria all’uso e diffusione, nonché l’effettiva applicazione dei provvedimenti sanzionatori. Certo è una strada difficilissima da perseguire se si pensa che, anche nei soli Stati Uniti, manca una proposta federale organica condivisa dagli Stati per regolamentare i sistemi di AI ad alto rischio.

Al momento poi il dibattito internazionale è anche relativo al tipo di strumento normativo da impiegare: soluzioni normative hard law di carattere incisivo e maggiormente garantiste o adozione di strumenti non vincolanti, guidelines, codici etici, raccomandazioni, caratterizzati dalla flessibilità più vicina alle caratteristiche dell’AI?

Questo approccio di normazione richiede, in ogni caso, il contributo non solo di giuristi ma di esperti di varie discipline.

Ogni regolamentazione, per esempio, richiede prima di tutto l’esatta determinazione del proprio ambito di applicazione (la materia oggetto della disposizione normativa). Si pensi però quanto ciò è difficile in relazione all’AI se è vero che non è facile condividere neanche una definizione omnicomprensiva e universale di intelligenza artificiale (l’UE ci ha provato con la produzione, nel 2020, di un rapporto di 90 pagine) per la quale ancora oggi si richiama il c.d. test di Turing che già nel 1950 teorizzò una definizione basata sull’impossibilità di distinguere il comportamento e ragionamento artificiale da quello umano.

Proprio perché bisogna interrogarsi sulle conseguenze e sui valori piuttosto che cercare inutilmente una produzione di regolamenti operativi di dettaglio, con la già menzionata nuova proposta di Regolamento dell’Intelligenza Artificiale della Commissione Europea si è pensato di progettare un quadro giuridico basato su diversi livelli di rischio classificando i sistemi di AI a seconda della tollerabilità e probabilità dei rischi producibili. Ciò presuppone una valutazione dei rischi da parte dei fornitori e degli utilizzatori dei sistemi che devono comunque essere accompagnati dalla sorveglianza umana nello sviluppo dell’algoritmo anche ai fini di prevenire bias di discriminazione.

Tali principi sono applicabili anche alle considerazioni legali che possono essere fatte nei riguardi di ChatGPT: l’uso del bot, per esempio, a fini di polizia sono certamente ad alto rischio. Ma l’utilizzo per manipolazione commerciale, che produce danni solo economici ai consumatori? Al momento per la Commissione Europea, nella citata proposta di Regolamento (anteriore alla diffusione di ChatGPT), non sarebbero utilizzi ad alto rischio (e pertanto sarebbero imposti meri obblighi di segnalazione volti ad avvertire gli utenti che stanno interagendo con una macchina e non con una persona). Eppure, le conseguenze di un dissesto economico per il consumatore rientra certamente tra i pericoli della lesione di diritti fondamentali che possono pregiudicare peraltro salute, lavoro e dignità, ed è importante ricordare che a norma del citato Regolamento gli Stati non potranno liberamente vietare o introdurre requisiti più stringenti perché ciò comporterebbe una frammentazione del mercato e un diversificato bilanciamento tra i diritti fondamentali e gli interessi degli operatori economici.

La responsabilizzazione degli utenti può passare anche, e così è per ChatGPT, per un sistema di adesione a clausole contrattuali e accettazione di termini d’uso e vincoli giuridici preventivi all’utilizzo della chat che può essere rafforzato dalla determinazione di manleve e/o provvedimenti per il caso di uso non consentito.

Sicuramente l’implementazione futura di ChatGPT migliorerà ulteriormente i controlli automatici per rilevare e prevenire l’uso non corretto della tecnologia, attraverso la rimozione di contenuti inappropriati o la sospensione di account di utenti che violano le regole ma, come sempre in diritto, più che l’effetto derivante dalle disposizioni regolamentari e di deterrenza per le sanzioni prescritte, occorre programmare da subito un’efficace attività di formazione culturale ai potenziali utenti e ai programmatori sui principi etici e giuridici che devono guidare l’utilizzo di uno strumento potenzialmente così impattante per evitare, nel peggiore degli scenari ipotizzabili, l’impoverimento culturale derivante dalla sostituzione di tante conoscenze e memorie distinte e personali con un’unica omogenea conoscenza e memoria collettiva: quello a cui occorre tendere è la creazione di sistemi il più possibile utili, veritieri e innocui.

Cerchiamo di evitare che alle parole di George Dyson (G. Dyson, La cattedrale di Turing. Le origini dell’universo globale, 2012, p. 356) “Facebook definisce chi siamo, Amazon definisce cosa vogliamo, Google definisce cosa pensiamo” si aggiunga “ChatGPT definisce qual è la verità”!

  1. Per un approfondimento sul modello linguistico, l’addestramento, il funzionamento e le criticità di ChatGPT, in particolare sui bias anche della componente umana degli addestratori-etichettatori del bot, si suggerisce la lettura del documento: “Addestrare i modelli linguistici a seguire le istruzioni con il feedback umano
  2. Per un approfondimento sulle implicazioni giuridiche dell’intelligenza artificiale si suggerisce anche lo studio dell’imponente e autorevole pubblicazione edita nel 2022 da Il Mulino: “Intelligenza artificiale e diritto”, in tre volumi, a cura della fondazione ASTRID

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3