ChatGPT, creato dalla startup OpenAI, sembra astrattamente simboleggiare un deciso passo in avanti dell’intelligenza artificiale.
A partire dal suo recente lancio, il sistema sta alimentando un crescente dibattito caratterizzato da un interesse trasversale sempre più marcato sulle complesse implicazioni che le sorprendenti funzioni “simil umane” potrebbero determinare nell’imminente futuro evolutivo dell’intelligenza artificiale, al punto da assumere un’innegabile centralità tra le attuali tendenze tecnologiche più seguite da osservare con scrupolosa e prioritaria attenzione nei prossimi anni.
Il plagio nell’era di OpenAI
Al riguardo, un articolo di approfondimento a cura del MIT – Technology Review descrive, ad esempio, l’imminente progettazione di un peculiare strumento di “filigrana” di metadati invisibile per modelli linguistici di grandi dimensioni sperimentato con l’intento di identificare i testi scritti da software di IA e distinguerli da quelli umani, anche nell’ottica di neutralizzare, in chiave preventiva, i bot di disinformazione che proliferano nell’ambiente virtuale inquinando il dibattito dell’opinione pubblica mediante la diffusione di contenuti tossici, nonché, al contempo, eliminare o almeno contenere le condotte fraudolenti di plagio seriale riscontrate in costante aumento a causa della raccolta di informazioni processate da algoritmi che, in auto-apprendimento, duplicano sostanzialmente opere, già esistenti online, create da esseri umani (cd. “AIgiarismo” o “plagio assistito dall’IA”).
ChatGPT, infatti, è un modello linguistico ottimizzato di dialogo – rilasciato in versione di prova gratuita (anche se da poco è stato presentato il nuovo e più performante ChatGPT Plus utilizzabile a pagamento) – dotato della capacità di elaborare, ad esempio, saggi e opere letterarie su qualsiasi tema, creare stringhe di codice, effettuare analisi e previsioni, comporre poesie e canzoni, nonché esprimere consigli personalizzati, al netto però degli evidenti margini di errori tuttora segnalati nella formulazione di risposte imprecise (o addirittura completamente sbagliate) che, pertanto, escludono, almeno allo stato corrente dell’arte, l’assoluta infallibilità del suo funzionamento tecnico.
Il watermarking come metodo per segnalare l’uso di chatbot e tutelare il diritto d’autore
ChatGPT rappresenta pertanto un bot conversazionale di ultima generazione – dalle inequivocabili potenzialità applicative (sia pure ancora tutte da dimostrare nella concreta prassi) – progettato per fornire risposte complesse alle domande degli utenti, persino con la capacità di scrivere e argomentare dialetticamente mediante l’elaborazione di frasi complete, contestando altresì premesse errate e/o richieste inappropriate riscontrabili in una conversazione dialogica adattabile alle specifiche sfumature di ogni specifica interlocuzione comunicativa.
Da qui la preoccupazione legata alla proliferazione di “testi convincenti simili a quelli umani”, a fronte dei gravi rischi legati alla dilagante circolazione di campagne di disinformazione online, aggravati dalla possibile codificazione nascosta di pregiudizi associati a informazioni “polarizzate” discriminatorie: sono questi, infatti, alcuni dei più allarmanti effetti collaterali provocati dalla implementazione di insidiose applicazioni, sofisticati sensori e svariati bot configurabili nella prassi in modalità di performante auto-apprendimento, da cui discendono implicazioni ancora non del tutto note e decifrabili.
Quali soluzioni per uno sviluppo umano-centrico dell’AI
Per tale ragione, l’ipotetica ascesa delle tecnologie emergenti sta intensificando la ricerca di efficaci soluzioni in grado di preservare il mantenimento di un approccio sostanzialmente “umano-centrico” nello sviluppo applicativo dei sistemi di Intelligenza Artificiale.
La prima class action contro un’AI generativa
In attesa di comprendere fino a che punto sia concretamente possibile limitare l’impatto evolutivo dell’Intelligenza Artificiale si segnala la recente notizia – già destinata a restare negli annali come vero e proprio “unicum” della storia giudiziaria – che riporta la prima “class action” collettiva (causa “Andersen et al v. Stability AI Ltd. et al”), promossa da un gruppo di artisti al fine di contestare la ritenuta violazione del diritto d’autore e della proprietà intellettuale sull’utilizzo di miliardi di immagini protette da copyright, scaricate e utilizzate da software di apprendimento automatico senza aver ottenuto il preventivo consenso dei rispettivi titolari, neppure parimenti compensati a titolo remunerativo per la paternità delle relative attribuzioni legittimamente concesse, sull’assunto che gli algoritmi generatori di IA avrebbero creato opere soltanto in apparenza autenticamente inedite ed esclusive, attingendo in modo fraudolento dallo “stile” artistico di fatto copiato, piuttosto che commissionare, dietro pagamento, la versione originale realizzata, dopo aver ottenuto una regolare licenza per consentirne l’effettivo uso, con conseguente pregiudizio patrimoniale a discapito dei relativi autori.
Conclusioni
A prescindere da quale sarà il possibile esito di tale specifica controversia, e ipotizzandosi comunque l’incremento esponenziale di un crescente numero di azioni legali avviate in futuro per far valere le medesime doglianze nell’ambito di un complesso contenzioso che potrebbe diventare sempre più centrale nell’attuale panorama giurisdizionale, i recenti problemi di copyright che stanno emergendo sembrano di fatto confermare i timori già ora esistenti sulla possibile regressione delle abilità creative – anche altamente qualificate – dell’uomo progressivamente erose dallo sviluppo dei sistemi di IA sempre più performanti sino all’astratta possibilità di “sostituire gli esseri umani”, al punto da invocare con maggiore frequenza, proprio come chiaro segno di auto-difesa dai pericoli rilevati, l’applicazione di legislazioni e principi giuridici finalizzati a garantire, in funzione conservativa, il primato “umano-centrico” della creatività artistica, così messa al riparo dalla pervasiva innovazione tecnologica progettata nella prassi, in grado di realizzare qualsiasi attività con risultati pari o superiori a quelle degli esseri umani in definitiva attuazione della cd. “singolarità tecnologica”.
Emblematica, in tal senso, anche una recente decisione della Corte Federale australiana che ha espressamente escluso la possibilità di qualificare un sistema di Intelligenza Artificiale alla stregua di un “inventore” mediante una lettura convenzionale della “ratio legis” che esprime il medesimo orientamento “conservatore” ispirato dall’esigenza di preservare la superiorità artistica dell’essere umano rispetto alla dilagante ascesa dei sistemi di Intelligenza Artificiale.
Articolo originariamente pubblicato il 13 Feb 2023