Il cambio di rotta di OpenAI al rilascio della versione 4 di ChatGPT, abbandonando quell’apertura sui modelli sviluppati, ha acceso il dibattito sull’apertura o meno dei modelli di intelligenza artificiale generativa.
GPT appartiene alla classe dei “large language models” e la versione 4 si stima essere 500 volte più “grande” della precedente. Non è l’unica AI generativa LLM disponibile. Anche Google presidia il campo degli LLM con LaMDA, il modello alla base di Google Bard che, almeno al momento, ha riscosso solo una tiepida accoglienza, mentre Meta (Facebook) ha annunciato un altro LLM il 24 febbraio chiamato LLaMA. Questo modello è, almeno nell’annuncio, più compatto e agile da eseguire, di GPT ma altrettanto espressivo.
ChatGPT, perché ora l’intelligenza artificiale ci stupisce e spaventa
Sicuramente in ritardo rispetto agli altri colossi IT, ma comunque alla ricerca di uno spazio nell’ormai affollata arena di questi modelli di AI Meta ha deciso di rilasciare secondo un paradigma aperto LLaMA con la seguente dichiarazione:
“Even with all the recent advancements in large language models, full research access to them remains limited because of the resources that are required to train and run such large models. This restricted access has limited researchers’ ability to understand how and why these large language models work, hindering progress on efforts to improve their robustness and mitigate known issues, such as bias, toxicity, and the potential for generating misinformation…By sharing the code for LLaMA, other researchers can more easily test new approaches to limiting or eliminating these problems in large language models”.*
AI, aperta o chiusa?
L’annuncio è, appunto, in chiara contrapposizione rispetto a OpenAI che ha rilasciato pochi dettagli del nuovo modello GPT-4 e il responsabile delle ricerche ha annunciato che si tratta di una scelta che mette in discussione la linea adottata nei precedenti rilasci perché, data la potenza crescente di queste intelligenze artificiali generative consentirne la facile fruizione espone a rischi l’intero genere umano. Sicuramente può suonare come una minaccia da film ambientato in un futuro distopico simile a quello raccontato nella trilogia di Matrix, ma è nel DNA di OpenAI, fondata nel 2015 proprio con l’obiettivo di sviluppare un’intelligenza artificiale benevola e rispettosa del genere umano. In effetti, il ragionamento che l’intelligenza artificiale Vicky al termine del film “Io, robot” che porta al confinamento degli esseri umani, ha come radice quella di difendere il genere umano da sé stesso, è un tema ricorrente nella fantascienza, e in questa epoca in cui ci stiamo abituando a vedere la fantascienza rapidamente divenire scienza non è saggio ignorarne i lati più oscuri.
Sicuramente dietro a questi annunci, in cui ciascuno di questi giganti cerca di convincere la platea della propria devozione allo sviluppo delle conoscenze, vi sono anche considerazioni di natura commerciale, di difesa della proprietà intellettuale sviluppata, e degli investimenti fatti per la generazione del modello. D’altronde, come qualcuno ha commentato, il rilascio del modello di Stable Diffusion di Stability AI per la generazione di immagini con IA nel mondo aperto non ha portato oggi grandi innovazioni aggiungendo poco più se non la creazione di un volume significativo di pornografia generato dall’intelligenza artificiale.
Le varie dimensioni di un problema complesso
La questione sul rilascio aperto dei modelli di intelligenza artificiale e in particolare degli LLM non può essere banalizzato con semplificazioni massimaliste come “aperto è giusto e positivo” o paternalistiche come “custodisco io il sistema perché so cosa è giusto per tutti”. Vi sono numerose tensioni in relazione a varie dimensioni del problema e si tratta il giusto equilibrio da esigenze, principi e diritti largamente contrastanti:
- Il dilemma etico
- Gli aspetti di business
- La proprietà intellettuale
- Le competenze
Il dilemma etico
In etica i dilemmi sono all’ordine del giorno, e domande, anche apparentemente banali, nascondono questioni che non possono essere ignorate di fronte a strumenti come questi LLM che hanno la capacità di rivoluzionare il mondo. Il rilascio o meno di un modello LLM è profondamente differente dal rilascio del codice sorgente di un programma: il primo è il dato generato dall’esecuzione di un programma mentre il secondo è la trascrizione di una creazione dell’intelletto che in molti aspetti ricorda la matematica. Non è quindi paragonabile un codice “Open Source” con un modello “Open” poiché i due termini hanno in comune solo il termine open, aperto.
Il rilascio di un modello LLM può aiutare la realizzazione di sistemi dal dubbio uso etico: ordigni bellici, sistemi per supportare attività illecite. Se un ingegnere che disegna una vite si può porre il dilemma etico se le vite vengono impiegate nella produzione bellica, si può dibattere che il contributo alla realizzazione del dispositivo non sia centrale e comunque esistono alternative note che ne consentirebbero comunque la produzione.
Ma se il rilascio di una particolare modello di intelligenza artificiale consente applicazioni nuove, allora la natura del dilemma cambia, poiché in sua assenza non è possibile l’applicazione stessa. In questa contrapposizione trovano spazio le istanze di Meta che rilascia LLaMA nella speranza che qualcuno lo usi per produrre nuove applicazioni innovative, e quella di OpenAI che riduce le informazioni che mette a disposizione suggerendo che usi impropri di una tecnologia così potente possano costituire un pericolo che non è il caso di rischiare. Entrambe le posizioni sono legittime, e nella storia recente si trovano situazioni analoghe in cui una posizione o l’altra hanno portato a conseguenze indesiderate. Solo il tempo dirà quale delle due linee prevarranno, ma le conseguenze relative agli aspetti di business e delle competenze costituiranno, a mio modesto avviso, un aspetto essenziale.
Il business
L’elaborazione di un algoritmo, o di un sistema open source, racchiude in sé l’investimento fatto in termini di tempo uomo necessario al suo sviluppo. La generazione di un modello basato su tecniche di apprendimento automatico richiede un investimento potenzialmente più significativo: si tratta di individuare un corpora sufficientemente ampio di dati da sottomettere all’algoritmo durante la fase di apprendimento per poi distillare la “conoscenza” appresa nel modello.
Basti pensare che OpenAI, per evitare che ChatGPT 3.5 potesse utilizzare linguaggio scurrile o comunque inappropriato ad un’intelligenza artificiale “benevola”, si è avvalso del contributo di un’azienda esterna (africana) che ha preso ingenti volumi di documenti contenenti riferimenti “negativi” e li ha etichettati in modo che durante l’apprendimento il modello non introiettasse conoscenze non volute nelle strutture dati apprese.
La produzione del modello può richiedere ingenti investimenti non solo durante la fase di preparazione dei dati, ma anche per il suo apprendimento. Si vocifera che un ciclo di apprendimento dei modelli di OpenAI costi tra i due e i tre milioni di dollari, investimento che non è limitato all’opera di intelletto di alcuni individui ma anche di risorse computazionali ed energetiche i cui costi devono in qualche modo essere recuperati. Rilasciare un modello come nel caso di Meta è quindi di fatto una “donazione” alla comunità, che può essere bene accetta ma non va sottovalutata per quello che è, inoltre il miglioramento del modello non è di immediata attuazione poiché potrebbe richiedere a chi lo vuole estendere investimenti che non sono alla portata di tutti.
La proprietà intellettuale
Se il modello non include al suo interno la proprietà intellettuale degli sviluppatori, se non in misura limitata, contiene le idee, i pensieri, e le creazioni di milioni di persone. Quando si chiede ad un’intelligenza artificiale generativa di generare un’immagine nello stile di Van Gogh o un sonetto nello stile di Pascoli, ci si affida al fatto che il suo modello ha catturato in qualche modo l’essenza e lo stile di questi artisti, ed evidentemente non abbiamo alcun modo, ad oggi, per riconoscere un pezzettino del valore generato agli artisti e alle persone le cui idee hanno contribuito alla creazione del modello.
Si cominciano a vedere le prime cause legali in cui si chiede di riconoscere un po’ del valore generato agli autori dei documenti usati per l’apprendimento, ma si tratta di territorio vergine e ci vorrà un po’ perché le istanze, legittime o meno, trovino risposte nelle sentenze dei giudici. A tal proposito sicuramente merita seguire il contenzioso in California nei confronti di Copilot, un sistema che GitHub ha sviluppato utilizzando il codice sorgente per apprendere come si scrive codice ed usare la conoscenza acquisita per supportare gli sviluppatori nella stesura di nuovo codice. GitHub sostiene che si tratti di “fair use” ovverosia un uso equo che non richiede compensazione, chi ha avviato l’azione legale la pensa evidentemente in modo differente.
Se la conoscenza che viene distillata nel modello è difficile se non impossibile da individuare, rendendo vuoti concetti come il plagio o la copia, analoghe considerazioni si possono fare per i dati acquisiti durante l’uso del modello e finalizzati a migliorarne il funzionamento. È quello che accade quando interagiamo con ChatGPT: le nostre interazioni potrebbero essere utilizzate per migliorare il servizio, ovverosia aggiungere dati per addestrare il modello e migliorarne le prestazioni. Come è possibile quantificare il contributo che ciascuno di noi porta e che viene fuso nel modello? Ancora una volta si tratta di un problema aperto.
ChatGPT, impatti e problemi giuridici: i rischi per i diritti delle persone
Le competenze per sviluppare modelli aperti
Va infine valutato il beneficio che la comunità riceve dal rilascio di questi modelli di IA. Come già detto non molti dispongono degli strumenti e dei finanziamenti necessari a far evolvere il modello stesso, e quindi si rischia che questi modelli vengano solo impiegati senza contribuire allo sviluppo dello stesso. E se i modelli vengono utilizzati per scopi non leciti e sono difficili da impiegare per lo sviluppo delle conoscenze non si pone un dilemma di legittimità?
La questione delle competenze sta già investendo il mondo dello sviluppo dei sistemi open source e i modelli di IA non fanno che amplificare il problema: quanti sono gli sviluppatori che hanno le competenze per poterli usare, debuggare e sviluppare? Vi sono abbastanza persone per uno sviluppo sostenibile? Gli algoritmi necessari allo sviluppo dei software negli anni ottanta e novanta non richiedevano competenze specifiche e spesso con un po’ di buon senso si poteva contribuire al kernel di Linux. Quanti sono in grado di comprendere la matematica dietro un LLM? Il futuro di modelli come LLaMa contribuiranno indirettamente a cercare risposte a questi quesiti.
L’impatto sociale
Elon Musk, Steve Wozniak e oltre altri 1000 firmatari, che includono numerosi professori, amministratori del settore IT stanno promuovendo una petizione per ritardare lo sviluppo di nuovi modelli di AI ancora più grandi di GPT-4 per cercare di affrontare le conseguenze di queste tecnologie rivoluzionarie che rischiano di destabilizzare l’assetto sociale sostituendo potenzialmente in un breve lasso di tempo centinaia di milioni di posti di lavoro su scala globale. Non è chiaro come un ritardo di sei mesi possa contribuire all’adeguamento di un’organizzazione sociale, ma sicuramente una gestione più consapevole dell’impatto di queste tecnologie può aiutare i governi ad elaborare piani per supportare le conseguenze sociali. È difficile dire se, ora che alcuni modelli sono disponibili, si tratti di una via percorribile, ma come già detto la disponibilità del modello non necessariamente implica la capacità di svilupparlo ulteriormente senza l’ausilio di chi lo ha generato.
Costruire il futuro
Trasparenza e apertura delle idee sono valori importanti e da tutelare sempre, ma lo sono anche le condizioni per cui è possibile lo sviluppo di una tecnologia. I modelli LLM pongono questioni etiche significative ed è sconsigliabile partire da posizioni preconcette che prevedano un valore nell’una e nell’altra posizione. I recenti avvenimenti di Twitter testimoniano che l’approccio paternalistico spesso supportato dai big della Silicon Valley ha i suoi limiti poiché nessuna corporation è super partes, ma allo stesso tempo l’idea che, come faceva osservare il Prof. Malcom in Jurassic Park, si possa costruire un risultato copiando il lavoro di altri senza comprenderlo a fondo può portare a conseguenze che possano sfuggire al nostro controllo, e con delle intelligenze artificiali capaci di seguire istruzioni impartite con un certo grado di discrezionalità è un fatto che non può essere ignorato (se vi chiedete cosa ho in mente: pensate a GPT di Bing che viola la direttiva di non dischiudere la propria programmazione grazie all’ingegno e alla dialettica di un utente).
*”Anche con tutti i recenti progressi nei large language models, il pieno accesso alla ricerca rimane limitato a causa delle risorse necessarie per addestrare ed eseguire modelli così grandi. Questo accesso ristretto ha limitato la capacità dei ricercatori di comprendere come e perché funzionano questi modelli linguistici di grandi dimensioni, ostacolando i progressi negli sforzi per migliorare la loro robustezza e mitigare problemi noti, come pregiudizi, tossicità e il potenziale di generare disinformazione…Condividendo il codice per LLaMA, altri ricercatori possono testare più facilmente nuovi approcci per limitare o eliminare questi problemi in modelli linguistici di grandi dimensioni”.