I sistemi linguistici generativi IA come ChatGPT sono oggi sulla bocca di tutti e hanno un grande potenziale economico. Ma questa tecnologia dirompente richiede una maggiore alfabetizzazione digitale della società, poiché solo un uso consapevole porta benefici reali ai consumatori. Senza un quadro di riferimento attento, vi è invece il rischio di polarizzazione politica e di disuguaglianza sociale.
Ma come dovrebbero essere utilizzati e regolamentati questi sistemi per realizzare il loro potenziale economico, riducendo al minimo i loro potenziali pericoli?
L’IA generativa è ora alla portata di tutti: impariamo a usarla con giudizio
L’enorme potenziale e i rischi di applicazioni come ChatGPT
Il recente progresso tecnologico è dovuto principalmente alla crescente dimensione dei modelli linguistici, misurata in base al numero di parametri e alla dimensione dei dati di addestramento. Su questa base, i metodi di Deep Learning consentono di prevedere con precisione la probabilità di una sequenza di parole. In particolare, i modelli linguistici di grandi dimensioni non mirano a fornire la risposta migliore o più vera, ma si limitano sempre a frasi grammaticalmente e semanticamente corrette con un alto valore di probabilità.
Questa natura probabilistica consente ad applicazioni come ChatGPT di non limitarsi a copiare testi esistenti, ma di creare qualcosa di completamente nuovo. Questo crea un enorme potenziale di democratizzazione della conoscenza e di creazione di ricchezza economica. Tuttavia, come per ogni nuova tecnologia, è importante considerare come possa essere utilizzata in modo improprio. Le sintesi algoritmiche possono contenere errori o informazioni non aggiornate, oppure mascherare sfumature e incertezze senza che gli utenti se ne accorgano.
Questi errori non sono solo irritanti, ma possono avere conseguenze sociali negative. In particolare, i modelli linguistici dell’IA rischiano di aggravare i danni ambientali, le disuguaglianze sociali e la frammentazione politica. L’”addestramento” e lo sviluppo di questi modelli è finanziariamente e ambientalmente piuttosto costoso, favorendo così i “giganti” digitali affermati e peggiorando anche l’”impronta di carbonio digitale”.
I dati di sviluppo che sono alla base del modello poi non sembrano rappresentare adeguatamente le comunità emarginate; sono stati infatti ampiamente dimostrati pregiudizi sessisti e razziali. Infine: La capacità della ChatGPT di generare disinformazione con un linguaggio consapevole e sensibile al contesto consente ai manipolatori di condurre campagne di disinformazione multipiattaforma a costi contenuti.
Alfabetizzare i cittadini per non imbrigliare l’innovazione
Questi problemi sollevano la questione di una possibile regolamentazione del fenomeno. Invece di un divieto rigoroso o di una regolamentazione molto dettagliata e restrittiva, che potrebbe rallentare le innovazioni future, è necessaria innanzitutto una specifica alfabetizzazione digitale degli utenti. Ciò che si intende è un’applicazione informata e tecnicamente riflessa dei nuovi modelli linguistici su un ampio livello sociale. Si pensi, ad esempio, alle campagne educative nelle scuole e nelle università.
A causa dell’incertezza sul futuro percorso dell’innovazione, la politica europea dovrebbe anche limitarsi a creare condizioni quadro sensibili, che tuttavia sono ancora carenti. La legge sui mercati digitali (DMA) si rivolge ai cosiddetti “gatekeeper” e definisce soglie elevate, che OpenAI non raggiungerà per molto tempo. La legge sui servizi digitali (DSA) invece contiene obblighi per i fornitori di servizi di intermediazione digitale, tra cui i motori di ricerca. Ciò potrebbe diventare rilevante se, ad esempio, Microsoft attuerà i suoi piani per integrare ChatGPT in Bing. Anche in questo caso, tuttavia, gli obblighi legali sono graduati in base al tipo e alle dimensioni del servizio. Lo strumento normativo più rilevante potrebbe divenire quindi l’inclusione nella proposta di legge sull’IA, attualmente in fase di aggiornamento per includere i modelli linguistici generativi come sistemi di “IA per scopi generali”. Tuttavia, anche in questo caso non ci si può aspettare norme particolarmente rapide, poiché l’attuale compromesso prevede inizialmente solo una valutazione d’impatto ed una consultazione, rimandando le ulteriori specifiche normative ad un secondo momento.
Condizioni quadro per un’applicazione sicura e produttiva
Per garantire un uso sicuro e produttivo, oltre all’alfabetizzazione digitale sono essenziali alcune condizioni quadro.
A tal fine, il Centro per le politiche europee in un proprio recente cepInput propone un modello a 5 pilastri che prevede: la trasparenza dei modelli, la concorrenza tra i fornitori, l’accesso equo, gli standard per prevenire gli abusi e la protezione della proprietà intellettuale e dei dati personali.
I modelli linguistici di grandi dimensioni sono una scatola nera. Anche quando sono disponibili interfacce di programmazione, in genere non è possibile accedere ai pesi del modello o ai dati di “addestramento”. La mancanza di visibilità dei modelli più diffusi rende difficile un benchmark olistico o l’adattamento ad applicazioni specifiche. Gli sviluppatori dovrebbero quindi spiegare quali elementi fondanti di “addestramento” sono stati utilizzati e quale logica viene seguita dagli algoritmi utilizzati. È inoltre fondamentale che i singoli modelli linguistici non acquisiscano una posizione di mercato dominante che trasformi la loro interfaccia di programmazione in un collo di bottiglia per le industrie a valle. Altrimenti, si rischia una tendenza alla monopolizzazione simile a quella dell’economia delle piattaforme.
Per contrastare le disuguaglianze sociali, è necessario un accesso equo e affidabile a questa nuova risorsa di conoscenza. OpenAI, ad esempio, sta pianificando un accesso a pagamento. In un’economia mondiale multipolare caratterizzata da rivalità geopolitiche nella sfera digitale, la situazione è aggravata dal fatto che i principali modelli linguistici provengono quasi esclusivamente dagli Stati Uniti o dalla Cina. Per evitare dipendenze strategiche, si potrebbe promuovere lo sviluppo di un modello europeo alternativo, i cui dati di formazione corrispondano ai principi democratici. Anche se a prima vista ciò sembra radicale, la passività significa in ultima analisi dipendere a lungo termine da modelli linguistici opachi, i cui giudizi di valore impliciti non sono comprensibili dall’esterno.
Regolamenti e standard sistematici per i modelli linguistici possono prevenire gli abusi. Gli sviluppatori dovrebbero essere obbligati a prevedere alcune restrizioni per contrastare la disinformazione, a monitorare i loro risultati per filtrare i contenuti tossici e a bloccare gli utenti abusivi. Sarebbero, inoltre, ipotizzabili standard europei per la formazione di modelli linguistici su larga scala, che richiedano algoritmi trasparenti e neutralità rispetto alla CO2. Infine, ci sono domande senza risposta sulla proprietà intellettuale, la privacy e la protezione dei dati. Questo perché i dati di “addestramento” vengono spesso prelevati da Internet senza chiedere l’autorizzazione.
Conclusioni
L’implementazione di questi quadri potrebbe aumentare la fiducia del pubblico nella nuova tecnologia e quindi realizzare più rapidamente le innovazioni. Allo stesso tempo, una migliore comprensione dei modelli di IA generativa e del loro inserimento normativo dissiperebbe i timori diffusi di una sostituzione della creatività umana. Su queste basi, la tecnologia dell’IA generativa potrebbe rappresentare un’opportunità significativa per diffondere il potere di mercato, aprire luoghi alternativi di diffusione e compensazione nonché democratizzare la conoscenza.
(Contributo nella versione originale in inglese pubblicato su www.commongroundeurope.eu )