i risvolti della tecnologia

Intelligenza artificiale applicata al linguaggio: come funziona e quali rischi comporta

Dal contesto bellico fino a quello sanitario, passando per l’uso degli algoritmi nella giustizia: l’AI è da tempo al centro di numerosi dibattiti, in virtù dei diversi settori ai quali può essere applicata. Tra questi campi rientra anche quello linguistico, che presenta molti vantaggi ma apre anche molti interrogativi

Pubblicato il 10 Ott 2022

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Zakaria Sichi

Studio Legale Martorana

intelligart

Tra i molti ambiti applicativi dell’AI, negli ultimi anni abbiamo assistito anche all’avvento e alla diffusione dei cosiddetti modelli linguistici (Language Models o LM), i quali hanno portato le macchine ad acquisire capacità di comprendere e generare linguaggio in base ai diversi input ricevuti.

Con tale abilità, questi sistemi possono essere sfruttati per numerosissime applicazioni, quali la creazione automatica di post, commenti, notizie, per la strutturazione di un dialogo e, più in generale, in ambiti che coprono pressoché qualunque settore della conoscenza, come la legge, la letteratura, il marketing, la finanza.
Questa capacità fa sì che i modelli linguistici siano particolarmente appetibili, tanto che, secondo i più recenti sondaggi, ben oltre la metà delle aziende leader nel settore delle nuove tecnologie avrebbe aumentato il budget dedicato allo sviluppo dei modelli linguistici di almeno il 10% nell’ultimo biennio, ma non è raro riscontrare incrementi ben maggiori.

OpenAI GPT-3 - Good At Almost Everything! 🤖

OpenAI GPT-3 - Good At Almost Everything! 🤖

Guarda questo video su YouTube

Come funziona un modello linguistico?

Come in parte anticipato, un modello linguistico consiste essenzialmente nell’uso di varie tecniche statistiche e probabilistiche basate sul lavoro di algoritmi specificamente addestrati per determinare la probabilità che una determinata sequenza di parole si verifichi in una frase. I modelli linguistici analizzano i corpi di dati di testo per fornire una base per le loro previsioni di parole. Sono utilizzati nelle applicazioni di elaborazione del linguaggio naturale, in particolare quelle che generano testo come output. Alcune di queste applicazioni includono, come vedremo, attività come la traduzione automatica o la risposta alle domande.
Più specificamente e da un punto di vista prettamente tecnico, i modelli linguistici determinano la probabilità delle parole analizzando i dati di testo, interpretandoli ed analizzandoli attraverso un algoritmo. Dopodiché, il modello applica queste regole nelle attività linguistiche per comprendere il linguaggio con precisione, e poi prevedere e produrre nuove frasi.
Ebbene, si parla in questo caso di generazione del linguaggio naturale (Natural Language Generation o NLG), in quanto il sistema automatico viene appunto usato per creare testi tipici del linguaggio naturare a partire da dati non linguistici. Con le dovute proporzioni e precisazioni, il processo è in astratto simile a quello con cui gli esseri umani trasformano un pensiero in parola o in scrittura.

Quindi, per sintetizzare il meccanismo di base, grazie all’intelligenza artificiale il software identifica gli elementi più rilevanti comprendendo il contesto e produce un testo, in un linguaggio naturale, per trasmettere in modo semplice concetti complessi.
Infine, occorre precisare che esistono diversi approcci nell’ambito dei modelli linguistici, i quali variano essenzialmente a seconda dello scopo del modello, della quantità di dati di testo che analizzano e della matematica che utilizzano per analizzarli. Ad esempio, un modello linguistico progettato per generare frasi per un bot Twitter automatizzato può utilizzare calcoli matematici diversi e analizzare dati di testo in modo diverso rispetto a un modello linguistico progettato per determinare la probabilità di una query di ricerca.
Il tema è quindi estremamente complesso, potremmo dire che si tratta di una delle più articolate applicazioni dell’intelligenza artificiale. A tal proposito, però alcuni esempi concreti possono venire in aiuto quantomeno nella individuazione dei profili di utilità concreta dei modelli linguistici.

L’esempio concreto di GPT-3

Il più noto tra i modelli di linguaggio, che può quindi essere utilizzato come esempio concreto per comprenderne l’utilità e il funzionamento, è senz’altro GPT-3.

I test di GPT-3: che cosa è davvero l’AI che sembra “umana”

Si tratta del terzo modello di Generative Pre-Training (GPT) di OpenAI – un’azienda di ricerca sull’intelligenza artificiale con sede a San Francisco – rilasciato il 10 giugno 2020.

GPT-3 è un modello che utilizza la tecnologia deep learning per produrre testi simili a quelli umani ed è, ad oggi, uno dei più potenti modelli di intelligenza artificiale. Basti pensare che GPT-3 ha una capacità 175 miliardi di parametri di apprendimento automatico ed è in grado di generare testo ad una qualità così alta che può essere difficile determinare se è stato scritto da un umano oppure da una macchina.

Questa capacità di GPT-3 deriva dall’attività di “addestramento” degli algoritmi, che avviene mediante una grande quantità di dati linguistici, come libri, articoli, documenti web oltre all’intero corpus di informazioni presenti su Wikipedia, in modo tale da rendere il modello in grado di apprendere con estrema accuratezza le regole del linguaggio per poter poi generare testi simili a quelli scritti dagli esseri umani. In altri termini, gli ingegneri che hanno lavorato al progetto hanno sfruttato il deep learning per imitare il funzionamento del cervello dell’uomo, per un costo totale che si aggira tra i 10 e i 20 miliardi di dollari.
Per quanto riguarda il funzionamento concreto della macchina, come anticipato, GPT-3 funziona secondo un modello probabilistico, andando a recepire un input derivante da un testo ed iniziando a interpretare la richiesta. Ciò significa che GPT-3 legge il testo e cerca di capirne la struttura per comprendere cosa l’utente gli sta chiedendo, dopodiché decide quali sono le parole da restituire a quest’ultimo come output. Inoltre, è anche possibile aumentare il livello di “creatività” del modello, facendo sì che i contenuti restituiti siano più probabilmente originali.

Tutto questo complesso meccanismo consente al modello GPT-3 di essere sfruttato in una pluralità di utilizzi, alcuni utili, altri semplicemente ludici.
In particolare, GPT-3 ha dato esiti sorprendenti in varie attività, a partire dalla traduzione linguistica dei testi, risultando assai più accurato di Google Traduttore. Soprattutto perché, al contempo, riesce a correggere la grammatica ed a fornire risultati diversi a seconda delle finalità della traduzione, potendo riassumere testi lunghi e complessi rendendoli più corti e comprensibili. Tutte funzioni assai distanti da quelle dei traduttori tradizionali.
Al contempo, il sistema ha mostrato ottime performance anche nella creazione di testi originali nell’ambito della scrittura creativa, del blog posting e delle attività di SEO.
Non sono naturalmente mancati esperimenti che hanno consentito di applicare il modello GPT-3 ad attività meno professionali ma comunque idonee a evidenziare la potenza degli algoritmi, come ad esempio l’avvio di chat con un bot che simula di essere un determinato personaggio storico, la creazione di trame per film o romanzi, nonché l’invenzione di ricette.

Tanti vantaggi, ma a quale costo?

Il modello GPT-3, come gli altri modelli linguistici e come molte altre applicazioni dell’intelligenza artificiale, ha le carte in regola per offrire numerosi vantaggi. Potremmo osare di più, affermando che potrebbe addirittura contribuire a cambiare il mondo, potendo cioè rivelarsi uno strumento che in futuro sarà utilizzato in larga misura e in diversi ambiti, creando al contempo numerose opportunità.

Una questione di fiducia

Per fare ciò, però, occorre ricollegarsi ad un tema centrale quando si parla di nuove tecnologie: la fiducia degli utenti. Infatti, le potenzialità dell’IA possono essere sfruttate al meglio soltanto se si crea tra i consociati la convinzione che quello specifico strumento è sicuro, privo di rischi o, quantomeno, che i pericoli intrinseci siano largamente superati dai benefici. La fiducia non è una proprietà interna di un sistema di intelligenza artificiale, quindi, ma è una conseguenza. Su questa linea si inserisce la proposta di Regolamento europeo sull’AI, che mira proprio a consolidare la fiducia delle persone nei confronti delle nuove tecnologie imponendo determinati standard di sicurezza e specifici approcci per garantirne l’osservazione.
Occorre quindi chiedersi quali potrebbero essere gli aspetti dei modelli linguistici capaci – in teoria – di compromettere la fiducia dei soggetti creando pericoli per i loro diritti. Infatti, come per qualsiasi altra tecnologia sofisticata, GPT-3 e i modelli linguistici hanno il potenziale per essere utilizzati in modo improprio.

GPT-3, ecco la nuova versione: ma il linguaggio “tossico” resta un problema

È stato infatti scoperto che anche questo strumento aveva pregiudizi razziali, di genere e religiosi, il che era probabilmente dovuto a disfunzioni inerenti ai dati per l’addestramento degli algoritmi. Il pregiudizio sociale rappresenta quindi un pericolo per le persone emarginate, per le minoranze, un tema centrale e spinoso quando si parla di AI, come nel caso del riconoscimento facciale. Discriminazione, trattamenti ingiusti e perpetuazione delle disuguaglianze strutturali sono problemi concreti ed attuali nel campo delle nuove tecnologie basate sugli algoritmi.
Al contempo, non deve naturalmente essere trascurato il tema della tutela dei dati personali. Da questo punto di vista, è indispensabile l’attuazione di tutti i principi previsti dal Regolamento UE 2016/679, a partire dai principi di privacy by design e by default. In particolare, la privacy by design impone al titolare di implementare le misure tecniche e organizzative adeguate fin dalla fase di progettazione del prodotto; secondo il principio di privacy by default, invece, per impostazione predefinita le imprese dovrebbero trattare solo i dati personali nella misura necessaria e sufficiente per le finalità previste e per il periodo strettamente necessario a tali fini.

Conclusioni

Infine, è ovviamente imprescindibile anche l’apporto dei singoli, i quali devono sempre prestare attenzione ai dati che immettono nei vari strumenti tecnologici utilizzati. Il principio è analogo a quello applicabile nel caso degli assistenti vocali come Alexa di Amazon: meno cose dico allo strumento, meno cose saprà di me, limitando quindi la raccolta, la conservazione e l’eventuale trasferimento di dati a partner collocati anche al di fuori dell’Unione europea. Naturalmente, come visto, maggiori saranno i dati utilizzati come input, sia quantitativamente che qualitativamente, più alto sarà il grado di precisione dello strumento; occorre però tutelarsi mantenendo sempre il controllo della tecnologia.

Insomma, la garanzia dei diritti e, nello specifico, del diritto alla protezione dei dati personali inizia dal produttore in base a regole precise fornite dai legislatori, ma è indispensabile una consapevolezza ed un’attenzione alte anche da parte del consumatore finale.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2