Intelligenza artificiale

L’informazione “sintetizzata” dall’AI è un pericolo? No, ma servono norme e cultura



Indirizzo copiato

L’evoluzione e l’impatto dei Large Language Models esigono un bilanciamento tra libertà di espressione e sicurezza. Sono senz’altro necessari nuovi modelli normativi ma è fondamentale anche il ruolo della cultura per frenare i rischi di disinformazione e manipolazione

Pubblicato il 20 dic 2023

Gianluca Fasano

Technologist Director, CNR- Institute of Cognitive Sciences and Technologies



Programma nazionale intelligenza artificiale

I large language models, con la loro capacità di generare testo coerente e plausibile su una vasta gamma di argomenti possono essere strumenti potentissimi per il progresso della comunicazione e dell’informazione, ma rischiano anche di diventare veicoli di disinformazione e manipolazione.

Il necessario equilibrio tra libertà di espressione e sicurezza impone quindi la creazione di nuovi modelli normativi attenti alle esigenze individuali e collettive.

In questo contesto complesso e mutevole, la cultura assume un ruolo fondamentale come faro orientativo nella navigazione della nuova era dell’informazione sintetizzata.

Intelligenza artificiale generativa: cosa sono i large language models

Per ‘intelligenza artificiale generativa’ si intende un campo dell’intelligenza artificiale (AI) che si concentra sulla creazione di sistemi in grado di generare dati, contenuti o output in modo automatizzato, spesso utilizzando tecniche basate su deep learning/machine learning e modelli probabilistici in grado di raccogliere una conoscenza molto ampia, ricavandola da enormi quantità di dati, principalmente dal Web, e di produrre testi, immagini, suoni o video.

Nel campo dell‘intelligenza artificiale generativa particolare interesse hanno suscitato i large language models, progettati per generare testo in modo naturale, consentendo di analizzare, interpretare e rispondere a domande, completare frasi, tradurre testi in diverse lingue, generare codice, scrivere articoli e molto altro ancora. Il loro funzionamento è complesso e può esser così semplificato: fornita una frase di input, la macchina prosegue nella scrittura estraendo dal suo database le parole o le frasi che hanno la maggior probabilità di essere coerenti con l’input (e quelle che le hanno precedute), arrivando anche a scrivere interi articoli o addirittura saggi[i]. Possono esser utilizzati per una varietà di compiti (come assistenza virtuale, automazione dei processi aziendali, ricerca, scrittura, e altro ancora) e possono essere addestrati ulteriormente su specifici dati o task, con possibilità di incrementare le loro prestazioni in base all’esperienza e all’esposizione a nuove informazioni. Inoltre, sono accessibili da qualsiasi dispositivo connesso al web, consentendo a tutti di poter attingere informazioni da qualsiasi luogo e in qualsiasi momento.

Dunque, i large language models sono sistemi in grado di generare una narrativa testuale per mezzo di un’attività che non è meramente riproduttiva di fonti già esistenti, come avviene nei casi dei motori di ricerca, e che, pur non essendo il frutto di una coscienza, genera e fa circolare informazioni sintetizzate da sofisticati sistemi di self-learning.

I rischi dei large language models: informazioni errate e manipolazioni

L’utilizzo di questi sistemi non è esente da incognite, in termini di informazioni errate, perché basate su dati di addestramento la cui veridicità non è stata accertata, di bias e discriminazioni, perché se i dati di addestramento contengono pregiudizi questi vengono replicati negli output delsistema, di manipolazione,posto che i risultati potrebbero esser presentati a terzi come autentici[ii], pur non essendolo, in termini di concentrazione di potere.

Libertà di espressione e nuove tecnologie: un equilibrio difficile

Da qui si comprende come lo sviluppo di queste tecnologie innovative porti ulteriore linfa al dibattito incentrato sulla libertà di espressione nella dimensione digitale e costringe l’interprete a confrontarsi non più e soltanto coi problemi legati alla responsabilità derivante dalla selezione dei contenuti effettuata dai motori di ricerca, ovvero al dovere di sorveglianza sul contenuto dei messaggi veicolati dal provider, ovvero al potere derivante dalla moderazione dei contenuti, quanto piuttosto coi problemi derivanti dalla generazione di informazioni e dalla loro diffusione ad un pubblico indeterminato, incidenti sulla tutela della libertà di espressione, nella sua prospettiva intima di diritto individuale e di interesse generale della collettività. In tale contesto si formeranno sempre più  spesso idee, opinioni, convinzioni, quell’humus in grado di trasformare i moti della coscienza e condizionare il diritto all’autodeterminazione.

Per tali ragioni la larga diffusione dei large language models obbliga a una più approfondita riflessione sulla sua caratteristica innovativa, tal è la capacità di generare e far circolare informazioni nuove, sintetizzate da sofisticati sistemi di self-learning. Tanto è sufficiente non solo per esigere standard in termini di qualità e veridicità, ma soprattutto per doversi interrogare sul necessario modello normativo e regime di autorialità e responsabilità che deve presidiare la libertà di espressione.

Il bisogno di nuovi modelli normativi per i large language models

Nel settore dei large language models il bisogno di nuovi modelli normativi è evidente. Nondimeno, esso va criticamente identificato, di modo da non cadere nel tranello dell’ipertrofia normativa, che porta ad affrontare le nuove tecnologie in modo sbrigativo, aggiungendo altre regole alla spirale dell’inflazione dei diritti piuttosto che produrre un innalzamento di tutela. E nemmeno dovremmo assistere alla mera trasposizione di strumenti concepiti con riferimento all’editoria, alla stampa, al giornalismo professionista o ai media o altro. Mentre in altri ambiti è sufficiente il ricorso – adattandole – alle categorie giuridiche tradizionali, per i large language models è necessario costruire nuovi modelli che tengano conto dei ruoli di tutti gli attori in gioco, dalla fase di ideazione e progettazione, passando per la fase di addestramento e a quella esperienziale, fino a giungere alla fase di utilizzo finale, che pur contribuisce a determinare il risultato finale (task di completamento).

Non si dimentichi, inoltre, che le regole non vivono senza una cultura di fondo, e che anch’essa abbisogna di nuova linfa. In effetti, se pensiamo allo stile comunicativo di ChatGPT, molto persuasivo, e all’ambiente in cui viene generata e veicolata l’informazione sintetica, quello confidenziale tipico di una chat, ci rendiamo conto di come sia difficile per la persona non affidarsi ai contenuti trasmessi dalla macchina. Se un’informazione raccolta con un motore di ricerca viene letta da molti acriticamente, ancora di più ciò accade se l’informazione è veicolata nel contesto di una comunicazione a due, con uno stile narrativo ritagliato sul profilo della persona e corrispondente alle sue aspettative di conoscenza. Quindi, più convincente e seduttivo. In tale contesto si formeranno sempre più  spesso idee e coscienze, incidendo non solo sulla libertà di essere informati ma sul diritto di ‘spessore costituzionale’ all’autodeterminazione, che sulla prima si fonda. Modelli normativi e regole porteranno nuove tutele ma non basteranno, ci sarà bisogno di un’educazione al fenomeno delle informazioni sintetizzate che non può prescindere dalla piena consapevolezza della sua chiara natura di elementi sintetici.

Il necessario dibattito sui LLM

Le grandi innovazioni tecnologiche, come tutte le grandi scoperte, non si limitano ad aggiungere novità all’esistente ma lo plasmano, gli danno forma e contenuti nuovi. Via via che ne aumenta l’integrazione, in tutti i settori della nostra società, internet e le tecnologie digitali trasformano la vita dell’uomo, nella sfera tanto personale quanto professionale, trasformano il modo di lavorare e trasformano la società stessa. Non deve nascondersi il merito delle nuove tecnologie.

Esse possono espandere i confini della cognizione umana, determinando la liberazione della persona dai propri limiti cognitivi e assicurando alla società intera una profonda innovazione. Tuttavia, i cambiamenti sociali e culturali che si stanno producendo non possono non interrogare il mondo del diritto, e il dibattito attorno al bisogno di regolamentazione, già da tempo al centro delle riflessioni giuridiche, oggi si è inevitabilmente riacceso, grazie alle performance dell’intelligenza artificiale generativa e alla diffusa attenzione che essa sta richiamando tra media, istituzioni e scienziati. La posizione sostenuta in queste pagine è che nel campo dei large language models il dibattito non solo è necessario per acquisire una chiara consapevolezza sulla natura delle ‘informazioni sintetizzate’, così da poter educarci a nuove abilità comportamentali, ma è inevitabile per poter efficacemente introdurre nuovi modelli regolatori fondati sulla tutela della libertà di espressione.

Conclusioni

Non si ritiene, sia detto a evitare equivoci, che la normazione debba porsi in ferma contrapposizione alla politica secondo cui le forze dell’economia e dell’ingegneria devono poter agire indisturbate, senza interferenze pubbliche, perché solo così potranno esprimere il loro potenziale innovativo e migliorativo. Anzi, le contrapposte esigenze vanno contemperate partendo dalla consapevolezza che la tecnologia non è “né buona, né cattiva e neppure neutrale”, ma muta il suo valore a seconda di come la si sviluppi e la si applichi[iii].

Di qui la necessità che nello sviluppo delle nuove tecnologie ci si  interroghi sulle conseguenze che tali sistemi producono sulla vita dell’uomo, sulla salute, sull’ambiente e sulla società, interpretando così l’innovazione tecnologica non soltanto come trasformazione di un processo esistente in chiave di maggiore efficacia ma come sviluppo etico e sostenibiledell’innovazione medesima.

L’imperativa attenzione a distinguere strumenti da obiettivi ci obbliga a utilizzare la tecnologia come un mezzo per raggiungere alcuni obiettivi e quindi per realizzare alcuni valori fondamentali, quelli tutelati dalle nostre carte costituzionali.

In generale, il principio personalistico che caratterizza tutto l’impianto della nostra Carta costituzionale e della Carta dei diritti fondamentali dell’Unione europea offre già un sicuro punto di riferimento, con particolare riferimento alla protezione della dignità della persona, da tutelare sia come singolo che come parte della comunità. In particolare, le tutele dell’art. 21 Cost., sotto il profilo del diritto all’informazione, devono esser assicurate anche con riferimento alle informazioni sintetizzate dai large language models.

Queste disposizioni, lungi dall’essere obsolete, hanno in realtà un potenziale di evoluzione normativa e sociale capace coprire costituzionalmente anche le nuove tecnologie. Come è accaduto in passato per la radio e la televisione e, più di recente, per la rete dovrà avvenire anche con riferimento ai large language models.


[i] I large language models stanno rivoluzionando anche il settore accademico. ChatGPT, non senza clamore, è stato citato come uno dei 12 autori di un preprint sull’utilizzo dello strumento per la formazione medica, pubblicato nel dicembre dello scorso anno su https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v2.

[ii] Sulle incongruenze e limiti nelle performance di questi sistemi si veda BORJI, A., (2023), A Categorical Archive of ChatGPT Failures, arXiv:2302.03494v1, 6Feb2023.

[iii] Cfr. A.C. AMATO MANGIAMELI, Tecno-diritto e tecno-regolazione. Spunti di riflessione, in Riv. fil. dir., 6/2017, p. 88.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2