Nel Programma Strategico sull’Intelligenza Artificiale 2022-2024 il Governo identifica giustamente tra quelli di maggior rilievo il tema delle tecnologie linguistiche per l’italiano. L’obiettivo dichiarato è quello di “…garantire che ricercatori, imprese e pubblica amministrazione abbiano accesso a una risorsa linguistica condivisa di alta qualità […], aumentando così sia la competitività italiana nel settore che le soluzioni di IA disponibili per i cittadini italiani”.
Ma perché si tratta di una questione cruciale?
Intelligenza artificiale e comprensione del linguaggio: a che punto siamo
Le tecnologie linguistiche per l’italiano: una partita cruciale
La partita dell’Intelligenza Artificiale si giocherà sui “fatti veri” che il nostro tessuto civile, formativo, produttivo e amministrativo, sarà complessivamente in grado realizzare, facendo buon uso degli strumenti che il Governo metterà concretamente in campo nei prossimi mesi.
La partita che qui si gioca è cruciale: molta dell’intelligenza che ci aspettiamo dalle macchine è di fatto intelligenza linguistica, ed è dunque fortemente connessa alla cultura delle singole nazioni. Non c’è organizzazione pubblica o privata, piccola o grande, che oggi non possa far leva sui recenti sviluppi dell’IA nel settore delle tecnologie del linguaggio naturale al fine di migliorare processi interni e servizi offerti, cioè in sostanza per la sopravvivenza nella contemporaneità.
In particolare, i modelli linguistici estratti sia da corpora testuali sia da risorse lessicali e concettuali possono essere impiegati attraverso reti neurali e ragionatori automatici per estrarre informazione dai documenti e trarne inferenze, costruire sistemi di ricerca semantica, assistenti virtuali dotati di comprensione profonda, generatori di testo in grado di automatizzare la produzione di risorse informative. Ma se vogliamo che tutto ciò che già si sta sviluppando nel mondo anglofono sia disponibile anche per la nostra comunità nazionale di circa sessanta milioni di parlanti, dobbiamo darci molto da fare. Una rapida ricognizione delle risorse linguistiche oggi a disposizione per l’italiano mostra un divario preoccupante rispetto non solo all’inglese, ma anche alle maggiori lingue europee e perfino a certe lingue parlate in Europa da molte meno persone. Se n’è discusso recentemente al Centro per la Riforma dello Stato.
Come recuperare il ritardo
Cosa è mancato negli anni passati e come si può recuperare in tempi brevi? Ovviamente, in primo luogo, ha pesato il sotto-finanziamento del sistema della ricerca pubblica, solo parzialmente mitigato dall’eccezionale produttività dei nostri scienziati. Bottom-line: bisogna mettere soldi nel sistema. Su questo, il documento del Governo è molto puntuale. Ma c’è da osservare che molte risorse linguistiche prodotte dalla ricerca pubblica italiana sono rimaste nei cassetti, o sono state distribuite solo per scopi di ricerca. Questo, beninteso, non solo e non tanto per campanilismo accademico, ma perché l’uso industriale di quelle risorse è stato visto come possibile compensazione dei chiari di luna della finanza pubblica. Anche su questo il Piano del Governo dice cose giuste: se vogliamo che le risorse prodotte con soldi pubblici siano un volano per il sistema produttivo delle piccole-medie imprese e delle start-up italiane, queste devono essere disponibili gratuitamente anche per scopi commerciali, così come avviene per molte risorse della lingua inglese. L’esempio storico è quello della WordNet di Princeton, che da decenni fornisce gratuitamente una ricca rete semantica dell’inglese a beneficio, ovviamente, degli anglo-americani. Un “fatto vero” che dobbiamo aspettarci a breve è un provvedimento che induca la ricerca pubblica a distribuire le proprie risorse con adeguate licenze, dietro adeguato compenso.
Ricerca specifica per il nostro idioma
Bisognerà anche fare ricerca specifica per il nostro idioma. Le lingue sono organismi molto complessi e differenziati, non ci sono soluzioni “one size fits all” e neanche basterà avere più laureati STEM. I modelli ottenuti con metodi neurali direttamente da corpora testuali richiedono attenzione alle caratteristiche specifiche di ciascuna lingua: non ci si illuda che si tratti solo di ingegneria, di dati e di potenza di calcolo. Prendiamo ad esempio la morfologia dell’italiano, con tutti quei verbi che accumulano pronomi (andarci, vederlo, ecc.), o con quella sublime (ma computazionalmente nefasta) libertà sintattica che ci consente di dislocarne gli argomenti un po’ dove ci pare.
Sono cose che richiedono un adattamento, o perfino un ripensamento, dei metodi con cui, a partire dalla loro distribuzione nei testi, si ottengono, per ciascuna parola, quelle “impronte” (dette embedding) che poi vengono usate per addestrare le macchine nei compiti applicativi. Per non parlare di semantica. Sappiamo almeno dai tempi di Saussure che ciascuna lingua ritaglia la propria mappa nel continuum del reale (incluso quello immaginario). Così, mentre per noi sia l’Adige sia il Po sono fiumi, per un francese il primo è un rivière, il secondo è un fleuve. Il francese, infatti, rende sostanziale sul piano lessicale qualcosa che per noi italiani è solo accessorio, cioè se un fiume sia o no un affluente. Basta maneggiare un qualsiasi dizionario bilingue per rendersi conto della portata di quella che viene detta “arbitrarietà del segno”. Ora, se questo genere di conoscenze ci interessano (e ci interessano, specie per le terminologie settoriali) bisognerà pure esplicitarle. Lo sviluppo dei lessici concettuali per l’italiano però è fermo da molti anni, forse frenato dall’illusione che sofisticati metodi statistici applicati ai big data siano in grado di restituirci per intero la complessità del segno linguistico. Ci sono poi problemi di incuria. Sorprendentemente, ad esempio, l’italiano manca tra le lingue in cui è disponibile la più grande terminologia biomedica.
Conclusioni
Un piano è un piano è un piano, per dirla con Gertrude Stein e il Programma strategico sull’AI è sicuramente uno di questi: si tratta cioè di un testo che rimanda a un divenire futuro che oggi possiamo solo immaginare. Il rischio è che questo piano finisca sullo stesso scaffale dove troviamo allineate tutte le agende, le linee guida e i documenti programmatici che l’Italia è andata facendo sul digitale da almeno trenta anni a questa parte. E invece sul terreno delle tecnologie cosiddette “intelligenti” è diventato terribilmente urgente fare qualcosa. Non che il documento del Governo sia vago: anzi è molto circostanziato, documentato e in alcuni punti fin troppo specifico. Ma il valore del Programma alla fine consisterà nella capacità del Paese di realizzarlo, vincendo la viscosità dei suoi “sistemi”, quelli pubblici, quelli privati e quelli in between.
Nessuno ha la bacchetta magica: non esistono ricette risolutive. Anche l’effetto di un coup de théâtre come fu quello di chiamare un super-manager aziendale alla guida di una startup di Stato, ha avuto, alla fine, una portata alquanto limitata.
In conclusione, l’IA linguistica, che è centrale per gli interessi nazionali, richiederà molto lavoro e molta intelligenza trasversale. Il documento programmatico del Governo è un’ottima premessa per lo sforzo che l’intera comunità nazionale dovrà compiere nella direzione di una innovazione che, più che auspicabile, appare oggi necessaria.