Perché i nuovi modelli di intelligenza artificiale destano tanta meraviglia, al punto che qualcuno li può sospettare di pensiero? Come l’ingegnere di Google messo alla porta ritendendo che la chatbot Lamda fosse come un ragazzo.
I nuovi modelli di AI (large language model)
Perché c’è una svolta in atto.
Ecco perché sono considerati modelli fondazionali o di base: possono essere una tecnologia general purpose o quasi ed essere applicati in vari settori, trasformandoli profondamente.
Tecnologie di uso generale
Già negli anni ’90 gli storici dell’economia hanno iniziato a parlare di “tecnologie di uso generale” come fattori chiave per la crescita della produttività a lungo termine. Gli attributi chiave di queste tecnologie sono stati ritenuti il rapido miglioramento della tecnologia di base, l’ampia applicabilità in tutti i settori e la ricaduta – la stimolazione di nuove innovazioni nei prodotti, nei servizi e nelle pratiche commerciali associati. Si pensi alle macchine da stampa, alle macchine a vapore e ai motori elettrici.
Tutti i moderni modelli di apprendimento automatico si basano sulle “reti neurali”, una programmazione che imita il modo in cui le cellule cerebrali interagiscono tra loro. I loro parametri descrivono i pesi delle connessioni tra questi neuroni virtuali, pesi che i modelli sviluppano per tentativi ed errori mentre vengono “addestrati” a rispondere a input specifici con il tipo di output desiderato dai loro progettisti.
La svolta
La svolta concettuale necessaria per sfruttare appieno questa potenza è avvenuta nel 2017. In un documento intitolato “Attention is all you need” (L’attenzione è tutto ciò che serve) i ricercatori di Google e dell’Università di Toronto hanno descritto l’inedita architettura software che verrà utilizzata dal Bert di Google.
Hanno buttato via tutti i meccanismi che lavoravano sui dati di input in modo sequenziale, meccanismi che i ricercatori avevano visto in precedenza come essenziali; invece hanno usato solo un meccanismo che guardava le cose tutte in una volta. Grazie a questo nuovo approccio, i programmi potevano “prestare attenzione” ai modelli che avevano imparato essere salienti in un campo di testo, invece di doverlo analizzare parola per parola.
Tali modelli vengono addestrati con una tecnica chiamata apprendimento auto-supervisionato, piuttosto che con insiemi di dati pre-etichettati.
Mentre scavano tra mucchi di testo, nascondono parole specifiche a sé stessi e poi indovinano, sulla base del testo circostante, quale dovrebbe essere la parola nascosta.
Si è poi scoperto che tutte queste tecniche intelligenti possono essere applicate a dati sequenziali diversi dal linguaggio, tra cui immagini, video e persino grandi insiemi di dati molecolari. Invece di indovinare la prossima combinazione di lettere, i modelli grafici come Dall-e di Openai predicono il prossimo gruppo di pixel.
Tra gli ultimi sviluppi: Gato di Deepmind (azienda di Google) sembra capace di diverse skill contemporaneamente (circa 600); Palm di Google persino di capire gli scherzi.
Gli esperti le chiamano “abilità emergenti”. La più immediata di queste abilità emergenti, già ampiamente sfruttata dai programmatori, è stata la scrittura di codice informatico.
Gli impatti in vari settori, dove l’AI farà da “pilota automatico” a diverse funzioni, può essere enorme: non solo programmazione, ma anche scrittura di testi, elaborazione di immagini, audio e video.
Estrazione di significato utile da grandi moli di dati in possesso dell’aziende, sui rapporti con i clienti, le vendite, il funzionamento delle macchine ad esempio.
Pensiero o coscienza? Non scherziamo
Di qui a parlare di pensiero o di coscienza – qualcosa che nemmeno sappiamo se esiste e come sia negli uomini – certo ce ne passa.
Personalmente concordo con gli esperti di AI che ritengono esagerato definire “intelligenza umana” quella dell’AI:
- manca la capacità intuitiva o di trasferimento immediato di competenze acquisiti in nuovi ambiti, mai incontrati prima.
- Manca un barlume di vera creatività.
- Manca una comprensione del significato del mondo circostante, che continuano a vedere con le lenti disumani del calcolo delle probabilità.
E non sappiamo se saranno limiti superabili. Forse non lo saranno finché le macchine non svilupperanno capacità di provare sentimenti, emozioni reali. E allora probabilmente manco saranno ascrivibili al regno delle macchine.
Le speranze e i timori
E allora? E allora già sarebbe tanto, prima di tutto, se ci sarà davvero un salto di produttività com’è avvenuto con le vere tecnologie ad “uso generale”. Produttività stagnante, soprattutto in Italia, che ha perso il treno dell’innovazione tecnologica decenni fa; ma deludente anche nei Paesi che l’hanno colto, come riflette il NYTimes.
E poi ci sono i timori. Che le nuove intelligenze artificiali accelereranno solo un certo tipo di capitalismo, poco incline alla condivisione del benessere e alle uguaglianze, favorendo una concentrazione del potere. Nelle mani degli attuali ricchi e soprattutto di chi controllo questi algoritmi.
Erik Brynjolfsson, economista di Stanford, teme che l’ossessione per le dimensioni e le capacità simili a quelle di una persona spinga le società in quella che chiama “trappola di Turing”. In un recente saggio, Brynjolfsson sostiene che questa attenzione si presta all’automazione delle attività umane utilizzando la forza computazionale bruta, mentre approcci alternativi potrebbero concentrarsi sull’augmentation di ciò che le persone fanno.
Man mano che un numero maggiore di persone perde il lavoro, la loro capacità di contrattare una parte equa dei benefici dell’automazione sarà ostacolata, lasciando ricchezza e potere in un numero sempre minore di mani. “Con questa concentrazione si corre il rischio di rimanere intrappolati in un equilibrio in cui chi non ha potere non ha modo di migliorare i propri risultati”, scrive.
Questi modelli di per sé favoriscono la concentrazione. Nessuno può costruire un modello di fondazione in un garage.
Richiedono crescenti potenze di calcolo e sempre più dati.
I dirigenti di Nvidia parlano già di modelli che costeranno 1 miliardo di dollari per essere addestrati. Alcune aziende continuano a rendere i loro modelli open-source, e quindi liberamente disponibili; Bert è una di queste, così come una versione da 30 miliardi di parametri di un modello di Meta.
Openai, fondata come organizzazione no-profit con l’obiettivo di garantire che l’ai si sviluppi in modo compatibile con l’uomo, ha generato una società “a profitto limitato” in cui altri possono investire per raccogliere i fondi necessari per continuare a lavorare su modelli di grandi dimensioni (Microsoft ha investito 1 miliardo di dollari). Anche un’università eccezionalmente dotata come Stanford non può permettersi di costruire supercomputer basati su Nvidia. Il suo istituto di ricerca ai sta spingendo per un “National Research Cloud” finanziato dal governo per fornire alle università potenza di calcolo e set di dati in modo che il campo non finisca interamente dominato dalle agende di ricerca delle aziende private.
Insomma, più che temere macchine senzienti dovremmo preoccuparci del buon uso delle attuali. Che non automatizzino distorsioni già presenti, rendendole insanabili.