Una recente ricerca della University of Washington (USA)[1] – cha ha coinvolto due ricercatori di Google – ha scatenato un’accesa disputa nel variegato mondo dell’Intelligenza Artificiale. Tale pubblicazione scientifica fornisce un’utile revisione critica dei modelli linguistici di apprendimento automatico (o “Machine Learning”) come il GPT-3, che permette la produzione “artificiale” di un testo come se fosse stato ideato (scritto) da un essere umano.
Costi e rischi della corsa al machine learning
La quantità di calcoli (e il relativo impatto ambientale) coinvolti nell’implementazione di tale modello sono saliti talmente tanto alle stelle ultimamente, da spingere il team “ibrido” della University of Washington a chiedersi fino a che punto si può arrivare con lo sviluppo di tali sistemi.
I ricercatori in oggetto hanno identificato un’ampia varietà di costi e rischi associati alla “corsa” al Machine Learning, tra cui:
- i costi ambientali, tipicamente sostenuti da coloro che non beneficiano della tecnologia come “risultato finale”;
- i costi economici, che a loro volta creano barriere all’ingresso, limitando chi può contribuire con questa area di ricerca e chi può beneficiare delle tecniche più avanzate;
- costi-opportunità, ossia quei costi sostenuti dai ricercatori dirottando i loro sforzi in direzioni che richiedono meno risorse;
- il rischio di danni sostanziali, tra i quali figurano gli stereotipi, la denigrazione, l’aumento di idee estremiste e – in taluni casi – gli arresti illegittimi da parte delle forze dell’ordine (si pensi ai pregiudizi etnici insiti nell’Intelligenza Artificiale).
Questi risultati forniscono un’utile contro-narrazione all’attuale corsa precipitosa dell’industria tecnologica ai modelli di linguaggio di Intelligenza Artificiale.
Perché insegnare alle macchine a parlare e scrivere come noi? I pericoli
La reazione di Google
Tuttavia, la “storia” in esame parte con una piccola difficoltà iniziale. Nel 2018, Google creò BERT, un sistema per l’elaborazione del linguaggio naturale che era così potente da indurre la società di Mountain View ad incorporarlo nel suo motore di ricerca, ossia il suo prodotto principale e più redditizio. Da ciò si comprende come Google possa essere molto sensibile alle critiche che interessano una tecnologia così fondamentale come quella in esame. E dato che due dei co-autori del documento accademico in oggetto figuravano come “risorse umane” di Google, l’azienda ha preso provvedimenti. Per farla breve, successivamente alla pubblicazione della University of Washington, i due ricercatori non universitari hanno interrotto la loro collaborazione con Google. È certo che gli odierni sistemi di apprendimento automatico (Machine Learning) hanno problemi etici insiti nella loro stessa natura, non c’è da meravigliarsi. Ma ora arriva la parte più “curiosa” della storia: i ricercatori già dipendenti di Google figuravano come membri del team di “Google Ethical AI”. Quindi, a quanto pare, stavano facendo “il loro lavoro”, che è quello di esaminare in maniera critica le tecnologie di apprendimento automatico in modo da trovare tutti i problemi etici che possano inficiarle.
Il business delle commissioni etiche delle aziende
Con l’accelerazione dell’industria tecnologica nel campo dell’apprendimento automatico, allo stesso modo vi è stata una proliferazione di “commissioni di supervisione etica” nelle diverse aziende che operano nel campo del Machine Learning. Per creare tali commissioni, tali imprese hanno arruolato tra le loro file intraprendenti accademici desiderosi di ottenere “un posto nella storia” dell’Intelligenza Artificiale. In questo senso, le consulenze accademiche in materia di questioni etiche nel campo dell’apprendimento automatico sono diventate un vasto sistema “lucrativo” per filosofi e altri studiosi che, altrimenti, sarebbero risultati disoccupati. E la ragione per cui questo modus operandi continua è che le aziende tecnologiche cercano di mettere i paletti in un settore non regolamentato a livello normativo (né statunitense né internazionale).
Il punto è che gli attuali sistemi di apprendimento automatico hanno problemi etici nello stesso modo in cui “i topi hanno le pulci”. I loro difetti intrinseci includono il pregiudizio, l’ingiustizia, la discriminazione etnica e di genere, l’enorme impatto ambientale, la scarsità teorica, e uno studio critico della natura e dei limiti della conoscenza scientifica paralizzato dalle logiche aziendali. Tuttavia, queste limitazioni non hanno impedito ad alcune Big Tech di adottare tali soluzioni tecnologiche scommettendo al contempo sulla loro piena riuscita.
Detto ciò, si può immaginare come il comparto dirigenziale di alcune aziende possa rispondere ai ricercatori che sottolineano in maniera pedante le difficoltà etiche che attanagliano il campo dell’Intelligenza Artificiale. Magari ciò può non essere di conforto ai due ricercatori non accademici dell’articolo dell’University of Washington; tuttavia, la loro esperienza ha già innescato alcune iniziative, come la campagna studentesca “#RecruitMeNot!”, intesa a persuadere gli studenti – e, in generale, il mondo accademico – a non appoggiare (o lavorare per) le grandi aziende tecnologiche.[2]
- On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? University of Washington. https://faculty.washington.edu/ebender/papers/Stochastic_Parrots.pdf ↑
- Google May Ask Questions About AI Ethics, But Doesn’t Want Answers | Google. DIGIS MAK. https://digismak.com/google-may-ask-questions-about-ai-ethics-but-doesnt-want-answers-google/ ↑