Le tecnologie di intelligenza artificiale (IA) hanno registrato un incremento esponenziale negli ultimi mesi. Dal dicembre 2022, quando OpenAI ha rilasciato al grande pubblico gratuitamente l’IA generativa di testo basata sui Generative Pre-trained Transformers (GPT), o trasformatori generativi pre-addestrati, abbiamo assistito ad una velocissima evoluzione di modelli di IA generativa di ogni tipo: testo (come ChatGPT e Bing Chat), immagini (come DALL-E e Midjourney), presentazioni (Canva ha recentemente integrato un’IA nel suo prodotto che consente di creare una serie di slides automaticamente partendo soltanto da una breve descrizione del progetto), video (come Synthesia e Pictory), musica (come Amper Music e Soundraw).
I vantaggi dell’IA, settore per settore
Le potenzialità di queste tecnologie sono impressionanti e possono aumentare produttività ed efficienza in moltissimi settori. Forniscono un utile punto di partenza che, seppur limitato e a volte impreciso, può essere controllato, corretto e/o migliorato dall’intelligenza umana. Come molti sostengono da tempo, la combinazione uomo + macchina (nota bene: non la sostituzione dell’uomo con la macchina) può generare guadagni sostanziali sia in termini economici sia di soddisfazione personale del lavoratore.
- Nell’educazione, l’IA è in grado di personalizzare l’esperienza di apprendimento dello studente in base ai suoi specifici punti di forza e debolezza.
- In campo sanitario, è di sostegno al personale medico nella diagnostica, nella previsione di determinati esiti per il paziente, nel personalizzare piani di trattamento in base alle specifiche caratteristiche del paziente, persino nella scoperta di nuovi farmaci e nella ricerca genetica.
- Nel campo della sicurezza pubblica, con l’IA si può automatizzare l’analisi di video ripresi da telecamere di sicurezza in modo da identificare attività sospette; si può anche coordinare più efficacemente la risposta di servizi di emergenza in caso di necessità (come disastri naturali o attacchi terroristici).
- Nel trasporto, l’IA è alla base dei veicoli autonomi, sia per la gestione della navigazione sia per evitare ostacoli; l’IA viene poi utilizzata per ottimizzare i tragitti dei veicoli di consegna merci, contribuendo così anche alla riduzione del consumo di combustibile e di emissioni di CO2.
- In agricoltura, l’IA analizza suolo, meteo ed altri dati per fornire agli agricoltori indicazioni su come aumentare la resa delle colture e ridurre gli sprechi.
- In finanza, l’IA è in grado di segnalare transazioni potenzialmente fraudolente, automatizzare i movimenti di acquisto e vendita nel mercato azionario e dare consigli finanziari personalizzati che poi possono essere discussi con il proprio consulente di fiducia.
- Nell’intrattenimento, l’IA serve a suggerire raccomandazioni personalizzate per film o musica basate sulle preferenze dell’utente, a creare video games realistici ed altre forme d’arte.
- Nella manifattura, l’IA è in grado di ottimizzare processi di produzione, segnalare guasti previsti nelle attrezzature e migliorare il controllo qualità.
- Nella vendita al dettaglio, l’IA può essere utilizzata per prevedere le scelte del consumatore, ottimizzare la gestione di prezzi ed inventario e personalizzare le esperienze di shopping.
I problemi della diffusione massiccia dell’IA
Tuttavia, la mancanza pressoché totale di basi legali per la distribuzione di strumenti di IA sul mercato e per il loro utilizzo sta creando problemi di natura etica e sociale che non possono essere ignorati. Unica eccezione degna di nota, insieme all’AI Act, che però non è ancora entrato in vigore, il GDPR, con il suo provvedimento che nega decisioni automatizzate che abbiano conseguenze rilevanti nella vita del cittadino Europeo. Analizziamo quindi alcune di queste problematiche nel dettaglio.
I problemi privacy
Abbiamo appena menzionato il GDPR quindi partiamo dai problemi di privacy. Tutti gli algoritmi alla base dell’IA, di qualunque tipo essa sia, necessitano di una quantità formidabile di dati per essere addestrati. Se ci focalizziamo anche solo sull’IA generativa, organizzazioni come Microsoft (il colosso dietro Bing AI ed OpenAI, con i suoi prodotti più celebri, ChatGPT per generare testo e codice e DALL-E per generare immagini) e Google (con il suo Search Experience, SGE) hanno raccolto, senza consenso esplicito dei soggetti interessati, tutto ciò che hanno potuto da quell’immenso deposito di dati che è Internet. Hanno quindi utilizzato tutti questi contenuti per addestrare i loro algoritmi così da riuscire ad eccellere nel compito di generare testo ed immagini, cioè di calcolare quali siano le parole o la serie di pixel più probabili dopo quelli usati nel prompt (la domanda che si pone all’IA).
Il Garante italiano della privacy intervenne immediatamente dopo il rilascio di ChatGPT per bloccarne l’utilizzo in Italia (salvo poi tornare a consentirlo subito dopo) perché non era chiaro come OpenAI avrebbe poi utilizzato tutti i dati forniti dagli utenti durante le loro conversazioni con ChatGPT. X, fino a poco fa noto come Twitter, ha recentemente modificato i propri termini di utilizzo specificando che utilizzerà tutti i dati forniti dagli utenti – post pubblici, messaggi, informazioni biometriche se disponibili – per addestrare la propria intelligenza artificiale, cambiamento che ha per l’ennesima volta preoccupato gli esperti di privacy.
I problemi di diritti sulla proprietà intellettuale
Ci sono anche dei problemi di diritti sulla proprietà intellettuale che potrebbero essere stati violati per l’addestramento dei grandi modelli di linguaggio come GPT-3 e GPT-4, tanto che alcuni artisti hanno deciso di adire le vie legali contro le organizzazioni responsabili che, a loro detta, si sarebbero appropriate delle loro opere utilizzandole come base e mischiandone dettagli per generare immagini simili.
La discriminazione dell’IA
Un secondo problema sociale legato all’utilizzo dei sistemi di IA, anch’esso legato all’addestramento degli algoritmi, è quello della discriminazione. I sistemi intelligenti di riconoscimento facciale, ad esempio, sono molto più efficaci su visi di individui di razza bianca che su visi di qualsiasi altro tipo. Joy Buolamwini, fondatrice di Algorithmic Justice League, un’associazione di artisti e ricercatori che promuovono principi di responsabilità e trasparenza nello sviluppo ed utilizzo di IA, è stata la prima ad accorgersi di questo problema, avendone avuto diretta esperienza personale, ed ha scoperto che per gran parte è dipeso dal fatto che i dati utilizzati per l’addestramento si riferiscono per la stragrande maggioranza ad individui di razza bianca, mentre tutte le altre razze sono pesantemente sotto-rappresentate.
Ciò è problematico perché gli algoritmi di IA vengono utilizzati come base per decisioni che hanno un impatto significativo sulla vita degli individui. Ad esempio, se un sistema di riconoscimento facciale viene utilizzato nel corso di un’investigazione, è molto più probabile che commetta errori con individui di colore che con individui bianchi, risultando più spesso in condanne ingiuste per i primi che per i secondi. In modo simile, un’IA utilizzata per individuare frodi online in base a come un individuo utilizza la tastiera o il mouse (la velocità dei movimenti, il percorso tracciato, il numero di volte in cui torna sui suoi passi per cambiare la propria risposta…) potrebbe risultare discriminatoria verso individui sottorappresentati nel dataset di addestramento, come potrebbero essere gli anziani o chi soffre di dislessia o di disturbi neuro-motori.
Lo sfruttamento di popolazioni svantaggiate per etichettare i dati
Altro problema che riguarda l’addestramento degli algoritmi è poi quello dello sfruttamento di popolazioni svantaggiate per etichettare i dati. Affinché un algoritmo sia in grado di riconoscere che due immagini rappresentano, ad esempio, un cane o una sedia è necessario che una persona aggiunga l’etichetta di cane o sedia a molte immagini di cani e, rispettivamente, sedie. Addestrata con tutte quelle immagini etichettate, l’IA sarà poi in grado di classificare un animale come cane o un oggetto come sedia anche non avendo mai ricevuto nella fase di addestramento l’immagine di quella specifica tipologia di cane o sedia.
Etichettare un’immagine è un compito piuttosto semplice per un essere umano, tanto semplice che le aziende che lo richiedono non sono disposte a pagare gran che per portarlo a termine. Gli unici disposti a farlo sono dunque coloro che non possono dire di no, spesso cittadini di Paesi in via di sviluppo appartenenti a classi economiche basse o disagiate, come i carcerati.
Queste persone sono pagate pochissimo e spesso esposte a materiale offensivo, violento o comunque spiacevole, e potrebbero di conseguenza soffrire di disturbo da stress post-traumatico. Queste popolazioni non sono solo quelle esposte ai maggiori rischi dello sviluppo dell’IA – sono anche quelle che con maggiore probabilità saranno escluse dalla fruizione dei relativi benefici, perché il loro status economico non consente loro l’utilizzo di quella stessa tecnologia che hanno contribuito a creare.
Le considerazioni di impatto ambientale
Vi sono poi considerazioni di impatto ambientale da tener presenti. Nel suo ultimo rapporto sulla sostenibilità, Microsoft ha rivelato che il proprio consumo globale di acqua è aumentato del 34% dal 2021 al 2022 (arrivando a quasi 1,7 miliardi di galloni, ovvero più di 2.500 piscine olimpioniche). È stato stimato che ChatGPT consumi mezzo litro d’acqua ogni volta che gli si rivolgono dalle 5 alle 50 domande. E così per Google, che nello stesso periodo ha registrato una crescita del 20% nell’utilizzo dell’acqua, in gran parte attribuibile al suo lavoro sull’IA.
Lo strapotere dei produttori di chip
Un ultimo aspetto che vorremmo considerare in questa sede riguarda la dipendenza che lo sviluppo e l’utilizzo di IA sta creando da pochissime aziende che si occupano del design e della produzione di semiconduttori, avanzatissimi chip indispensabili per l’IA ed, ormai, per qualsiasi dispositivo di uso comune: dallo smartphone all’automobile, dal televisore al condizionatore. Questa manciata di aziende ha di fatto un enorme potere di mercato perché, di fatto, da esse dipende il mondo intero. Come perfettamente spiegato da Chris Miller in Chip War, ciò crea squilibri geo-politici preoccupanti ed, in più, seri problemi nella catena globale di fornitura: basta un singolo evento avverso imprevedibile come un terremoto o uno tsunami, o uno forse solo in parte prevedibile come una guerra o una pandemia a mettere fuori uso quei pochi produttori responsabili di tutta l’offerta mondiale di chip ed a mandare così in crisi la catena di fornitura di computer, automobili, dispositivi intelligenti e così via. Tanta concentrazione di potere è sempre rischiosa.
Conclusioni
Concludiamo questa breve carrellata di benefici e rischi dell’IA ricordando che sono le scelte che facciamo a determinarne il bilanciamento. I rischi non sono una necessaria conseguenza dei benefici, non dobbiamo per forza sostenere quei rischi per fruire dei benefici. Lo sviluppo e l’utilizzo di tutte le tecnologie, anche quelle di IA, sono dettati da scelte consapevoli, che hanno conseguenze in gran parte prevedibili. Come sostiene Cory Doctorow, blogger, autore di science fiction ed attivista, il determinismo tecnologico, ovvero la teoria secondo cui la tecnologia segue la sua strada ed influenza autonomamente cultura e società, è solo una scusa utilizzata da chi non vuole o non ha interesse ad assumersi la responsabilità di indirizzare lo sviluppo tecnologico verso una massimizzazione dei benefici ed una minimizzazione dei rischi, per tutti.