Il lancio di ChatGPT il 30 novembre 2022 ha colto un po’ tutti di sorpresa rivelando gli enormi progressi dell’’intelligenza artificiale (IA) e, pur essendo solo uno dei tanti strumenti di intelligenza artificiale generativa, oggi sappiamo di essere di fronte a uno spartiacque tecnologico che ha dato consapevolezza non solo agli esperti ma a tutti noi del potenziale dell’IA di cambiare in maniera sostanziale come lavoriamo e interagiamo con gli altri.
A dispetto, però, del clamore che ha suscitato il lancio di ChatGPT e delle grida di allarme da parte di molti esperti dell’intelligenza artificiale sui rischi che essa comporta, l’utilizzo dell’IA da parte delle imprese è ancora limitato a grandi gruppi e circoscritta ad alcune funzioni specifiche. In un’indagine condotta dall’OCSE su 2000 imprese e 5300 lavoratori della manifattura e finanza di 6 paesi OCSE, la percentuale di imprese che usano regolarmente IA è meno del 10%, anche se sono circa un terzo tra le grandi imprese.
Le scelte per il futuro dell’IA: gli errori da evitare
Ma con l’entrata in scena dell’IA generativa la velocità di sviluppo ed utilizzo sono impressionanti, e il potenziale di trasformazione resta ancora in gran parte da realizzare. È chiaro, però, fin da ora che l’impatto dell’IA sulla nostra economia e società, e se i benefici saranno superiori ai rischi, dipenderà molto dalle policy che verranno adottate.
Qui occorre evitare due errori che potrebbero rivelarsi particolarmente dannosi. Il primo è quello di un approccio attendista: visto che siamo solo agli inizi dell’utilizzo massivo di IA, meglio attendere e vedere i suoi impatti prima di intervenire con adeguate misure di policy. Questo approccio è particolarmente pericoloso vista la velocità estrema con cui la tecnologia si sta sviluppando: il rischio è di essere sempre in ritardo con interventi inefficienti.
Il secondo errore è quello di cadere nella trappola di un cieco “determinismo tecnologico” secondo cui è la tecnologia che modella i cambiamenti sociali e culturali, piuttosto che il contrario. Se è probabilmente irrealistico “fermare” gli esperimenti di IA generativa come invocato nella lettera sottoscritta in primavera da più di 30 mila esperti del settore, è legittimo chiedersi quello che vogliamo da questa tecnologia piuttosto che quello che essa può e potrà fare.
Il supporto alle imprese che vogliono usare l’IA: formazione e regole chiare
Non c’è dubbio che sia necessario consentire a lavoratori e imprese di cogliere gli enormi potenziali benefici derivanti dall’IA. Nell’inchiesta sulle imprese che usano IA, la barriera principale ad un maggior utilizzo è il costo dei modelli IA, ma il secondo è la mancanza di personale qualificato per lavorare con IA.
Questo è particolarmente vero per le piccole e medie imprese che necessitano di un supporto attivo.
La formazione degli adulti, soprattutto quelli meno qualificati sarà sempre più importante insieme all’investimento in scuola e università.
Allo stesso tempo, è necessario riflettere su un quadro regolamentare che definisca i modi e le forme in cui l’IA possa essere utilizzata. In particolare, è necessario affrontare i potenziali rischi di un utilizzo sconsiderato dell’IA ad esempio sui luoghi di lavoro – in termini di privacy, sicurezza, equità e diritti del lavoro – e per garantire la responsabilità, la trasparenza e la “spiegabilità” delle decisioni dell’impresa in materia di occupazione supportate dall’IA. Ciò include la definizione di standard, l’applicazione di regolamenti o linee guida appropriate e la promozione di un’adeguata supervisione di queste nuove tecnologie. Nell’inchiesta sui lavoratori del settore manufatturiero e della finanza esposti all’uso di IA, oltre il 20% è molto preoccupato di perdere il lavoro a causa dell’IA. Se sono le professioni che richiedono competenze medio-alte quelle più esposte, l’evidenza ci dice che queste professioni sono complementari – con opportuni cambiamenti nelle mansioni – all’IA, mentre per i lavoratori a basse competenze il rischio di sostituzione è molto più alto.
Tutela di dati e privacy: le leggi ci sono
Non bisogna necessariamente reinventare la ruota. La legislazione antidiscriminatoria, le normative sulla sicurezza e la salute sul lavoro, quelle sulla privacy dei lavoratori e la libertà di associazione devono essere rispettate quando i sistemi di IA vengono utilizzati sul posto di lavoro. Ad esempio, nell’inchiesta sui lavoratori che sono esposti all’uso di IA, dal 40 ad oltre il 60% di loro, a seconda del paese, sono molto preoccupati dell’uso che viene fatto dei loro dati dai modelli. Tutti i Paesi OCSE hanno leggi che mirano a proteggere i dati e la privacy, ma in alcuni casi tali normative sono state adeguate ai rischi specifici legati all’uso dell’IA. In Germania, Francia e Italia, ad esempio, vi è l’obbligo di accordo preventivo con i rappresentanti dei lavoratori sul monitoraggio degli stessi attraverso l’IA; e diversi paesi hanno norme che impongono ai datori di lavoro di informare i dipendenti sulle politiche di monitoraggio elettronico dei dipendenti. In alcuni Paesi, come l’Italia, la legislazione antidiscriminatoria esistente è stata applicata con successo in cause giudiziarie relative all’uso dell’IA sul posto di lavoro. Ma le normative che non sono state concepite specificamente per l’IA dovranno, con ogni probabilità, essere adattate.
Responsabilità, trasparenza e spiegabilità dell’algoritmo: gli approcci
Tuttavia, esistono alcuni rischi che sono specifici all’IA o che sono particolarmente rilevanti nell’utilizzo di questa tecnologia. In particolare, l’obiettivo di assicurare responsabilità, trasparenza e spiegabilità nell’utilizzo dell’IA sta spingendo diversi paesi e organizzazioni internazionali, tra cui l’OCSE a proporre quadri normativi specifici per l’IA. Ad esempio, nell’utilizzo dell’IA nella presa di decisioni che influiscono sulle opportunità e sui diritti dei lavoratori, ci sono degli approcci specifici che possono essere considerati, come ad esempio adattare la legislazione del lavoro all’uso dell’IA; incoraggiare l’uso di solidi strumenti di verifica e certificazione dei modelli IA; utilizzare un approccio “human-in-the-loop” nella concezione e utilizzo dei modelli IA; così come sviluppare meccanismi per spiegare in modo comprensibile la logica alla base delle decisioni basate sull’IA.
Gli approcci adottati variano da un contesto all’altro.
L’Unione Europea sta discutendo di una proposta di legge sull’IA, che adotta un approccio basato sul rischio per fare in modo che i sistemi di IA siano supervisionati da persone, siano sicuri, trasparenti, tracciabili e non discriminatori. In altre parole, si definiscono le aree di rischio principali nell’utilizzo dell’IA e ci si concentra su queste aree per verificare in primo luogo se la legislazione esistente sia sufficiente o se sia necessario intervenire con nuove norme ad hoc.
Gli Stati Uniti stanno adottando un approccio diverso, basato su quello che potremmo definire una soft law, delle linee guida per le imprese. Nell’ottobre 2022, l’Ufficio per la politica scientifica e tecnologica della Casa Bianca ha pubblicato un progetto per una Carta dei diritti dell’IA, che definisce una tabella di marcia per un uso responsabile dell’IA.
Nel giugno 2022, il Canada ha introdotto in Parlamento l’Artificial Intelligence and Data Act (AIDA) che richiede “spiegazioni in linguaggio semplice” su come i sistemi di IA raggiungono i loro risultati.
Conclusioni
Queste iniziative, e le molte altre che si stanno sviluppando, sono incoraggianti. Ma in molti esperti resta il dubbio che la risposta politica non sia al passo con i rapidissimi sviluppi dell’IA generativa e non sia sufficientemente dettagliata e applicabile ai casi concreti dell’utilizzo dell’IA. Occorre anche assicurare una buona cooperazione e coordinamento internazionale su questi temi, per garantire un approccio di base comune che eviti una frammentazione degli interventi normativi che danneggerebbe inutilmente l’innovazione e potrebbe portare a una corsa al ribasso.