La corsa alla regolamentazione dell’intelligenza artificiale è partita da tempo ormai. Le potenze globali si stanno muovendo a ritmi diversi. In UE, con il recente via libera dal Parlamento europeo, l’Artificial Intelligence Act è un passo più vicino a diventare la prima normativa onnicomprensiva al mondo dedicata all’IA. La Cina, dal canto suo, sta intensificando gli sforzi per regolamentare l’intelligenza artificiale generativa.
E ora sembra che anche gli Stati Uniti siano pronti a una decisa accelerata, anche grazie al velo sollevato dal Garante per la protezione dei dati italiano che ha avuto la forza e il coraggio di anticipare e spiazzare tutti con la sua indagine su Replika e ChatGPT, generando plauso internazionale e, tardivamente, anche nazionale.
Tutto questo mentre in Europa si celebrano i cinque anni di applicazione del GDPR, ricorrenza fondamentale anche per decifrare il futuro della regolamentazione sull’IA.
Big tech, ruolo nella strategia USA
La rinnovata e per certi versi inedita attenzione verso la normazione dell’IA che si sta registrando nelle ultime settimane oltre oceano si deve anche ad alcune importanti prese di posizione da parte dei vertici di certe big tech. Tra le dichiarazioni più incisive – e forse anche sorprendenti – primeggia certamente quella di Sam Altman, tra i fondatori e attuale CEO di OpenAI, la società che sviluppa ChatGPT, che in audizione davanti al Congresso degli Stati Uniti ha sostenuto la necessità di adottare più regole per disciplinare questo nuovo complesso di tecnologie altamente innovative.
Lo stesso Altman era tra i rappresentanti delle grandi società del tech convocati dalla Casa Bianca in un incontro durante il quale si è parlato anche di nuove regole per questo mercato in forte ascesa. Davanti ai vertici dell’esecutivo statunitense c’erano anche Satya Nadella di Microsoft e Sundar Pichai di Google. Proprio il CEO del colosso di Mountain View, pochi giorni fa, è intervenuto sulle pagine del Financial Times ribadendo – come già fatto in passato – la necessità e l’importanza di interventi legislativi in grado di anticipare i possibili fattori di danno e dare pieno impulso a tutti i benefici derivanti dalle applicazioni dell’IA. Tra chi sostiene di doversi dirigere verso un mondo con regole dedicate al settore dell’intelligenza artificiale c’è anche il CEO di Tesla e Twitter Elon Musk, che proprio pochi mesi fa sottoscriveva una lettera aperta rilasciata dal Future of Life Institute per chiedere una pausa di sei mesi allo sviluppo di sistemi di IA avanzata. Rispetto all’idea di tirare i remi in barca per qualche tempo si era invece dimostrato più scettico Bill Gates, il quale a propria volta ha recentemente sottolineato l’importanza di dettare misure adeguate per regolamentare i sistemi di intelligenza artificiale.
Il dibattito USA sull’IA
Il quadro appena delineato, con i vertici delle più importanti aziende tecnologiche a spingere per l’adozione di norme che governino il futuro dell’intelligenza artificiale, deve essere completato con due ulteriori dati.
Il primo riguarda la presenza di un fronte di voci ed esperti che tratteggia per gli Stati Uniti il pericolo che una normazione prematura dell’intelligenza artificiale possa tradursi in uno svantaggio competitivo versa la Cina nella partita per il primato tecnologico globale. Emerge qui con incontrastata evidenza il significato geopolitico della corsa all’adozione di norme per disciplinare una tecnologia che con tutta probabilità cambierà per sempre gran parte degli equilibri, collettivi e individuali, ad oggi esistenti.
Il secondo dato permette invece di non cadere in semplificazioni, dovendosi considerare come negli Stati Uniti il percorso di regolamentazione dell’IA non sia alla tappa zero. Non solo in passato sono stati già presentati diversi disegni di legge sull’argomento, ma anche a livello federale e di agenzie, nonché nei singoli stati, proposte normative, leggi e provvedimenti sono stati adottati negli ultimi anni per fare fronte alla crescente complessità portata dall’innovazione artificiale. Solo per fare qualche esempio, si pensi alla bozza di nuova carta dei diritti fondamentali (AI Bill of Rights) emanata lo scorso ottobre dall’Office of Science and Technology Policy della Casa Bianca, o all’Artificial Intelligence Risk Management Framework pubblicato dal National Institute of Standards and Technology o all’Artificial Intelligence Video Interview Act adottato dallo stato dell’Illinois, che interviene per regolamentare l’utilizzo dell’IA nell’ambito dei processi di selezione del personale.
Un nuovo GDPR per l’IA
Come già anticipato tra le linee, la sfida della regolamentazione dell’IA porta con sé importanti ricadute in termini di rapporti ed equilibri internazionali. In altre parole, le grandi potenze globali si stanno sfidando per un primato di governance normativa che diventerà inevitabilmente anche di mercato e di sviluppo tecnologico. Non c’è dubbio che l’Unione europea sia in una posizione di vantaggio, sia in ragione dell’esperienza maturata nella gestione complessa dei dati, con le norme ormai ultravantennali sulla libera circolazione e protezione dei dati personali (prima con la direttiva 95/46 e poi con il GDPR) sia con la bozza ormai avanzata dell’Artificial Intelligence Act, pronto a diventare il nuovo standard internazionale per disciplinare le soluzioni di IA con le altre potenze attualmente alla rincorsa per tentare di imporre un proprio modello alternativo.
Ecco che allora la storia vissuta con il GDPR si potrebbe ripetere. Poco meno di dieci anni fa, quando negli uffici delle istituzioni europee prendeva forma una nuova disciplina omogenea sul trattamento e la circolazione dei dati personali, l’obiettivo era proprio quello di trasformare quelle regole in un modello internazionale di norme tese a garantire un costante e flessibile equilibro tra tutela dei diritti e delle libertà fondamentali e innovazione. Siamo oggi arrivati al quinto anno di applicazione e questo incredibile risultato può dirsi già raggiunto.
Le normative privacy approvate in tutto il mondo dal 2018 in poi hanno preso come riferimento principale proprio il GDPR, diventato in breve tempo il prodotto normativo più esportato della storia europea. E ciò è avvenuto senza che il regolamento abbia perso la sua portata innovativa. E anzi dopo cinque anni continuiamo a scoprirne nuove sfumature – pensiamo solo a come il GDPR trovi applicazione proprio con riferimento all’utilizzo di sistemi di IA – e rilevanti impatti. A quest’ultimo proposito, deve far riflettere che la sanzione più alta mai comminata ai sensi della normativa europea sulla privacy – quella di pochi giorni addietro nei confronti di Meta da parte del Garante irlandese – arrivi a cinque anni di distanza dalla prima applicazione del regolamento.
Altro grande elemento degno di nota introdotto con forza dal GDPR nella governance di aziende e pubbliche amministrazione è il DPO, il responsabile della protezione dei dati. Solo in Italia ne sono stati nominati in cinque anni oltre sessantamila. Con tale mossa le istituzioni europee sono riuscite ad imporre un modello globale di governance dei dati volto a generare equilibrio tra innovazione tecnologica, scelte di business e tutela dei diritti di dipendenti e clienti.
Auspichiamo allora di ritrovarci, presto, a celebrare il primo quinquennio di applicazione dell’Artificial Intelligence Act nello stesso modo in cui festeggiamo oggi il GDPR, consapevoli che al suo decimo anniversario questa pioneristica normativa dedicata alla protezione e alla circolazione dei dati personali avrà ancora moltissimo da insegnarci.