Le grandi rivoluzioni industriali hanno contribuito a cambiare gli stessi paradigmi su cui si fondavano le società all’interno delle quali si andavano realizzando.
Dal cavallo ai veicoli a vapore, dalle candele all’elettricità, dalle tecnologie tradizionali a quelle informatiche il passaggio ha dato luogo non solo a “rotture” scientifiche, economiche, sociali e politiche ma ha anche favorito lo sviluppo di nuovi modelli di normazione.
Non essendo questo un saggio giuridico sul rapporto tra innovazioni scientifiche e forme della loro regolazione, mi limito a ricordare come, ad esempio, la seconda “rivoluzione” abbia favorito la creazione di strumenti regolatori nel campo della concorrenza e del contrasto antimonopolistico che non erano solo il naturale sviluppo di normative precedenti, ma costituivano il frutto di riflessioni appunto giuridiche, e conseguentemente politiche, innovative.
La regolamentazione dell’intelligenza artificiale come ossimoro
Cosa c’entra questa premessa con la regolamentazione dell’intelligenza artificiale? C’entra, a mio giudizio, nella parte in cui pone il problema della sufficienza o meno dei nostri tradizionali modelli normativi (in primo luogo “la legge”) per disciplinare un fenomeno che non è solo “incrementale” rispetto alle esistenti tecnologie, ma si pone su basi nuove e diverse. E perché ho parlato di “ossimoro”?
Perché sembra a molti che ci si trovi invece oggi davanti ad un fenomeno che, nel suo continuo e a volte caotico ed imprevedibile svilupparsi, si porrebbe in irrisolvibile contraddizione con il necessario rapporto tra una realtà ragionevolmente consolidata e la sua successiva regolamentazione, rendendo quindi difficile, se non impossibile, qualsiasi tentativo di porre regole: regolarlo significherebbe contraddire la sua natura imprevedibile e, quindi, indisciplinabile.
Il ruolo dell’uomo nella regolamentazione dell’ia
Senza voler approfondire qui un tema che pone questioni non semplici, mi rifaccio a quanto recentemente ribadito da Geoffrey Hinton, uno dei padri dell’intelligenza artificiale: spetta all’uomo disciplinare quello che l’uomo ha creato, per evitare che questa tecnologia, potenzialmente accessibile a tutti, si sviluppi e venga utilizzata in modo malevolo. A questa, si aggiunge una ulteriore, rilevante ragione: l’IA va normata perché solo regole precise, rivolte a ricercatori, imprese ed utilizzatori possono garantire non solo il suo sviluppo, ma uno sviluppo che la renda al contempo accettabile oltre che dalla comunità scientifica e da quella produttiva, anche dalla coscienza etica e sociale.
L‘approccio dell’unione europea alla regolamentazione dell’IA
Quali sono allora le forme più idonee a disciplinare questo fenomeno? La vecchia Europa non si è neanche posta il problema. E con un pavloviano riflesso, è immediatamente ricorsa alla mosaica “legge”, nella sua più dommatica versione.
All’origine dell’odierna normativa troviamo, nell’aprile del 2018, un invito del Consiglio Europeo accolto dalla Commissione: si dovrà seguire un approccio che ponga al centro dello sviluppo dell’IA i cittadini (una IA umanocentrica) per aiutare a risolvere le sfide mondiali quali malattie, cambiamento climatico, disastri naturali, criminalità e così via. Su questa traccia, il 7 dicembre dello stesso anno, veniva presentato un Piano Coordinato per l’intelligenza artificiale.
Una postura difensiva
Come si vede, fin dall’inizio la postura assunta è stata quella “difensiva”, preoccupata delle conseguenze cui avrebbe potuto condurre il nuovo strumento, che veniva visto non “in sé”, ma in relazione all’uso, fortemente ideologizzato, che di esso si sarebbe potuto eventualmente fare. Si voleva quindi favorire uno sviluppo che rassicurasse e preparasse la società all’impatto con l’IA grazie ad una normativa “forte”: obiettivo certamente condivisibile, ma che avrebbe dovuto essere coniugato con una riflessione ed un successivo intervento, magari innovativo, su come guidare lo sviluppo e l’utilizzo di una tecnologia le cui potenzialità non apparivano, e non appaiono ancora, sufficientemente definite, accompagnate invece spesso da preoccupazioni catastrofiste.
Cercando strumenti anche nuovi per regolare un fenomeno di dimensioni planetarie che stava crescendo in paesi guidati da modelli giuridici differenti, nessuno dei quali dava però piena garanzia di poter affrontare in modo soddisfacente la nuova sfida: dall’America alla Cina, dall’Unione Europea al Regno Unito la normazione si sarebbe infatti avviata su percorsi non solo diversi, ma fondati su presupposti e conclusioni spesso non coincidenti. In un quadro arricchito, non vorrei dire “complicato”, da interventi numerosi, non sempre coordinati ed egualmente produttivi, di una pluralità di soggetti ed istituzioni internazionali.
I limiti dell’AI act e conseguenze per le imprese
Torniamo all’Unione Europea. Il suo approccio, concretizzatosi con l’entrata in vigore lo scorso primo agosto dell’AI Act, è come detto fortemente normativo e riprende l’indirizzo a suo tempo seguito con il GDPR, per realizzare quello che viene definito il Brussels effect: indurre le società informatiche ad adeguarsi agli standards europei se vogliono accedere ad un mercato di 450 milioni di persone. All’AI Act si è aggiunto nei giorni scorsi un Draft Code, che dovrebbe agevolare la comprensione e l’utilizzo delle nuove norme.
Ci troviamo quindi davanti ad una disciplina che vuole realizzare la ricordata IA umanocentrica, ispirata alla difesa di fondamentali principi etici e fondata sulla tutela dai rischi.
Non voglio entrare in un esame dettagliato delle norme. Mi limito ad elencare quelli che ne sono i principali limiti derivanti, a mio avviso, in gran parte proprio dallo strumento giuridico utilizzato. Ci troviamo allora davanti ad un linguaggio spesso non preciso, a volte volutamente ambiguo frutto dei compromessi, inevitabili, cui si è stati costretti a ricorrere: e i diversi organi della governance, nazionali e dell’Unione, dovranno per questa ragione ricorrere domani a non facili criteri interpretativi, fonti di prevedibili contenziosi. La normativa approvata risente poi del difficile tentativo, non sempre riuscito, di voler regolare una realtà, come ricordato, in continuo e spesso imprevedibile sviluppo durante lo stesso processo di normazione, che ha mutato tra l’altro in corso d’opera la stessa definizione di intelligenza artificiale. Ma il contrasto maggiore, che ha costretto a prevedere norme non pienamente soddisfacenti, è stato quello tra chi privilegiava la ricerca e la produzione e chi sottolineava invece i rischi etici e giuridici posti dall’IA.
Vi sono poi problemi posti dal non semplice iter amministrativo e burocratico per la identificazione, la certificazione e il controllo dei sistemi ad alto rischio; i costi elevati per la compliance, che secondo alcuni supereranno per le aziende nella fase iniziale i 30 miliardi; la sovrapposizione di sanzioni, ad esempio in caso di data breach, tra quelle previste dal GDPR e la nuova normativa. Potrei proseguire, ma mi fermo qui. Una disciplina che per i suoi limiti sta conducendo imprese importanti a rallentare, se non ad escludere, investimenti e presenza in Europa: l’ultimo caso è quello del nuovo strumento Apple, Apple Intelligence, che non verrà al momento rilasciato in Europa per i dubbi sulla sua compatibilità con la nuova normativa.
Gli approcci di Stati Uniti, Gran Bretagna e Cina
Veniamo all’approccio diverso seguito dagli Stati Uniti, certamente frutto della diversa tradizione giuridica di quel paese ma ispirato anche da un maggior coraggio nel favorire lo sviluppo dell’IA. Senza voler scendere in particolari, si preferiscono qui strumenti di soft law, che puntano più che a introdurre nuove norme a prevedere indirizzi ed agevolazioni; a favorire accordi volontari tra imprese e utenti; al coinvolgimento di strutture ed agenzie già esistenti; al ricorso alla normativa vigente, anche penale, per evitare e risolvere problemi etici e conflitti; a sostegni finanziari e fiscali per stimolare la ricerca, il mercato e la formazione dei talenti. Alla base di questa disciplina vi è l’Executive Order del 30 ottobre 2023 del Presidente Biden.
Analogamente, la Gran Bretagna ha adottato sul tema un approccio che, già nella sua denominazione, ne chiarisce l’ispirazione: pro-innovation. Un approccio che la nuova maggioranza laburista non sembra al momento voler cambiare in misura significativa.
Per quanto riguarda la Cina, possiamo solo dire che la strada seguita è non solo quella di una normazione primaria fortemente centralizzata ed autoritaria, guidata da principi che puntano ad assicurare il controllo dello Stato, rectius del Partito, sui processi di ricerca; ma anche quella di favorire un utilizzo di questa tecnologia ai fini di un rigoroso controllo sociale.
Cosa succede in Italia
Il nostro paese sembra oggi voler seguire la strada dell’Unione Europea, sia con il disegno di legge presentato lo scorso aprile, sia con la “Strategia 2024-2026” dell’Agenzia per l’Italia Digitale del mese di luglio. Con i problemi che abbiamo prima indicato quando abbiamo parlato dell’AI Act.
Sia chiaro: non si sostiene con queste critiche la strada di una deregolazione nell’uso dell’intelligenza artificiale. Ritengo piuttosto che ci sia bisogno di una regolamentazione che sappia trovare soluzioni anche giuridiche innovative, che abbia un respiro internazionale e che non venga lasciata a decisioni di singoli Stati o di loro limitate aggregazioni, come l’Unione Europea: con il rischio, richiamato recentemente da Mario Draghi, di produrre “regole inconsistenti e restrittive” non da tutti condivise, e di provocare quindi nei paesi che le adottano un restringimento del mercato ed un rallentamento della ricerca. È un fenomeno che richiederebbe invece una disciplina ed un regolatore globale, sia esso pubblico o privato, come indicato da Henry Kissinger in un libro scritto poco prima della sua scomparsa.
Coinvolgere gli stakeholder per una normativa condivisa
Gli obiettivi e gli strumenti non mancano e ad alcuni abbiamo prima accennato. C’è bisogno di un modello che sia capace di coinvolgere gli stakeholders nella fase di definizione della normativa, di identificare per essi spazi e modi di autoregolazione, di favorire accordi per uniformare i protocolli d’azione, facendo anche uso degli strumenti di soft law già in parte indicati nel ricordato Executive Order di Biden: strumenti condivisi tra l’altro, nella loro interpretazione più flessibile, dalla stesso governatore democratico della California Gavin Newsom, che ha posto il veto su una legge fortemente restrittiva approvata a fine agosto dal Parlamento statale. Su questo tema sarà comunque di significativa importanza l’indirizzo della nuova amministrazione, che vede nella disciplina Biden un freno ancora eccessivo all’innovazione. Un’amministrazione cui sono vicini esponenti importanti del mondo delle tecnologie come Peter Thiele, Joe Lansdale, i gemelli Winklevoss, Ben Horowitz e naturalmente Elon Musk.
Ben venga quindi una regolazione. Ed è questo anche l’insegnamento del recente Nobel per la fisica Geoffrey Hinton, prima ricordato: spetta all’uomo ed alle sue istituzioni disciplinare quello che l’uomo ha creato. Troppo semplicistico ed irrealizzabile sarebbe però un luddistico processo di “distruzione” per via regolamentare di quanto la scienza ha prodotto e continuerà a produrre, o delle strutture economiche e sociali, come le Big Tech, che questo processo hanno favorito. La preoccupazione che due altri recenti premi Nobel, Acemoglu e Johnson, hanno manifestato nel loro libro di un anno fa, Power and Progress, improntate ad un maggior pessimismo nel rapporto tra innovazione tecnologica e progresso umano, potrebbero attenuarsi proprio alla luce delle considerazioni di Hinton e delle proposte sopra indicate.
Certamente, e torno a quanto detto all’inizio, occorrerà “inventare” strumenti giuridici innovativi, che prendano il meglio dalle esperienze di soft law e da quelle europee di normazione primaria, capaci di coniugare la tutela di principi etici e giuridici, e qui dobbiamo sempre ricordare la lezione di Paolo Benanti, con la necessità di favorire la ricerca e l’utilizzo di uno strumento ormai irreversibile.
Proposta di un modello regolatorio internazionale e innovativo
Per non rimanere in un campo semplicemente descrittivo e facilmente critico, vorrei allora concludere facendo una proposta concreta. Ricordo che in concomitanza con la presentazione al Parlamento da parte del governo inglese, il 22 settembre 2022, del piano decennale sulla IA (National AI Strategy) venne promossa una consultazione pubblica sui temi dell’intelligenza artificiale che coinvolgeva il mondo accademico e scientifico, quello produttivo, quello professionale e diverse associazioni che si occupano di aspetti specifici del fenomeno tra i quali, in primo luogo, quelli etici.
Non voglio entrare nei dettagli delle domande allora poste e delle risposte avute: mi interessa sottolineare la valenza del metodo. Perché il nostro governo non si fa promotore di un’analoga iniziativa, magari utilizzando il contributo dell’Istituto AI4I, fondazione per l’intelligenza artificiale recentemente costituita? Oltre ad acquisire elementi di valutazione da parte di un’ampia platea di soggetti interessati, utili poi per un successivo intervento di regolazione (auspicabilmente, lo ripeto, non solo di normazione primaria), si darebbe concretezza ad un dibattito capace di coinvolgere settori ampi della pubblica opinione, incanalando la discussione su temi e proposte concrete, piuttosto che su speranze messianiche o timori apocalittici. E dando al nostro Paese una legittimazione rinforzata per contribuire alla creazione di una normativa capace di imporsi a livello internazionale, certamente anche nel solco dei principi enunciati nell’Hiroshima Artificial Intelligence Process del maggio 2023 e nella Dichiarazione di Bletchley Park del novembre successivo: una normativa senza la quale i rischi paventati potrebbero allora diventare realtà.