Alle porte dell’approvazione dell’AI Act[1], l’annuncio di un accordo trilaterale[2] tra Francia, Germania e Italia per deregolamentare i nuovi modelli di IA generativa è una sorpresa.
Con la sua enfasi su un modello di auto-regolamentazione per i modelli fondamentali di AI, questo accordo introduce un nuovo paradigma normativo, ponendosi in potenziale tensione con l’AI Act dell’Unione Europea, al contrario ispirato a una disciplina general preventiva. Il 6 dicembre l’incontro del trilogo affronterà la questione.
Scontro di visioni su regole in Europa
L’accordo trilaterale sembrerebbe proporre un’impostazione basata sulla responsabilità “a valle” degli sviluppatori di AI, incentivando l’adozione di codici di condotta settoriali. Questo approccio permette una maggiore flessibilità e adattabilità alle esigenze specifiche delle varie applicazioni AI, e si contrappone al modello più rigido e omogeneo proposto dal Regolamento europeo, nel quale la regola precauzionale si declina in base alla classificazione dei livelli di rischio.
Il confronto tra questi due approcci solleva questioni giuridiche di rilevanza. L’AI Act, con il suo impianto prescrittivo, intende garantire un alto livello di sicurezza e di tutela dei diritti fondamentali attraverso un controllo ex ante. In contrasto, l’accordo trilaterale sembra puntare su una regolamentazione ex post, facendo leva sulla capacità autoregolativa del settore. Questa discrepanza potrebbe generare problemi di coerenza e armonizzazione tra le normative degli Stati membri e quelle dell’UE, oltre a sollevare dubbi sull’efficacia della supervisione e dell’applicazione delle regole.
Il contenuto dell’Accordo trilaterale Italia-Germania-Francia su Ai ACT
L’accordo sembra fondarsi su due capisaldi: l’imposizione di codici di condotta agli stessi operatori e la diffusione di model cards.
Codici di condotta
Da un lato, la decisione dei tre sottoscrittori di sostenere l’auto-regolamentazione obbligatoria attraverso codici di condotta per i modelli dell’IA segna un passaggio dalla tradizionale imposizione di regole alla promozione di un’autodisciplina guidata da principi. Questo approccio fondato su un principio di leale collaborazione tra potere pubblico e operatore commerciale, piuttosto che imporre limiti alla tecnologia in sé, si concentra sull’uso che se ne fa, suggerendo un modello normativo più reattivo alle peculiarità dell’applicazione dell’IA.
Model cards
Per altro verso, le cd. “model cards” si collocano al centro di questa innovazione regolatoria. Questi documenti, sviluppati dagli stessi creatori dei modelli di IA, offrono una descrizione dettagliata del funzionamento, delle capacità e dei limiti dei loro sistemi. Da qui si deriverebbe che i decisori politici vogliano riservare alla trasparenza un ruolo preminente: essa sarebbe strumentale a individuare precise responsabilità sulla catena del valore. Per gli sviluppatori, la creazione di una model card è un esercizio di riflessione critica che di fatto li costringe ad analizzare e a documentare le prestazioni e i potenziali bias dei loro sistemi. Questo processo dovrebbe, in teoria, incoraggiare la progettazione di sistemi più giusti e sicuri dal lato degli stessi operatori economici poiché la loro diffusione diventa parte integrante del processo di sviluppo e valutazione dell’IA.
Tuttavia ciò non sembrerebbe consistere in un vero e proprio obbligo giuridico, al cui inadempimento far conseguire delle sanzioni. Questo potrebbe costituire un problema. Come si legge da Reuters, la sanzione, il cui soggetto emanante non è stato definito, conseguirebbe solo a seguito della violazione del codice di condotta, nel quale, tuttavia, non è detto che e in quali attività venga declinato il principio di trasparenza. Ad esempio, nulla sembrerebbe emergere circa l’obbligo di pubblicare i codici sorgente delle singole applicazioni di IA. La differenza è notevole perché mentre le model cards descrivono il funzionamento e le prestazioni di ciascuno strumento, i codici sorgente contengono le istruzioni per costruire l’architettura del modello, addestrarlo sui dati, testarlo e implementare metodi per il suo utilizzo attraverso algoritmi, classi e funzioni.
Il disegno di legge del PD
A dimostrazione della vitalità del dibattito politico sulla regolamentazione dell’intelligenza artificiale e della sua capacità di interessare i poteri all’interno degli stessi confini nazionali è necessario puntare l’attenzione sul disegno di legge dell’opposizione (PD) “Misure sulla trasparenza dei contenuti generati da intelligenza artificiale”.
Il disegno di legge si concentra sull’importanza di una chiara identificazione dei contenuti IA, stabilendo che ogni forma di media – testi, video, immagini e voci – prodotta totalmente o parzialmente attraverso l’IA sia adeguatamente etichettata. Questa etichettatura è ritenuta fondamentale per informare gli utenti sulla natura e l’origine dei contenuti al fine di distinguere quelli generati umanamente da quelli creati artificialmente.
Il testo non si limita a imporre l’uso di etichette e watermark come semplici strumenti di identificazione; essa incarica anche gli editori e i distributori di assicurare che questa etichettatura sia visibile e comprensibile, evidenziando l’origine IA dei contenuti. Questo non solo promuoverebbe la consapevolezza degli utenti ma impone anche una responsabilità diretta ai soggetti coinvolti nella pubblicazione e diffusione di tali contenuti.
Dal punto di vista dei controlli, il disegno di legge individua nell’Agcom il regolatore competente a definire gli strumenti di segnalazione e rimozione dei contenuti illeciti nonché il regime sanzionatorio da applicare proporzionalmente alla gravità dell’evento.
Emerge in modo chiaro ed evidente che l’interazione tra il disegno di legge (DDL) italiano e l’accordo trilaterale Franco-Tedesco-Italiano in termini di governance dell’intelligenza artificiale (IA) mette in luce una dialettica istituzionale significativa. Da un lato, il DDL, un’iniziativa del potere legislativo, sembra allinearsi con l’approccio ex ante dell’AI Act europeo, promuovendo una regolamentazione anticipata che richiede l’identificazione chiara e la trasparenza dei contenuti generati da IA. Questo meccanismo normativo è indirizzato a prevenire potenziali abusi o danni derivanti dall’utilizzo dell’IA prima che questi si verifichino, inserendosi nel solco di una visione più tradizionale di tutela dei consumatori e di sicurezza dei dati. Dall’altro lato, l’accordo trilaterale, sostenuto dall’Esecutivo, predilige la descritta impostazione ex post, concede spazio all’industria per regolare se stessa, confidando nella sua capacità di autodisciplina.
Conclusioni
Il dibattito tra un intervento normativo anticipato e una regolamentazione che risponde dinamicamente all’evoluzione della tecnologia è un leitmotiv nella storia della regolamentazione delle libertà economiche. La decisione di optare per un modello più flessibile, come quello proposto dall’accordo trilaterale, riflette una preferenza per un mercato dell’IA più liberale e meno vincolato da prescrizioni a priori, che potrebbe favorire l’innovazione. Tuttavia, ciò pone in rilievo la tensione intrinseca tra la necessità di un intervento pubblico per la tutela dei diritti fondamentali e il desiderio di non ostacolare le libertà economiche.
La questione atavica del rapporto tra decisione pubblica e libertà economiche si manifesta così su un nuovo fronte che avrà effetti anche sulla disciplina europea del mercato unico digitale (al momento non ancora estesa all’IA). A prescindere dalle necessità politiche che motivano questa scelta, si pone sotto nuove vesti l’antica e perdurante questione: come bilanciare efficacemente l’esigenza di una regolamentazione che tuteli il bene comune senza soffocare l’innovazione e la crescita economica? Su quale piatto della bilancia porre davvero il peso?
[1] COM(2021) 206 final
[2] La notizia è stata lanciata dal sito Reuters.com https://www.reuters.com/technology/germany-france-italy-reach-agreement-future-ai-regulation-2023-11-18/ , tuttavia l’intesa tra i tre Governi era stata preannunciata all’esito del incontro tenutosi a Berlino il 30 ottobre 2023. Per il comunicato stampa congiunto v. https://www.mimit.gov.it/en/media-tools/news/italy-germany-and-france-agree-on-strengthening-their-cooperation-on-artificial-intelligence
[3] Assegnato alla 8ª Commissione permanente (Ambiente, transizione ecologica, energia, lavori pubblici, comunicazioni, innovazione tecnologica) in sede redigente il 20 novembre 2023. Annuncio nella seduta n. 127 del 21 novembre 2023.