Il dibattito intorno alla necessità di una regolamentazione che disciplini puntualmente limiti e responsabilità nell’utilizzo di sistemi di intelligenza artificiale (AI) si è recentemente acceso grazie alle performance dell’intelligenza artificiale generativa, e alla diffusa attenzione che questa nuova tecnologia sta richiamando.
L’esigenza di una regolazione di settore è evidenziata dagli stessi imprenditori e sviluppatori dei nuovi sistemi di AI, i quali in più occasioni hanno chiesto pubblicamente l’introduzione di regole ad hoc: OpenAI si è spinta anche oltre e ha appena lanciato un fondo allo scopo di raccogliere idee e proposte sulla regolamentazione dell’intelligenza artificiale.
Ma possiamo accettare una deriva in cui sono i soggetti privati, dotati di enormi risorse economiche, a scrivere le regole che andrebbero a incidere su tecnologie da essi stessi realizzate e capaci di trasformare la società come la conosciamo?
Cos’è l’intelligenza artificiale generativa
Ma cosa si intende per AI generativa? Stiamo parlando di software in grado di creare testi, immagini, suoni o video a seguito di un addestramento effettuato grazie a degli enormi database. In particolare, i large language model sono progettati per comprendere e generare testo in modo naturale, consentendo di analizzare, interpretare e rispondere a domande, completare frasi, tradurre testi, generare codice, scrivere articoli e molto altro ancora. Possono essere utilizzati per una varietà di compiti (come assistenza virtuale, automazione dei processi aziendali, ricerca, scrittura, e altro ancora) e possono essere addestrati ulteriormente su specifici dati o task, con possibilità di incrementare le loro prestazioni in base all’esperienza e all’esposizione a nuove informazioni.
Inoltre, possono essere accessibili da qualsiasi dispositivo connesso a Internet, consentendo a tutti di poter attingere informazioni da qualsiasi luogo e in qualsiasi momento. Sotto tale aspetto, sembrerebbe ampiamente soddisfatto il canone della libertà di espressione.
I rischi dell’IA generativa
L’utilizzo di questi sistemi non è esente da rischi, in termini di informazioni errate, perché basate su dati di addestramento la cui veridicità non è stata accertata, di bias e discriminazioni, perché se i dati di addestramento contengono pregiudizi questi vengono replicati negli output del sistema, di manipolazione, posto che i risultati potrebbero esser presentati a terzi come autentici, pur non essendolo. E altro ancora.
La consapevolezza di tali rischi ha spinto il Future of Life Institute, un’organizzazione non-profit con l’obiettivo di ridurre i rischi derivanti dalle tecnologie trasformative e di realizzarne i potenziali benefici, a pubblicare un appello per chiedere «a tutti i laboratori di AI di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di AI più potenti di Gpt-4»[1]. Il motivo della pausa è di guadagnar tempo per sviluppare protocolli di sicurezza condivisi, al fine di render questi sistemi di Ai «sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali».
Dunque, sospendere lo sviluppo di applicazioni basate sull’intelligenza artificiale fino a quando i rischi non siano meglio valutati. L’appello, firmato da oltre 3.000 tra esperti e imprenditori, ha suscitato una vasta eco mediatica per via dell’adesione da parte di Elon Musk e altri importanti nomi del mondo tech.
Regole ad hoc per l’IA: gli appelli delle aziende tech
Per altro verso, l’esigenza di addivenire a una regolazione di settore è fatta palese dagli stessi imprenditori e sviluppatori dei nuovi sistemi di AI, i quali in più occasioni hanno chiesto pubblicamente l’introduzione di regole ad hoc. Di recente Sam Altman, amministratore delegato di OpenAI (società che ha costruito la più diffusa applicazione di intelligenza artificiale generativa: Chat-Gpt), durante un’audizione al Senato degli Stati Uniti relativa a «Oversight of A.I.: Rules for Artificial Intelligence», ha risposto ai dubbi sull’ascesa dell’AI parlando dei rischi da essa derivanti e della necessità di un quadro normativo che possa andare a mitigarne gli effetti dannosi[2].
L’Unione Europea, dal canto suo, ha presentato già nell’aprile 2021 una proposta di regolamento sull’intelligenza artificiale (AI Act), sulla scia del Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, che mira a sviluppare un ecosistema di norme in grado di generare fiducia nei confronti dei sistemi di AI[3]. La proposta si basa sui valori e sui diritti fondamentali dell’UE e si prefigge di dare alle persone la fiducia per adottare le soluzioni basate sull’AI, incoraggiando al contempo le imprese a svilupparle. La proposta di AI Act è stata approvata dalla Commissioni competenti e per metà giugno è atteso il voto in sessione plenaria.
Nel frattempo, alcuni leader tecnologici cominciano a occupare quello spazio non coperto dai modelli di partecipazione e rappresentanza tradizionali, quello spazio generatosi proprio grazie alle potenzialità delle moderne tecnologie digitali e in cui potrebbero plasmarsi nuove forme di democrazia.[4]
L’iniziativa di OpenAi
Si pensi all’iniziativa recente di OpenAI, che ha appena lanciato un fondo allo scopo di raccogliere idee e proposte sulla regolamentazione dell’intelligenza artificiale, sovvenzionando aziende e ricercatori nello sviluppo di «un processo democratico per decidere quali regole dovrebbero seguire i sistemi di intelligenza artificiale, entro i limiti definiti dalla legge»[5].Non si conosce il valore di tali regole, né se esse saranno rese vincolanti, né come si porranno concretamente in rapporto alla legge, né quale potere o autorità sarà chiamata ad assicurarne il rispetto.
A tentare di chiarire i particolari del progetto ci ha pensato direttamente OpenAI, che ha sottolineato come l’obiettivo sia quello di creare e progettare soluzioni che siano complementari «piuttosto che sostituti della regolamentazione dell’IA da parte dei governi», partendo dall’assunto che creare «processi veramente democratici» è un limite elevato da soddisfare. Ma, al di là delle difficoltà interpretative che pur residuano, una questione è certa: questo ‘processo democratico’ si regge su regole scritte da soggetti privati, dotati di enormi risorse e delle tecnologie capaci di trasformare la società come la conosciamo.
Big Tech, ricchissime aziende private che vogliono competere con gli Stati
Quello che sta accadendo non è che la conferma di quanto da tempo si va affermando nel mondo scientifico, vale a dire che il ruolo assunto dalle big tech è, di fatto, quello di soggetti privati dotati di poteri analoghi a quelli statuali. In effetti, lo stesso istituto della legge, tradizionale espressione del potere statuale, è stato messo in crisi dall’emergere di norme autoprodotte da soggetti privati (si pensi all’Oversight Board di Facebook sulla moderazione dei contenuti) che riescono a ritagliarsi spazi di autorità, andando a competere col potere pubblico.
Qui, però, non si tratta di assicurare il rispetto della libertà di espressione online delle persone, attraverso strutture private che possano decidere cosa rimuovere, cosa lasciare e perché. E non si tratta nemmeno di quell’approccio co-regolatorio che ben è stato interpretato dal Regolamento europeo sulla protezione dei dati personali (Reg Ue 2016/679 – Gdpr), in cui l’asse portante dello sviluppo del mercato unico digitale passa attraverso la libera circolazione dei dati e fonda la responsabilizzazione (accountability) di tutti i Titolari attraverso l’onere di definire e implementare policy specifiche.
Tecnologie: la regolazione arranca
Si tratta, è vero, dell’ennesimo sintomo di una regolazione che fa fatica a stare al passo con l’innovazione tecnologica, che arranca dietro ai suoi rapidi sviluppi, e che non riesce a sviluppare modelli normativi dinamici che possano metter le regole al riparo da un’obsolescenza scaturente da un incalzante processo tecnologico.
L’iniziativa non è criticabile in sé ma costringe a una riflessione di sistema sul significato da assegnare a queste nuove forme di partecipazione e decisioni collettive (generative voting)[6], al fine di ricondurre le nuove tecnologie e il loro utilizzo entro la prospettiva, costituzionalmente orientata, di assicurare la centralità della persona e la garanzia dei diritti e libertà fondamentali.
Promotori, mezzi e scopi sono chiari, stiamo assistendo alla creazione di un percorso nuovo, avviato da chi detiene una potente tecnologia in grado di trasformare la società, un percorso che si vuol qualificare come ‘democratico’ probabilmente allo scopo di legittimare regole cui quella stessa tecnologia dovrà obbedire.
Conclusioni
Un percorso che il costituzionalismo europeo non può ignorare, se non si vuole delegare, ancora una volta, a organismi privi di legittimazione democratica il potere di realizzare quel bilanciamento tra i diritti fondamentali che può avvenire soltanto nella dimensione costituzionale della proporzionalità e, in generale, nel rispetto dello Stato di diritto.
Note
[1] Future of Life Istitute (https://futureoflife.org/open-letter/pause-giant-ai-experiments/).
[2] Reuters (https://www.reuters.com/technology/openai-chief-goes-before-us-congress-propose-licenses-building-ai-2023-05-16/).
[3] https://www.europarl.europa.eu/news/it/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence
[4] DemocracyNext (https://demnext.org/); Polis (https://compdemocracy.org/Polis/).
[5] Democratic Inputs to AI (https://openai.com/blog/democratic-inputs-to-ai#fn-A).
[6] ‘Generative CI’ through Collective Response Systems (https://arxiv.org/abs/2302.00672).