La Convenzione quadro (pdf) del Consiglio d’Europa sull’intelligenza artificiale (Cets 225), è diventato a settembre il primo trattato internazionale legalmente vincolante in questo ambito.
Tra i primi firmatari ci sono già infatti: Andorra, Georgia, Islanda, Norvegia, Repubblica di Moldova, San Marino, Regno Unito, Israele, Stati Uniti d’America e Unione Europea.
L’atto normativo affronta una questione cruciale: l’equilibrio tra lo sviluppo tecnologico e la tutela dei diritti umani, della democrazia e dello Stato di diritto.
AI e diritti umani: i paletti della Convenzione del Consiglio d’Europa
La convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale
Questa Convenzione, la cui adozione segna un passaggio decisivo nel diritto internazionale, impone agli Stati firmatari l’obbligo di regolare l’intero ciclo di vita dei sistemi di intelligenza artificiale, con particolare attenzione alla trasparenza, all’accountability e alla protezione della privacy.
La notizia principale risiede nella portata globale e innovativa di questo strumento giuridico: per la prima volta, un trattato vincola gli Stati a prevenire e mitigare i rischi associati all’uso dell’intelligenza artificiale, in un contesto internazionale aperto anche a Paesi non europei (posto che in Europa abbiamo AI ACT).
Tale obbligo giuridico si concretizza in una serie di principi fondamentali che devono essere rispettati, tra cui la dignità umana, l’uguaglianza e la protezione dei dati personali.
La Convenzione, attraverso il suo approccio basato sul rischio, impone una gestione preventiva dei potenziali impatti negativi, sollecitando gli Stati a vietare l’uso di tecnologie incompatibili con i diritti fondamentali.
I punti principali
L’innovatività della Convenzione risiede nella sua capacità di fissare standard minimi obbligatori, vincolando gli Stati membri a prevenire l’uso distorto dell’IA, specie laddove essa possa minacciare la dignità umana o discriminare determinate categorie di persone.
Il testo fa esplicito riferimento alla necessità di evitare che i sistemi di IA compromettano l’autonomia individuale, introducendo obblighi di trasparenza, sorveglianza e responsabilità che investono non solo gli enti pubblici ma anche i soggetti privati coinvolti.
La Convenzione quadro del Consiglio d’Europa (CETS 225) nasce con lo scopo dichiarato di stabilire un equilibrio giuridico che regoli le attività legate all’intelligenza artificiale, preservando i diritti umani e il corretto funzionamento delle istituzioni democratiche.
La Convenzione quadro del Consiglio d’Europa sull’Intelligenza Artificiale si distingue per la sua portata innovativa, proponendo un approccio che trascende la mera regolamentazione tecnologica, ponendo al centro la tutela dei diritti fondamentali.
- Nel Preambolo, viene sottolineato come lo scopo principale della Convenzione sia garantire che le attività legate al ciclo di vita dei sistemi di intelligenza artificiale (IA) siano pienamente compatibili con i principi della democrazia, dei diritti umani e dello Stato di diritto. Tale impostazione è confermata dagli articoli 1 e 2, che definiscono chiaramente gli obiettivi e i termini della regolamentazione, estendendo le responsabilità degli Stati a tutto il ciclo di vita dei sistemi IA, dalla progettazione alla dismissione.
- L’articolo 1 evidenzia l’obbligo degli Stati di adottare misure legislative, amministrative o di altra natura, atte a garantire che l’uso dell’IA non comprometta i diritti umani, la democrazia e lo Stato di diritto.Tale approccio impone una valutazione costante dei rischi e una gestione che tenga conto della gravità e della probabilità di impatti negativi. In tal senso, il trattato adotta un metodo proattivo, richiedendo agli Stati di prevenire i possibili abusi tecnologici, piuttosto che intervenire solo ex post.
- Di particolare rilievo è l’articolo 8, che sancisce il principio di trasparenza e sorveglianza. Esso richiede che le decisioni automatizzate basate su sistemi di IA siano trasparenti e soggette a un controllo efficace. Gli Stati devono garantire che i cittadini abbiano accesso alle informazioni su come tali decisioni vengono prese, in modo che possano contestarle se necessario.
- Questo obbligo si collega a quanto previsto dall’articolo 14, che rafforza il diritto dei cittadini di accedere a rimedi giuridici efficaci in caso di violazioni dei loro diritti legati all’uso dell’IA. In questo contesto, la Convenzione richiede agli Stati firmatari di garantire che i sistemi di intelligenza artificiale operino secondo standard di trasparenza tali da permettere agli utenti di comprendere il processo decisionale algoritmico. Questo obbligo va ben oltre il concetto di mera accessibilità delle informazioni: implica una vera e propria “leggibilità” del processo decisionale automatizzato, affinché i cittadini possano contestare decisioni che influenzano i loro diritti o le loro libertà.
- L’articolo 10 affronta, invece, il principio di non discriminazione e tutela dell’uguaglianza, un aspetto cruciale in un contesto tecnologico dove gli algoritmi possono aggravare o creare nuove forme di disuguaglianza, soprattutto nei confronti di gruppi vulnerabili. L’utilizzo di sistemi di IA, in particolare nel settore privato, potrebbe infatti consolidare o amplificare forme di discriminazione esistenti, specialmente nei confronti di gruppi vulnerabili. Gli Stati sono pertanto chiamati ad adottare misure che contrastino queste derive, garantendo che l’IA non venga impiegata in modo da creare disuguaglianze o ledere i diritti delle minoranze.
- Questo obbligo di trasparenza si collega direttamente al principio di accountability, enunciato all’articolo 9, secondo il quale gli Stati devono adottare misure per garantire la responsabilità dei soggetti pubblici e privati nell’utilizzo dei sistemi di IA. Tale concetto, spesso richiamato nel diritto amministrativo e nel diritto costituzionale comparato, acquisisce una nuova dimensione con l’avvento delle tecnologie intelligenti: non si tratta solo di verificare se vi sia stato abuso di potere, ma di comprendere come il sistema abbia generato determinate decisioni, specialmente in situazioni in cui gli algoritmi possano influenzare diritti fondamentali, come il diritto alla giustizia e il diritto alla privacy.
- La Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale (CETS 225), nell’articolo 5, impone agli Stati anche di adottare misure volte a proteggere l’integrità dei processi democratici e a garantire il rispetto dello Stato di diritto. Questo obbligo riflette la consapevolezza, ormai diffusa, del potenziale dell’IA di interferire con i meccanismi democratici, minando l’indipendenza delle istituzioni e la partecipazione dei cittadini alla vita pubblica. In tale ottica, la Convenzione non solo riafferma i principi della democrazia rappresentativa, ma riconosce la centralità della separazione dei poteri, un principio cardine del diritto costituzionale, che l’uso scorretto delle tecnologie intelligenti potrebbe minare.
- La tutela dell’indipendenza giudiziaria e l’accesso alla giustizia, menzionati espressamente dall’articolo 5.1, rappresentano altrettante pietre angolari della struttura normativa della Convenzione. In particolare, è necessario impedire che l’impiego dell’IA comprometta il diritto a un processo equo o introduca bias algoritmici che possano distorcere l’imparzialità decisionale. In tal senso, il testo del trattato impone un duplice obbligo: da un lato, garantire che i sistemi di IA non influiscano negativamente sull’autonomia del potere giudiziario; dall’altro, fornire mezzi adeguati per contrastare eventuali violazioni dei diritti legati all’uso di tali sistemi.
- La relazione tra IA e partecipazione democratica emerge altresì nell’articolo 5.2, che impone agli Stati di tutelare il diritto dei cittadini a partecipare liberamente al dibattito pubblico e a formarsi opinioni in modo autonomo, senza che l’IA influisca in modo occulto o manipolativo sulle scelte individuali. Questo punto risulta particolarmente rilevante in un’epoca in cui i social media e altre piattaforme digitali, alimentate da algoritmi complessi, determinano in misura sempre crescente l’accesso alle informazioni e influenzano le opinioni pubbliche.
- La Convenzione, dunque, impone misure concrete affinché l’utilizzo di tali tecnologie non comprometta il pluralismo democratico e la libertà di espressione, principi essenziali in qualsiasi ordinamento costituzionale che si proclami democratico. Tali principi sono ripresi anche dall’articolo 19 specificamente dedicato alla partecipazione democratica e alla consultazione pubblica riguardo all’utilizzo dei sistemi di IA. Questo si collega direttamente al concetto di democrazia partecipativa, sancito da molte costituzioni nazionali. Le costituzioni, infatti, prevedono garanzie per il coinvolgimento dei cittadini nei processi decisionali che li riguardano, attraverso meccanismi di consultazione e trasparenza. La Convenzione rafforza questi principi, imponendo agli Stati l’obbligo di creare canali aperti e accessibili per la discussione pubblica sull’IA, garantendo che le decisioni non vengano prese in modo elitario o opaco.
Sfida attuazione della Convenzione Cets 225
L’implementazione della Convenzione CETS 225 richiede un’attenta riflessione sugli aspetti di governance e supervisione che ne derivano, in particolare per quanto concerne l’istituzione di meccanismi efficaci per garantire il rispetto degli obblighi assunti dagli Stati membri.
L’articolo 26 della Convenzione impone agli Stati l’obbligo di istituire o designare uno o più organi indipendenti con il compito di vigilare sull’adempimento delle disposizioni convenzionali. Questi meccanismi devono operare in maniera imparziale e disporre delle competenze, delle risorse e dell’autorità necessarie per svolgere efficacemente il loro mandato.
La creazione di tali autorità di controllo solleva questioni di rilievo costituzionale, in quanto si tratta di organismi che devono essere dotati di indipendenza funzionale rispetto agli altri poteri dello Stato. Ciò comporta una ridefinizione dei tradizionali equilibri istituzionali, richiedendo una configurazione normativa che assicuri l’autonomia di questi enti senza pregiudicare il principio di separazione dei poteri. Inoltre, la necessità di evitare sovrapposizioni di competenze con organi già esistenti impone una chiara delimitazione delle attribuzioni e delle responsabilità, al fine di garantire un sistema di vigilanza coerente ed efficace.
L’articolo 23 prevede l’istituzione di una Conferenza delle Parti, incaricata di monitorare l’applicazione della Convenzione, facilitare la cooperazione internazionale e promuovere lo scambio di informazioni tra gli Stati membri. Questo organismo sovranazionale potrebbe interagire con le prerogative nazionali, richiedendo agli Stati di adeguare le proprie strutture istituzionali per consentire una partecipazione efficace. Si pone, quindi, la questione di conciliare le esigenze di coordinamento internazionale con il rispetto delle autonomie costituzionali interne, evitando che le attività della Conferenza possano interferire con le competenze riservate agli organi nazionali.
La Convenzione enfatizza anche l’importanza della trasparenza e della partecipazione democratica (art. 19), imponendo agli Stati di promuovere consultazioni pubbliche e dibattiti informati sulle questioni legate all’intelligenza artificiale. Ciò implica l’adozione di misure volte a garantire il coinvolgimento della società civile, delle organizzazioni non governative e degli altri stakeholder nei processi decisionali, in linea con i principi costituzionali che tutelano la democrazia partecipativa. Gli Stati dovranno, pertanto, predisporre strumenti e procedure che favoriscano un dialogo aperto e inclusivo, assicurando che le politiche adottate riflettano le esigenze e le preoccupazioni della collettività.
L’impatto della Convenzione Cets 225: la cooperazione internazionale
L’impatto della Convenzione CETS 225 del Consiglio d’Europa sugli ordinamenti giuridici nazionali non può essere limitato a un mero adeguamento normativo. Essa introduce, infatti, un modello di cooperazione internazionale che richiede un radicale ripensamento dei rapporti tra Stati, organismi sovranazionali e attori privati nel contesto dell’intelligenza artificiale.
Il suo Capitolo VII, in particolare, stabilisce una serie di obblighi per gli Stati membri volti a promuovere la cooperazione interstatale, sia a livello istituzionale che tecnologico, al fine di garantire che lo sviluppo e l’uso dell’IA siano coerenti con i diritti umani, la democrazia e lo Stato di diritto.
L’articolo 25, dedicato alla cooperazione internazionale, invita esplicitamente gli Stati a condividere informazioni su aspetti legati all’IA che possono avere effetti significativi sui diritti umani, sul funzionamento della democrazia e sull’osservanza dello Stato di diritto. Questo passaggio non è solo una riaffermazione del principio di trasparenza, ma delinea anche un quadro di solidarietà internazionale che supera il concetto di sovranità rigida per abbracciare una visione globale delle problematiche connesse alla tecnologia. Gli Stati sono, dunque, chiamati a condividere non solo best practices e standard tecnici, ma anche informazioni su rischi e impatti negativi, in particolare in relazione alla ricerca scientifica e al settore privato.
Il cuore della cooperazione internazionale prevista dalla Convenzione risiede nella Conferenza delle Parti, istituita dall’articolo 23. Questo organismo ha il compito di monitorare l’applicazione della Convenzione e di promuovere un dialogo costante tra gli Stati membri e altri attori rilevanti. Tuttavia, l’obbligo di cooperazione non si limita alle sole parti contraenti: la Convenzione incoraggia gli Stati membri a sostenere anche i Paesi non firmatari, aiutandoli ad adeguarsi agli standard internazionali in materia di IA.
Un altro aspetto rilevante della cooperazione è legato al controllo e alla supervisione: gli Stati devono istituire meccanismi di supervisione indipendenti per monitorare l’uso dell’IA, garantendo che gli impatti negativi siano mitigati e che i diritti fondamentali siano rispettati. Questi meccanismi, secondo l’articolo 26, devono essere progettati in modo tale da assicurare l’indipendenza e l’imparzialità, in linea con i più elevati standard democratici. Questa supervisione si estende anche al settore privato, imponendo un controllo efficace sui rischi che l’IA potrebbe comportare in ambito economico, sociale e politico.