le audizioni

DDL intelligenza artificiale: la società civile chiede più trasparenza e tutela dei diritti



Indirizzo copiato

Durante le audizioni in Senato sul disegno di legge per l’Intelligenza Artificiale, la Rete per i Diritti Umani Digitali ha presentato proposte per proteggere i diritti fondamentali. Tra i temi trattati: sorveglianza biometrica, governance indipendente e coinvolgimento della società civile nel processo decisionale

Pubblicato il 25 set 2024

Laura Ferrari

the Good Lobby



Strategia italiana per l’intelligenza artificiale 2024-2026

Fin dal momento del suo annuncio, è stato subito chiaro che il disegno di legge sull’intelligenza artificiale sarebbe stato sotto i riflettori. Il DDL, presentato il 20 maggio scorso, ha lo scopo di adeguare la normativa nazionale all’AI Act europeo, e tratta di temi chiave come l’applicazione dell’intelligenza artificiale in settori sensibili quali sanità, lavoro e giustizia, senza tralasciare la regolamentazione della governance e i diritti d’autore.

Ddl sull’intelligenza artificiale: le audizioni in Senato

Non stupisce quindi che numerosissime organizzazioni abbiano richiesto di poter intervenire nel ciclo di audizioni sul primo quadro normativo nazionale in materia di IA, iniziate nel mese di luglio in Senato.

Ad oggi sono stati auditi i principali stakeholder del settore, fra cui l’Agenzia per la Cybersicurezza Nazionale (ACN), l’Agenzia per l’Italia Digitale (AgID), la Federazione Italiana Editori Giornali (FIEG), la Federazione Nazionale della Stampa Italiana (FNSI), il Garante per la Protezione dei Dati Personali e i rappresentanti del Consiglio Nazionale dell’Ordine dei Giornalisti.

L’11 settembre, oltre ad Aisdet (Associazione Italiana Sanità Digitale e Telemedicina), SIAE e AssoSoftware, ha partecipato alle audizioni anche la Rete per i Diritti Umani Digitali, la coalizione che The Good Lobby ha costituito assieme a Privacy Network, Hermes Center, Amnesty International Italia, StraLi e Period Think Tank. Si tratta di un soggetto nuovo che riunisce organizzazioni della società civile italiana impegnate da tempo nella difesa dei diritti umani in ambito digitale. Da anni, infatti, le organizzazioni promotrici collaborano per cercare di influenzare in senso garantista normative e regolamenti sull’intelligenza artificiale e migliorare le tutele per i lavoratori delle piattaforme digitali.

Le proposte della Rete per i diritti umani digitali

La Rete per i Diritti Umani Digitali ha presentato una serie di proposte che mettono in discussione alcuni fondamenti del disegno di legge per l’intelligenza artificiale, scongiurando il rischio che le audizioni si trasformassero in un collettore esclusivo di interessi particolari, o di un già visto palleggiamento tra istituzioni e investitori.

Durante l’audizione, abbiamo riportato al centro della discussione l’esigenza di tutelare i diritti fondamentali, dimostrando come la società civile può contribuire in modo significativo all’elaborazione di leggi su temi complessi come l’IA.

In particolare abbiamo affrontato due temi chiave: sorveglianza biometrica e governance, evidenziando la necessità di costituire un’autorità indipendente.

Sistemi di identificazione biometrica e rischio di sorveglianza di massa

I sistemi di identificazione biometrica sono tanto più efficaci quanto più diffusi nelle strade delle nostre città. Il rischio che si concretizzino scenari di sorveglianza di massa è quindi reale.

Questi sistemi sono inoltre fallibili, come dimostrano vari episodi documentati, specialmente negli Stati Uniti, in cui errori di identificazione hanno portato all’arresto ingiustificato di persone innocenti. Non possiamo accettare il rischio che chiunque possa essere arrestato sulla base di identificazioni inesatte.

La governance della sorveglianza biometrica

Durante la nostra audizione abbiamo sottolineato l’errore di affidare al Governo il compito di disciplinare la sorveglianza biometrica. Questo significherebbe infatti regolamentare pratiche estremamente rischiose attraverso procedure né pubbliche, né condivise, né trasparenti. Il Parlamento dovrebbe avocare a sé tale disciplina, definendo le condizioni e le procedure per l’eventuale utilizzo dei sistemi di identificazione biometrica. È fondamentale infatti istituire regole di garanzia, come ad esempio stabilire che sia l’autorità giudiziaria ad autorizzare l’utilizzo di tali tecnologie quali strumenti di indagine e prevedere che un’autorità indipendente o il Garante per la protezione dei dati personali effettuino un monitoraggio – pubblico e trasparente – dei casi e dei reati per cui si richiede l’autorizzazione.

La lista di reati per i quali è possibile l’utilizzo di identificazione biometrica

Nella memoria che abbiamo depositato presso il Senato abbiamo chiesto inoltre di eliminare, a causa dell’evidente mancanza di proporzionalità, i reati di traffico illecito di stupefacenti e sostanze psicotrope e di furto organizzato o rapina a mano armata dall’elenco dell’elenco dei sedici reati gravissimi definiti dall’AI Act per i quali è possibile l’utilizzo di identificazione biometrica in tempo reale quale strumento di indagine. Siamo convinti però che il Parlamento possa spingersi oltre e introdurre un divieto totale all’utilizzo di queste tecnologie.

L’utilizzo effettivo dei sistemi di identificazione biometrica è difficilmente controllabile. Divieti parziali, come quelli imposti dal Regolamento europeo sull’intelligenza artificiale, lasciano un margine troppo ampio alle forze dell’ordine. Si tratta di una misura di compromesso che non garantisce una tutela adeguata dei nostri diritti. Come espresso dal Garante per la protezione dei dati personali, l’installazione di sistemi di riconoscimento facciale in real time negli spazi pubblici, determinerebbe “una evoluzione della natura stessa dell’attività di sorveglianza, che segnerebbe un passaggio dalla sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale”.

Divieto totale dell’utilizzo dei sistemi di riconoscimento biometrico

Inoltre, bisogna considerare le conseguenze impreviste dalla posa di un’infrastruttura tecnologica di tale portata: ciò che oggi ci appare come implausibile e distante dai valori comuni condivisi – sorveglianza di massa, sorveglianza di specifiche minoranze – non è detto che diventi in futuro una pratica invece accettata e, con l’infrastruttura già presente, immediatamente attuabile. Per queste ragioni, abbiamo suggerito al Senato che l’unica soluzione sia evitare il problema alla radice, vietando del tutto l’utilizzo dei sistemi di riconoscimento biometrico.

Governance dell’AI: serve un’autorità nazionale indipendente

Infine, il nostro intervento si è concentrato sulla questione cruciale della governance dell’intelligenza artificiale. Attualmente, il DDL prevede che l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN) svolgano questo ruolo. Riteniamo invece che per garantire una supervisione neutrale e imparziale sui sistemi di IA la governance debba essere affidata ad un’autorità nazionale indipendente, formata da esperti interdisciplinari, in grado di monitorare l’impatto etico e sociale dell’intelligenza artificiale e che vada rafforzato il coinvolgimento del Garante per la Protezione dei Dati Personali in materia.

La necessità di includere la società civile nel processo decisionale

L’intervento della Rete per i Diritti Umani Digitali ha evidenziato la necessità di includere attivamente la società civile nel processo decisionale. La richiesta di una governance trasparente, con l’inclusione di tavoli di lavoro e assemblee pubbliche, è un passo decisivo per assicurare che l’intelligenza artificiale operi al servizio del bene comune, e non diventi uno strumento di controllo o violazione dei diritti. Laura Ferrari, Public Affairs Consultant di The Good Lobby.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4