Fin dal momento del suo annuncio, è stato subito chiaro che il disegno di legge sull’intelligenza artificiale sarebbe stato sotto i riflettori. Il DDL, presentato il 20 maggio scorso, ha lo scopo di adeguare la normativa nazionale all’AI Act europeo, e tratta di temi chiave come l’applicazione dell’intelligenza artificiale in settori sensibili quali sanità, lavoro e giustizia, senza tralasciare la regolamentazione della governance e i diritti d’autore.
Ddl sull’intelligenza artificiale: le audizioni in Senato
Non stupisce quindi che numerosissime organizzazioni abbiano richiesto di poter intervenire nel ciclo di audizioni sul primo quadro normativo nazionale in materia di IA, iniziate nel mese di luglio in Senato.
Ad oggi sono stati auditi i principali stakeholder del settore, fra cui l’Agenzia per la Cybersicurezza Nazionale (ACN), l’Agenzia per l’Italia Digitale (AgID), la Federazione Italiana Editori Giornali (FIEG), la Federazione Nazionale della Stampa Italiana (FNSI), il Garante per la Protezione dei Dati Personali e i rappresentanti del Consiglio Nazionale dell’Ordine dei Giornalisti.
L’11 settembre, oltre ad Aisdet (Associazione Italiana Sanità Digitale e Telemedicina), SIAE e AssoSoftware, ha partecipato alle audizioni anche la Rete per i Diritti Umani Digitali, la coalizione che The Good Lobby ha costituito assieme a Privacy Network, Hermes Center, Amnesty International Italia, StraLi e Period Think Tank. Si tratta di un soggetto nuovo che riunisce organizzazioni della società civile italiana impegnate da tempo nella difesa dei diritti umani in ambito digitale. Da anni, infatti, le organizzazioni promotrici collaborano per cercare di influenzare in senso garantista normative e regolamenti sull’intelligenza artificiale e migliorare le tutele per i lavoratori delle piattaforme digitali.
Le proposte della Rete per i diritti umani digitali
La Rete per i Diritti Umani Digitali ha presentato una serie di proposte che mettono in discussione alcuni fondamenti del disegno di legge per l’intelligenza artificiale, scongiurando il rischio che le audizioni si trasformassero in un collettore esclusivo di interessi particolari, o di un già visto palleggiamento tra istituzioni e investitori.
Durante l’audizione, abbiamo riportato al centro della discussione l’esigenza di tutelare i diritti fondamentali, dimostrando come la società civile può contribuire in modo significativo all’elaborazione di leggi su temi complessi come l’IA.
In particolare abbiamo affrontato due temi chiave: sorveglianza biometrica e governance, evidenziando la necessità di costituire un’autorità indipendente.
Sistemi di identificazione biometrica e rischio di sorveglianza di massa
I sistemi di identificazione biometrica sono tanto più efficaci quanto più diffusi nelle strade delle nostre città. Il rischio che si concretizzino scenari di sorveglianza di massa è quindi reale.
Questi sistemi sono inoltre fallibili, come dimostrano vari episodi documentati, specialmente negli Stati Uniti, in cui errori di identificazione hanno portato all’arresto ingiustificato di persone innocenti. Non possiamo accettare il rischio che chiunque possa essere arrestato sulla base di identificazioni inesatte.
La governance della sorveglianza biometrica
Durante la nostra audizione abbiamo sottolineato l’errore di affidare al Governo il compito di disciplinare la sorveglianza biometrica. Questo significherebbe infatti regolamentare pratiche estremamente rischiose attraverso procedure né pubbliche, né condivise, né trasparenti. Il Parlamento dovrebbe avocare a sé tale disciplina, definendo le condizioni e le procedure per l’eventuale utilizzo dei sistemi di identificazione biometrica. È fondamentale infatti istituire regole di garanzia, come ad esempio stabilire che sia l’autorità giudiziaria ad autorizzare l’utilizzo di tali tecnologie quali strumenti di indagine e prevedere che un’autorità indipendente o il Garante per la protezione dei dati personali effettuino un monitoraggio – pubblico e trasparente – dei casi e dei reati per cui si richiede l’autorizzazione.
La lista di reati per i quali è possibile l’utilizzo di identificazione biometrica
Nella memoria che abbiamo depositato presso il Senato abbiamo chiesto inoltre di eliminare, a causa dell’evidente mancanza di proporzionalità, i reati di traffico illecito di stupefacenti e sostanze psicotrope e di furto organizzato o rapina a mano armata dall’elenco dell’elenco dei sedici reati gravissimi definiti dall’AI Act per i quali è possibile l’utilizzo di identificazione biometrica in tempo reale quale strumento di indagine. Siamo convinti però che il Parlamento possa spingersi oltre e introdurre un divieto totale all’utilizzo di queste tecnologie.
L’utilizzo effettivo dei sistemi di identificazione biometrica è difficilmente controllabile. Divieti parziali, come quelli imposti dal Regolamento europeo sull’intelligenza artificiale, lasciano un margine troppo ampio alle forze dell’ordine. Si tratta di una misura di compromesso che non garantisce una tutela adeguata dei nostri diritti. Come espresso dal Garante per la protezione dei dati personali, l’installazione di sistemi di riconoscimento facciale in real time negli spazi pubblici, determinerebbe “una evoluzione della natura stessa dell’attività di sorveglianza, che segnerebbe un passaggio dalla sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale”.
Divieto totale dell’utilizzo dei sistemi di riconoscimento biometrico
Inoltre, bisogna considerare le conseguenze impreviste dalla posa di un’infrastruttura tecnologica di tale portata: ciò che oggi ci appare come implausibile e distante dai valori comuni condivisi – sorveglianza di massa, sorveglianza di specifiche minoranze – non è detto che diventi in futuro una pratica invece accettata e, con l’infrastruttura già presente, immediatamente attuabile. Per queste ragioni, abbiamo suggerito al Senato che l’unica soluzione sia evitare il problema alla radice, vietando del tutto l’utilizzo dei sistemi di riconoscimento biometrico.
Governance dell’AI: serve un’autorità nazionale indipendente
Infine, il nostro intervento si è concentrato sulla questione cruciale della governance dell’intelligenza artificiale. Attualmente, il DDL prevede che l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN) svolgano questo ruolo. Riteniamo invece che per garantire una supervisione neutrale e imparziale sui sistemi di IA la governance debba essere affidata ad un’autorità nazionale indipendente, formata da esperti interdisciplinari, in grado di monitorare l’impatto etico e sociale dell’intelligenza artificiale e che vada rafforzato il coinvolgimento del Garante per la Protezione dei Dati Personali in materia.
La necessità di includere la società civile nel processo decisionale
L’intervento della Rete per i Diritti Umani Digitali ha evidenziato la necessità di includere attivamente la società civile nel processo decisionale. La richiesta di una governance trasparente, con l’inclusione di tavoli di lavoro e assemblee pubbliche, è un passo decisivo per assicurare che l’intelligenza artificiale operi al servizio del bene comune, e non diventi uno strumento di controllo o violazione dei diritti. Laura Ferrari, Public Affairs Consultant di The Good Lobby.