Salutato con favore da alcuni, criticato da altri, l’accordo politico sull’AI Act determina sia la volontà politica di emanare l’atto normativo più avanzato al mondo sull’intelligenza artificiale, sia un arretramento delle garanzie per i cittadini a favore dei poteri di controllo degli Stati.
La partita è ancora aperta, ma ci sono alcuni punti fermi estremamente positivi ed altri che lasciano molti dubbi.
Vediamo dove sono i nodi.
Le luci dell’AI act: i rischi inaccettabili dell’intelligenza artificiale
Il comunicato stampa del 9 dicembre 2023 recita, testualmente, quanto segue: “Per alcuni usi dell’IA, il rischio è ritenuto inaccettabile e, pertanto, questi sistemi saranno banditi dall’UE. L’accordo provvisorio vieta, ad esempio, la manipolazione cognitivo comportamentale, la cancellazione non mirata di immagini facciali da Internet o filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative, il social scoring, la categorizzazione biometrica per dedurre dati sensibili, come l’orientamento sessuale o religioso, convinzioni personali e alcuni casi di polizia predittiva per gli individui”.
Tramite le intelligenze artificiali si possono manipolare i comportamenti delle persone, per esempio inserendo immagini occulte negli spot pubblicitari con ordini ipnotici che incidono direttamente sull’inconscio dello spettatore; idem dicasi per quanto attiene le tracce sonore.
La presa di posizione su questo aspetto dell’intelligenza artificiale imponendo un ban generalizzato va salutata con assoluto favore e sarà un tema che tutte le piattaforme che operano worldwide dovranno affrontare nel mercato dell’UE.
Vietato anche l’utilizzo di “macchine della verità” che “leggono” le emozioni del soggetto osservato nei tre ambiti fondamentali, ossia scuola, posto di lavoro e verosimilmente indagini di polizia giudiziaria.
Da capire se verrà consentito in altri ambiti, perché l’invasività di queste tecnologie meriterebbe un regime di ban assoluto.
Il social scoring verrà vietato a prescindere e questo elemento sarà decisivo nel demarcare la differenza tra il regime degli Stati democratici che compongono la tecnocratica Unione europea e la Cina (su tutti).
La categorizzazione biometrica sarebbe già vietata dal GDPR, ma un richiamo non guasta.
Le ombre: l’uso di sistemi di identificazione biometrica
La questione va letta alla luce del comunicato stampa, che sul punto chiarisce come sia “passata” la linea della Commissione – più retrograda – a scapito di quella del Parlamento, più attenta ai diritti e ai cittadini.
“Considerando le specificità delle autorità di contrasto e la necessità di preservare la loro capacità di utilizzare l’intelligenza artificiale nel loro lavoro fondamentale, sono state concordate diverse modifiche alla proposta della Commissione relative all’uso dei sistemi di intelligenza artificiale a fini di contrasto. Fatte salve adeguate garanzie, tali modifiche intendono riflettere la necessità di rispettare la riservatezza dei dati operativi sensibili in relazione alle loro attività. Ad esempio, è stata introdotta una procedura di emergenza che consente alle forze dell’ordine di utilizzare uno strumento di IA ad alto rischio che non ha superato la procedura di valutazione della conformità in caso di urgenza. Tuttavia, è stato introdotto anche un meccanismo specifico per garantire che i diritti fondamentali siano sufficientemente tutelati da eventuali abusi dei sistemi di IA.
Inoltre, per quanto riguarda l’uso di sistemi di identificazione biometrica a distanza in tempo reale negli spazi accessibili al pubblico, l’accordo provvisorio chiarisce gli obiettivi in cui tale uso è strettamente necessario per scopi di contrasto e per i quali le autorità di contrasto dovrebbero quindi essere eccezionalmente autorizzate a utilizzare tali sistemi . L’accordo di compromesso prevede garanzie aggiuntive e limita tali eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili, come gli attacchi terroristici, e alla ricerca di persone sospettate dei crimini più gravi”.
Va dato atto che se per il contrasto di determinati reati e per le indagini sui medesimi è consentito intercettare telefonate e flussi di comunicazione attraverso lo strumento iperinvasivo del trojan horse, sarebbe irragionevole non impiegare l’AI per le medesime finalità negli stessi contesti.
Idem dicasi per quanto attiene all’impiego dell’AI per la ricerca di persone scomparse e per le vittime di determinati reati, ma con dei distinguo.
Il rischio è che per “persone scomparse” si intenda, in modo eccessivamente estensivo, qualunque soggetto che si sia allontanato per un lasso di tempo, anche breve, dai luoghi in cui ordinariamente dovrebbe trovarsi.
Se, per esempio, un bambino si smarrisce sulla spiaggia, sentiremo sempre la voce al megafono che indica dove accompagnarlo, o si alzeranno in volo droni a cercarlo da subito?
Dall’altra parte, non impiegare la ricerca biometrica per la ricerca di bambini scomparsi di cui i genitori abbiano denunciato un sequestro o una sottrazione parrebbe irragionevole per chiunque.
Il bilanciamento degli interessi, sul tema, è delicatissimo e solo il testo definitivo della normativa europea dirà se sarà stato effettuato in modo corretto o sbilanciato.
Conclusioni
Sorveglianza di massa sì, ma con correttivi e, tra l’altro, non in misura, ma solo in maniera, diversa rispetto a quello che già avviene oggi.
È quasi commovente l’ingenuità di chi teme l’uso di intelligenze artificiali in sede penale ma plaude all’uso delle intercettazioni di comunicazioni tramite malware.
Se l’approccio basato sul rischio fosse stato applicato anche al trojan horse, verosimilmente decine di pagine di intercettazioni non sarebbero state trascritte e pubblicate.
Per citare un caso di cronaca celeberrimo, si pensi al caso Palamara, tutto basato, almeno sul piano giornalistico e mediatico, sulle intercettazioni ambientali effettuate mediante un captatore informatico; intercettazioni, spesso, irrilevanti sul piano penale.
D’altra parte, il rischio che l’AI irrompa nel sistema democratico e impatti, ad esempio, nei contesti di propaganda e informazione politica è sistemico e manifesto, ma anche gestito nel Digital Service Act a monte, in maniera, forse, anche un po’ troppo dirigista, per usare un eufemismo.
In conclusione, l’accordo politico, così come descritto nel comunicato stampa del Consiglio europeo, fa tirare un sospiro di sollievo per certi aspetti, ma lascia aperte numerose finestre di antidemocraticità sistemica, piuttosto serpeggiante nelle cancellerie di Bruxelles.