La guerra in Ucraina sta offrendo alla controversa società Clearview AI una possibilità di riscatto, o il suo utilizzo in Ucraina, per “combattere la disinformazione” e identificare i morti sul campo, è ancora più irresponsabile, dato il contesto?
La guerra mostra il volto politico delle big tech-big media: nulla sarà come prima
Clearview AI al fronte ucraino, la svolta
Mentre in Unione Europea, così come nel Regno Unito e in Australia, si stringe sempre di più il cerchio sull’utilizzo di Clearview AI (si pensi all’ultima, pesante, sanzione del nostro Garante Privacy di qualche settimana fa[1]), la società statunitense con sede a Manhattan (New York), controverso leader mondiale nel settore del riconoscimento facciale, ha recentemente trovato nella guerra in Ucraina una “valvola di sfogo” che le potrebbe permettere di uscire dalla situazione di impasse in cui versa (fuori dagli USA).
Secondo l’agenzia di stampa britannica Reuters, il ministero della difesa ucraino ha – da un paio di settimane – iniziato ad utilizzare la tecnologia di riconoscimento facciale di Clearview AI dopo che l’azienda statunitense si era offerta di aiutare Kiev nella lotta contro l’esercito russo. Tre finalità dichiarate
- “combattere la disinformazione”,
- identificare i morti sul campo e
- potenziali spie o infiltrati russi ai posti di blocco.
L’Ucraina, in parole povere, sta ricevendo gratuitamente (al momento) l’accesso al – e la formazione necessaria per l’utilizzo del – potente motore di ricerca di Clearview AI, il quale permetterebbe alle autorità di Kiev, tra le altre cose, di controllare con una certa efficacia le persone “di interesse” ai posti di blocco. E la società statunitense, proprio nell’ottica di aiutare Kiev, non avrebbe offerto una tale tecnologia a Mosca.
Il co-fondatore e amministratore delegato di Clearview AI, l’australiano Hoan Ton-That, ha dichiarato a Reuters che la sua azienda, prima della guerra, aveva a disposizione più di due miliardi di immagini, prese dal popolare social media russo “VKontakte”, su un database di oltre dieci miliardi di foto in totale. Un ricco database che l’azienda statunitense ha messo, quindi, a disposizione del governo ucraino per identificare i morti sul campo (soprattutto da parte russa) in maniera celere ed efficace. Il CEO dell’azienda di Manhattan ha affermato che sua tecnologia potrebbe essere utilizzata con successo per il ricongiungimento dei rifugiati con le loro famiglie, identificare gli agenti russi impiegati sul campo ed aiutare il governo ucraino a sfatare le fake news relative alla guerra presenti su tutti i più popolari social media del globo.
I rischi dell’uso di Clearview in un contesto di guerra
Tuttavia, lo scopo esatto per cui il governo ucraino starebbe impiegando tale tecnologia non è del tutto chiaro (anche perché la vera “efficacia sul campo” di Clearview è dibattuta). È possibile, infatti, che il riconoscimento facciale dell’azienda newyorkese possa identificare erroneamente le persone ai posti di blocco o in battaglia. Una mancata corrispondenza potrebbe portare all’uccisione di civili innocenti, così come ad arresti ingiustificati da parte delle forze armate di Kiev (oppure potrebbe lasciare andare spie nemiche!). Hoan Ton-That, però, ha dichiarato che la sua co-creazione non dovrebbe mai essere utilizzata come “unica fonte di identificazione”, né andrebbe mai utilizzata in violazione delle Convenzioni di Ginevra (ad esempio, sul trattamento dei prigionieri di guerra), le quali hanno creato standard universali per il trattamento umanitario durante i conflitti.
Clearview AI, che vende i suoi servizi principalmente alle forze dell’ordine statunitensi, sta combattendo diverse battaglie legali (negli Stati Uniti e non solo) poiché accusata da più parti di violazione sistematica dei dati personali degli utenti (nella sua “raccolta a strascico” di immagini dal web). Basti pensare che due importanti paesi “extra-UE” come Regno Unito e Australia hanno ritenuto le sue pratiche illegali. Detto ciò, è probabile che l’identificazione dei caduti in guerra da parte del software in esame possa essere il modo “meno pericoloso” di impiegare tale tecnologia anche se, una volta che si introducono questi sistemi e le relative banche dati in una zona di guerra, non si ha alcun modo di controllare come saranno “usati e abusati”.[2]
La strategia di Kiev
Sul punto, il governo ucraino ha recentemente affermato che il suo esercito utilizza tale tecnologia per identificare i soldati morti sul campo e per l’invio di “messaggi” alle famiglie dei combattenti caduti. Come citato in precedenza, il sistema di riconoscimento facciale di Clearview AI funziona confrontando le immagini di un soggetto con un database di miliardi di foto raccolte sul web (compresi i social network). La strategia ucraina sarebbe quella di portare a conoscenza della morte del soldato a chiunque fosse stato connesso con lui sul web (come, ad esempio, gli amici del suo social media).
Un modo che mira da un lato a destabilizzare l’intelligence russa e il Cremlino, dall’altro a portare a conoscenza delle famiglie il decesso del proprio caro (superando, ad esempio, la censura di guerra). Tra l’altro, le zone belliche possono essere pericolose quando non c’è modo di distinguere i combattenti nemici dai civili, per cui la tecnologia di riconoscimento facciale potrebbe aiutare a ridurre questo velo di incertezza e aumentare la sicurezza nel puntuale riconoscimento delle persone di interesse.
I problemi privacy
E dove c’è Clearview, ovviamente, non possono non esserci delle critiche “lato privacy”. Anche se le specifiche tecniche per l’identificazione dei caduti sul campo ucraino rimangono ancora “avvolte dal mistero”, la procedura messa in campo da Clearview e dal governo di Kiev ha già attirato l’attenzione di alcuni organismi internazionali a tutela della privacy e della protezione dei dati personali. Per Albert Fox Cahn, fondatore e CEO di “Surveillance Technology Oversight Project” (S.T.O.P.), la possibilità che i già citati errori di identificazione possano essere molteplici è concreta. Secondo Cahn, quando il riconoscimento facciale “inevitabilmente” identificherà in modo errato i morti sul campo, la notizia che colpirà i “vivi” sarà dirompente (basti pensare all’impatto sulle famiglie). Associazioni come la londinese “Privacy International”, invece, hanno accusato Clearview di sfruttare la guerra a proprio vantaggio. Per l’associazione britannica, infatti, qualunque sia l’intenzione sottesa all’utilizzo di Clearview in campo bellico, le persone presenti ora in Ucraina sono attualmente al massimo della loro vulnerabilità: offrire l’impiego di tecnologie controverse che sfruttano i dati personali è irresponsabile in una situazione così delicata. E poiché la massiva raccolta di dati effettuata da Clearview nel corso del tempo è stata oggetto di particolari restrizioni in molti paesi per violazioni connesse al trattamento dei dati, l’attività che l’azienda di Manhattan porta avanti sembra cerchi di “coprire un taglio con un cerotto infetto”.[3]
Note
- Riconoscimento facciale: il Garante privacy sanziona Clearview per 20 milioni di euro. Vietato l’uso dei dati biometrici e il monitoraggio degli italiani. https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9751323 ↑
- Exclusive: Ukraine has started using Clearview AI’s facial recognition during war. Reuters. https://www.reuters.com/technology/exclusive-ukraine-has-started-using-clearview-ais-facial-recognition-during-war-2022-03-13/ ↑
- Clearview AI’s Dystopian Face Rec Tech Now Being Used to Identify Dead Russian Troops. Gizmodo. https://gizmodo.com/clearview-ai-s-dystopian-face-rec-tech-now-being-used-t-1848697923 ↑