Il grande drammaturgo e poeta William Shakespeare scriveva che “noi siamo fatti della stessa sostanza dei sogni, e nello spazio e nel tempo d’un sogno è raccolta la nostra breve vita”. Ma siamo veramente certi che i nostri sogni possano ancora essere di nostra paternità?
O forse, similarmente “ai robot” di Isaac Asimov (Petroviči, 1920 – New York, 1992) potrebbero anche esistere robot addestrati ad impossessarsi del nostro immaginario e delle nostre emozioni? O addirittura avere “un cronoscopio” che consenta a chiunque di vedere e ascoltare[1].
Indice degli argomenti
Replicare la nostra identità
Di recente ha fatto molto discutere l’installazione, battezzata Deus in Machina che invita i visitatori a condividere pensieri e domande, offrendo un momento di riflessione “sacro” attraverso l’intelligenza artificiale.
ESG, implementa la tua strategia aziendale: tutto quello che c’è da sapere
Creata da un team dell’Immersive Realities Research Lab presso la Lucerne University of Applied Sciences and Arts, l’IA può rispondere in modo personale a possibili dubbi o domande dei fedeli, grazie all’addestramento avuto con i testi sacri e con il Nuovo Testamento, per far sperimentare alle persone un’interazione con l’IA e aprire un dibattito sull’uso dell’AI e la religione.[2]
“Rinunciare alla spontaneità e all’individualità significa soffocare la vita.” E. Fromm
Certamente anche se l’AI non riuscisse a carpire i sogni e le emozioni umane, il nodo centrale resta quello dei rischi legati all’acquisizione dei nostri dati biometrici, attraverso cui l’IA può facilmente replicare la nostra identità.
La nascita dell’Intelligenza Artificiale e l’evoluzione attuale
Negli ultimi anni l’evoluzione tecnologica ha mostrato un’evidente accelerazione attraverso lo sviluppo di forme di apprendimento automatico sempre più sofisticate, che si sono diversificate fino a divenire fonte autonoma di conoscenza, simulando le reti neurali umane.
L’intelligenza artificiale è andata migliorando progressivamente, fino alle attuali forme di IA generativa, che non si limita ad un apprendimento partendo da un numero rilevante di dati che fungono da addestramento, ma è in grado essa stessa di addestrarsi, ampliando sempre di più le connessioni tra dati, proprio come il cervello umano.
Ma per approfondire e comprendere i rischi legati a tale tipo di tecnologia, è interessante partire dalla definizione stessa di “intelligenza” e come si sia passati, negli ultimi decenni, dall’idea di una intelligenza automatizzata alla realizzazione di veri e propri sistemi di apprendimento di tipo artificiale.
Cogito ergo sum: il passaggio da intelligenza automatizzata a sistemi di apprendimento di tipo artificiale
Penso dunque sono. Secondo Cartesio, questo assioma era sufficiente a definire l’esistenza di un individuo ma con i progressi dell’ AI tale assioma è ancora valido?
In base alla definizione più comune, l’intelligenza può essere definita tale in quanto contiene in sé la capacità di migliorare le proprie prestazioni attraverso l’acquisizione, l’elaborazione e l’applicazione delle informazioni.
Secondo i primi teorici dell’IA e del linguaggio computazionale, le caratteristiche dell’Intelligenza Artificiale includono la capacità di comunicare, di raggiungere un fine, il possesso di un certo grado di creatività, intesa come capacità di assumere decisioni alternative…[3]
Prima dell’emanazione del AI Act si è assistito a diversi interventi legislativi che hanno fornito alcune prime definizioni di Intelligenza Artificiale, facendo leva soprattutto sulla capacità di tali sistemi di compiere azioni e perseguire obiettivi in autonomia, analizzando il proprio ambiente.
La relazione con l’ambiente è quindi da sempre un punto centrale del funzionamento dell’IA e del suo progressivo apprendimento.
Altro punto fondamentale è l’automazione, intesa come l’insieme di tecniche adottate dalla macchina al fine di generare, a partire da un input, un determinato output. Ma l’automazione non è sufficiente a definire l’IA, in quanto l’apprendimento progressivo dell’IA va oltre l’automazione e presuppone la capacità non solo di “imparare” a svolgere un determinato compito (Machine Learning), ma anche di superare alcuni limiti o difetti, prendendo decisioni in autonomia (Reti neurali)
È inevitabile quindi che l’evoluzione dell’ambiente (reale o virtuale) condizioni anche l’evoluzione dell’IA, la quale si modella e apprende nuove funzionalità in base alle richieste sempre più sofisticate degli utenti.
Sviluppo dell’AI e rischi connessi al trattamento dei dati
È evidente che lo sviluppo esponenziale dell’IA pone molteplici interrogativi sia relativamente all’autonomia decisionale di tali forme di tecnologia, che potrebbero porre la supervisione umana in secondo piano, sia relativamente ai rischi connessi al trattamento dei dati (privacy), alla tipologia di dati utilizzata per l’addestramento (rischi etici, discriminazione), ed infine alle responsabilità in caso di errori o danni.
La crescente accelerazione nello sviluppo dei sistemi basati sull’IA pone numerose questioni in merito all’impatto sociale, economico ed etico di tale tecnologia, soprattutto a causa dell’ampia diffusione, in ogni settore (creativo, divulgativo, produttivo) di sistemi di IA generativa come ChatGPT e simili, che minimizzano sempre di più l’apporto umano nella realizzazione di contenuti di vario genere.
Ai e privacy
L’avvento dell’IA, proprio per l’utilizzo massiccio di dati ai fini dell’addestramento (big data) ha posto l’attenzione sui rischi connessi al trattamento dei “dati personali” e alle potenziali violazioni della “privacy”.
Nel passato il concetto di privacy era legato al “diritto ad essere lasciati soli” [4] inteso come tutela dell’autonomia e dignità umana sia nella sfera personale che familiare. Solo nel 1965 negli Stati Uniti fu elaborato il diritto costituzionale alla privacy, presupponendo che lo stesso fosse un corollario dei diritti fondamentali dell’individuo (libertà personale, di pensiero, di espressione).
Negli anni più recenti il concetto di privacy si è esteso di pari passo con l’incremento della tecnologia, passando da mera protezione dei dati a tutela dell’uso di tali dati contro terzi.
L’avvento dell’IA e l’uso dei cosiddetti big data, in un contesto sociale dominato dalla circolazione di dati in rete, ha portato ad un notevole ampliamento del concetto stesso di privacy, motivato anche dal fatto che spesso i dati personali vengono utilizzati ad insaputa del titolare.
Le piattaforme di uso comune, sia social che di e-commerce utilizzano abitualmente i dati personali per monitorare, anche attraverso IA, le preferenze degli utenti e tenere traccia delle abitudini, ma anche per suggerire prodotti e servizi in linea con i gusti personali (Facebook, Google, Amazon).
I rischi legati all’utilizzo improprio di dati personali, nonché alla diffusione illegale di tali dati a terzi – all’insaputa o in assenza di consenso degli interessati – rappresentano una vera e propria falla nel sistema di gestione delle banche dati, tanto che recentemente il Garante per la Privacy ha istituito una task force interdipartimentale per valutare nuove strategie e protocolli sulla gestione delle informazioni.[5]
Ma le criticità legate ai dati personali sono strettamente connesse anche alle “nuove” tipologie di dati utilizzati ai fini dell’accesso su piattaforme di uso comune, in particolare i dati biometrici utilizzati ai fini dell’accesso, ad esempio impronte digitali o riconoscimento facciale.
I dati biometrici, infatti, sono soggetti ad un trattamento più rigoroso rispetto ai dati personali tradizionali (attualmente tali dati vengono definiti “dati particolari”, mentre in passato erano classificati come “dati sensibili”) soprattutto perché consentono l’identificazione univoca di una persona.
Il GDPR vieta il trattamento dei dati particolari, salvo per le eccezioni previste dall’articolo 9, tra cui spiccano il consenso dell’interessato o la tutela di interessi vitali.
È evidente quindi che la divulgazione o la cessione di tali dati a terzi, senza il consenso dell’interessato, comporta una grave violazione della normativa in vigore e un danno significativo per l’utente.[6]
Criticità legate ai dati biometrici
Il trattamento dei dati biometrici è uno degli aspetti maggiormente delicati e meritevoli di tutela soprattutto dopo l’avvento dell’IA, in quanto il rischio di un uso indiscriminato di tali dati senza un reale controllo umano, è sempre più concreto.
Dai primi studi antropometrici in ambito criminale realizzati da Alphonse Bertillon e quelli sulla fisiognomica e il razzismo scientifico portati avanti da Francis Galton tra Ottocento e Novecento, oggi i sistemi di analisi biometrica sono sempre più in grado di identificare e controllare, in particolar modo quando sono implementati dall’integrazione con sistemi di machine learning e di Intelligenza Artificiale.
L’iniziativa governativa India’s Unique Identification Authority (UIDAI)
Dal 2016 in India è attiva, ad esempio, l’iniziativa governativa India’s Unique Identification Authority (UIDAI), che assegna ad oltre il 90% della popolazione indiana un codice identificativo di dodici cifre su base biometrica (Aadhaar), in cui la scansione dell’iride si aggiunge alle normali tecniche di riconoscimento facciale e raccolta delle impronte digitali a formare quello che ad oggi è considerato il più ampio database di identificazione centralizzato del mondo[7].
In particolare, i rischi più concreti, ad oggi, risultano connessi soprattutto ai dati biometrici utilizzati nel riconoscimento facciale, in quanto, il furto di tali dati potrebbe comportare un vero e proprio furto d’identità.
Se da un lato, dunque, la tecnologia evolve nella direzione di ampliare sempre più l’identificazione attraverso la biometria, dall’altro tale innovazione amplifica i rischi connessi ad un furto di dati biometrici, che si traduce inevitabilmente in furto della nostra identità: mentre, infatti, nel furto di pin e password le stesse possono essere modificate, nella sottrazione di dati biometrici il danno è altissimo, in quanto tali dati non sono sostituibili.
Recentemente la questione dell’illiceità del trattamento dei dati biometrici a fini identificativi è stata affrontata nella sentenza n. 12967 del 13 maggio 2024 in cui la Corte di Cassazione ha confermato il provvedimento sanzionatorio del Garante contro un’Università che, durante gli esami a distanza, aveva utilizzato un software per controllare, attraverso foto e video, i comportamenti anomali degli studenti, configurando un illecito trattamento di dati biometrici.[8]
Legislazione in tema di biometria e riconoscimento facciale
Il quadro normativo di tutela dei dati biometrici si compone di più tasselli, in quanto gli interventi legislativi si sono sviluppati in ambito nazionale, europeo e internazionale.
A partire dai primi provvedimenti europei (convenzione 108 e Direttiva UE 2016/680) il legislatore italiano è intervenuto attribuendo al Garante per la Privacy il compito di individuare specifiche misure di sicurezza per il trattamento dei dati biometrici.
In particolare, il Garante della Privacy nel 2018 ha precisato che il riconoscimento facciale configura trattamento di dati biometrici solo quando vi è un confronto automatico tra l’immagine e il database acquisito.
Tale definizione è essenziale in quanto segna una distinzione tra la verifica biometrica che avviene “one to one” ai fini dell’identificazione (con il consenso dell’interessato) e il riconoscimento vero e proprio, che avviene attraverso il confronto con un ampio database, e potrebbe avvenire all’insaputa dell’interessato.[9]
Con il GDPR regolamento europeo in materia, è stato precisato che il trattamento dei dati biometrici non si esaurisce nell’identificazione di un soggetto, ma anche il semplice rilevamento di tali dati, ai soli fini di conservazione, configura un trattamento di dati biometrici, per cui è soggetto alle stesse limitazioni.
Il concetto di rischio (Ai act)
Il trattamento dei dati biometrici e, in particolare, il tema del riconoscimento facciale, è stato oggetto anche della recente legislazione europea: l’AI Act, approvato nel 2024 (pubblicato il 12/7/2024) ha introdotto una vera e propria scala di valutazione del rischio per i sistemi di intelligenza artificiale.
Tali sistemi sono classificati in diverse categorie a seconda del potenziale impatto negativo sulla sicurezza o sui diritti fondamentali, partendo da un rischio minimo (es. videogiochi) ad un alto rischio, come nei sistemi legati all’applicazione della legge.
I sistemi che pongono un rischio inaccettabile, ad esempio quelli che manipolano psicologicamente i più vulnerabili, sono vietati.
I sistemi di riconoscimento facciale, in particolare quelli utilizzati in spazi pubblici, sono considerati ad alto rischio, per cui il quadro normativo è particolarmente rigoroso e si basa sull’introduzione di limiti e divieti. In particolare, sono previsti:
- divieto generale dell’utilizzo di sistemi di riconoscimento facciale in tempo reale in spazi accessibili al pubblico, come le strade o le piazze, salvo per la ricerca di persone scomparse o per prevenire gravi minacce terroristiche.
- divieto di creare banche dati di riconoscimento facciale attraverso l’estrazione indiscriminata di immagini da internet o da filmati di telecamere a circuito chiuso.
Al di fuori degli spazi pubblici, l’utilizzo del riconoscimento facciale è soggetto a requisiti specifici, come la valutazione dell’impatto sulla privacy e la trasparenza nei confronti degli interessati.
Dati biometrici, Face Id e identità: le tecnologie in uso sono alla portata degli hacker?
Fra le applicazioni più comuni basate sulla verifica biometrica vi è il famoso Face Id utilizzato da Apple per accedere agli smartphone senza digitare pin e chiavi di accesso e che ha di fatto sostituito il riconoscimento attraverso le impronte digitali, già presente sui precedenti modelli.
Il Face Id è stato introdotto nel 2017 e progressivamente migliorato nelle versioni successive, al fine di garantire una maggiore velocità nel riconoscimento e sblocco delle funzioni dello smartphone.
Questo tipo di tecnologia è utilizzata anche per eseguire pagamenti ed accedere a contenuti personali, come le password salvate sul dispositivo, e si basa su tre componenti:
- proiettore di punti, che disegna oltre 30000 punti sul volto;
- fotocamera a infrarossi, che legge la mappatura tridimensionale dei punti;
- illuminatore flood, che consente il riconoscimento anche al buio.[10]
Nonostante l’apparente sicurezza del sistema biometrico Face Id e gli elevati standard di sicurezza della Apple, nel 2024 ha fatto scalpore la scoperta di un nuovo “trojan bancario” chiamato GoldDigger, che è riuscito a penetrare nei dispositivi iOS rubando i dati di riconoscimento facciale e i documenti di identità associati, riuscendo anche ad intercetta i messaggi sms.
La società di sicurezza Group-IB, che ha segnalato la vulnerabilità ad Apple, ha evidenziato che la diffusione del software è stata possibile attraverso la piattaforma TestFlight di Apple, che consente agli sviluppatori di rilasciare versioni beta senza sottoporsi al processo di revisione standard di App Store.[11]
Il caso Worldcoin – Il dispositivo Orb per distinguere umani da bot
L’evoluzione tecnologica si è spinta ancora oltre il riconoscimento facciale, e recentemente il fondatore di OpenAi Sam Altman ha sviluppato un progetto ambizioso basato sulla verifica dell’identità attraverso un dispositivo per la scansione oculare denominato Orb.
Il dispositivo si inserisce in un progetto più ampio denominato Worldcoin, nato nel 2019, attraverso cui il fondatore ha esplorato nuovi sistemi di verifica dell’identità basati sulla dimostrazione di NON essere un robot.
Il dispositivo Orb si basa su una tecnologia di scansione dell’iride e sulla generazione di token privati idonei a verificare l’identità delle persone a livello globale.
Nel corso della presentazione avvenuta a San Francisco, i partecipanti hanno potuto verificare il funzionamento sottoponendosi alla scansione dell’iride e prenotando il dispositivo per quando sarà disponibile (nel 2025).
Ma il progetto è legato anche all’emissione di una criptovaluta (Worldcoin appunto), che può essere utilizzata solo dopo la verifica dell’identità e che consente agli utenti di effettuare pagamenti, acquisti e trasferimenti anche grazie ad altri digital asset.
Il token della criptovaluta Worldcoin è ora negoziabile sulle maggiori piattaforme di scambio criptovalute, come Binance.
Alex Blania, che ha fondato Worldcoin insieme a Altman, ha affermato che, nell’era dell’intelligenza artificiale, la necessità di dimostrare che una persona sia reale è una questione fondamentale, e che attraverso Worldcoin si potrà affrontare tale criticità costruendo un mondo “centrato sulla privacy, decentralizzato e massimamente inclusivo”.
Il sistema integra anche un’applicazione (DeepFace) in grado di riconoscere i deepfake durante le videochiamate con Facetime o Zoom.[12]
Come difendere l’identità dalla pervasività dell’identificazione attraverso IA
Lo sviluppo di tecnologie sempre più pervasive in termini di “cattura” di dati biometrici pone interrogativi etici sulla sopravvivenza dell’unicità umana, in un mondo in cui l’obiettivo del ‘riconoscimento’ rischia di far soccombere l’intelligenza umana rispetto a quella artificiale.
L’unicità dell’uomo, intesa anche come creatività, è al centro di riflessioni anche in campo artistico, allo scopo di stimolare un ripensamento sul ruolo dell’uomo come difensore della propria identità.
Difendersi dalla pervasività
In tale scia si colloca il progetto Iris di Paolo Cirio, che ha immaginato una serie di lenti a contatto che alterano la colorazione dell’iride al fine di ostacolare il riconoscimento identitario del soggetto. L’opera riflette la possibilità di prendere consapevolezza, sabotare e reagire alla pervasività delle procedure di identificazione.
Il focus del progetto è proprio l’integrazione tra la tecnologia e la scienza, prendendo atto di una realtà in cui il corpo umano e le sue componenti identificative (dati biometrici) si legano indissolubilmente ad una realtà virtuale (rete) in cui vengono diffusi e scambiati enormi database di informazioni biometriche.
Il “camouflage” come strategia per difendersi dalla pervasività del controllo dei dati corporei è stato analizzato anche da altri artisti contemporanei, in particolar modo nell’ambito dei sistemi di riconoscimento facciale.
Adam Harvey con il suo DFACE (2022)[13] ha realizzato un sistema di face redaction che consente di nascondere (attraverso una serie di filtri, blur ed emoji) il volto delle persone raffigurate all’interno di una fotografia prima che venga postata sui social media.
ll riconoscimento facciale in luoghi pubblici: il FaceBoarding
Tra le applicazioni pratiche che hanno fatto maggiormente discutere negli ultimi mesi vi è l’introduzione del riconoscimento facciale negli aeroporti per agevolare l’accesso ai gate di imbarco.
In Italia tale tecnologia è stata introdotta a maggio 2024 nell’aeroporto di Linate e la società Sea Spa ha sottolineato che saranno garantite “la tutela della Privacy e dei dati dei passeggeri”.
In realtà il sistema ha evidenziato una certa lacunosità nell’informativa agli utenti e nel tracciamento delle sequenze di acquisizione e trattamento dei dati, tanto da sollevare dubbi sul rispetto dei requisiti normativi ma anche sui possibili rischi legati ad una possibile diffusione non autorizzata dei dati biometrici.
Ciò soprattutto in considerazione della possibilità di acquisire i dati biometrici attraverso “selfie” utilizzati sulla apposita App, metodica che, come visto, aumenta il rischio di furto, in quanto gli attuali sistemi di IA sono in grado di ingannare i software di acquisizione rielaborando le immagini anche attraverso modelli tridimensionali che simulano i volti reali.
Divulgazione e consapevolezza: quali prspettive
Le tecniche di riconoscimento basate su dati biometrici (riconoscimento facciale, scansione dell’iride e della retina) si sono ampiamente diffuse in tutti i settori, sia sociali che produttivi, rendendo sempre più labile il confine tra sfera privata e pubblica.
Al contempo, come visto, le nuove forme di identificazione basate su dati biometrici possono diventare veri e propri strumenti di marketing, se associate al mercato delle criptovalute, in cui è facile confondere il reale con il virtuale.
Partendo dalla riflessione iniziale, è lecito chiedersi se l’avvento dell’IA possa incrementare i rischi di un’indebita acquisizione di dati ‘particolari’ umani, fino a rendere possibile l’appropriazione di quell’unicità finora di pertinenza umana, che si condensa nella capacità di provare emozioni.
L’arte, da sempre portavoce dei cambiamenti, negli ultimi anni ha rappresentato in varie forme il rischio della perdita di identità non solo biologica ma emotiva, attraverso opere simboliche che condensano in espressione artistica la dicotomia tra intelligenza umana e artificiale.
Nel 2022 Zach Blas[14] ha provocatoriamente rappresentato l’Intelligenza Artificiale come un’entità divina in grado di analizzare i dati biometrici e, al contempo, interpretare fedelmente gli stati emotivi esternati, ad esempio, attraverso le lacrime e il pianto, apprendendo le emozioni umane e sviluppando empatia con l’uomo stesso.
La rappresentazione artistica induce quindi una riflessione sull’importanza di valorizzare l’unicità e la complessità umana attraverso la tutela dei dati biometrici intesi non soltanto come strumento di identificazione, ma anche come rappresentazione dell’unicità e irripetibilità dell’umano.
In quest’ottica vale la pena ricordare che l’IA deve restare “antropocentrica” cioè sottoposta al controllo umano [15] e che l’uomo ha il dovere etico di preservare la propria identità rispetto a forme di tecnologia apparentemente “intelligente” che, attraverso il controllo dei dati personali, rischiano di limitare anche libera espressione umana.
In una società in rapido cambiamento dove il confine tra vero e falso è labile e dove l’unicità dell’uomo come “essere pensante” rischia di essere sostituita da macchine intelligenti, aumentano i rischi di una vera e propria perdita di identità attraverso inconsapevoli manipolazioni di dati, non solo biometrici ma anche genetici.
Risulta quindi quanto mai necessaria una divulgazione utile a creare consapevolezza, ricordando che “Se questa scienza, che grandi vantaggi porterà all’uomo, non servirà all’uomo per comprendere sé stesso, finirà per rigirarsi contro l’uomo.” Giordano Bruno.
Note
[1] The Dead Past racconto di fantascienza scritto da Isaac Asimov e pubblicato in origine sulla rivista Astounding nell’aprile del 1956. È incluso nell’antologia La Terra è abbastanza grande
[2] https://www.vanityfair.it/article/intelligenza-artificiale-chiesa-svizzera-confessioni-deus-ex-machina
[3] Roger Carl Schank (12 marzo 1946 – 29 gennaio 2023) è stato un teorico dell’intelligenza artificiale, psicologo cognitivo, scienziato dell’apprendimento, riformatore dell’istruzione e imprenditore americano. A partire dalla fine degli anni ’60, è stato il pioniere della teoria della dipendenza concettuale (nel contesto della comprensione del linguaggio naturale) e del ragionamento basato sui casi, che hanno sfidato le visioni cognitiviste della memoria e del ragionamento. Ha combinato linguistica, scienze cognitive e informatica con l’obiettivo di “cercare di capire la natura della mente umana”. https://en.wikipedia.org/wiki/Roger_Schank
[4] Right to be let alone, S. Warren, L. Brandeis, The right to privacy, in Harvard Law Review, 5, 1890, 193-220:
[5] https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10067406
[6] Negli ultimi mesi del 2024 sono state numerose le pronunce del Garante della Privacy che hanno sanzionato le aziende per uso improprio dei dati biometrici ai fini della rilevazione delle presenze sul luogo di lavoro.
[7] UIDAI, o Unique Identification Authority of India, è un’autorità statutaria istituita dal Governo dell’India sotto il Ministero dell’Elettronica e dell’Information Technology. È responsabile dell’emissione di un numero identificativo univoco chiamato Aadhaar a tutti i residenti in India. La carta Aadhaar è un numero identificativo univoco di 12 cifre collegato ai dati biometrici e demografici di un individuo, che vengono archiviati in un database centralizzato. Il numero Aadhaar fornisce ai residenti in India un’identità univoca e una piattaforma digitale per l’autenticazione in qualsiasi momento e ovunque. https://services.india.gov.in/service/detail/unique-identification-authority-of-india-uidai
[8] La sentenza ha affermato che si configurava illecito trattamento di dati biometrici in quanto le fotografie erano trattate attraverso uno specifico dispositivo (software) che consentiva l’identificazione univoca o l’autenticazione della persona fisica.
[9] Le TRF si basano su procedimenti algoritmici automatizzati complessi, che consentono di identificare un individuo a partire dall’immagine del suo volto, confrontandola poi con le immagini precedentemente acquisite e inserite nel database. La peculiarità delle TRF risiede nella facilità di acquisizione delle immagini e nella minore invasività rispetto ad altre tecniche biometriche, ma la minore invasività, risulta problematica in quanto consente potenzialmente la raccolta di immagini del volto senza il consenso esplicito del soggetto ritratto.
La tecnologia di riconoscimento facciale nel nostro Paese è stata introdotta nel 2017 con il Sistema Automatico di Riconoscimento Immagini (SARI), basato sull’IA. Tuttavia tale tecnologia solleva serie preoccupazioni relative alla tutela della privacy e ai diritti civili.
[10] Il modello tridimensionale viene crittografato e inviato alla Secure Enclave del system-on-a-chip del dispositivo per verificare la corrispondenza con il campione salvato in fase di configurazione della funzionalità. I dati biometrici sono memorizzati sotto forma di algoritmo matematico, sono inaccessibili alle applicazioni e ad Apple stessa. https://it.wikipedia.org/wiki/Face_ID
[11] https://www.tomshw.it/smartphone/bucato-liphone-trojan-ruba-face-id-e-dati-bancari
[12] https://observer.com/2024/11/sam-altman-worldcoin-rebrand-world-ai/
Sono stati annunciati aggiornamenti a World ID, che ora offrirà funzionalità di privacy avanzate e la nuova funzionalità nota come Deep Face che aiuterà gli utenti a identificare i deepfake A.I. durante le videochiamate come FaceTime, WhatsApp e Zoom.
[13] DFACE utilizza il framework di rilevamento degli oggetti della rete neurale YOLOV5 per eseguire il rilevamento dei volti in un browser Web in modo che le foto non lascino mai il dispositivo di un utente. Può elaborare fino a 1.000 volti per immagine fino a 10×10 pixel per volto con effetti variabili (riempimento di colore, sfocatura o emoji) e supporta l’elaborazione in batch di più immagini. È progettato per attivisti e utenti dei social media per censurare rapidamente e privatamente i volti nelle immagini prima di pubblicarle sui social media.
[14] Zach Blas (nato a Point Pleasant, West Virginia, USA) è un artista, regista e scrittore la cui pratica spazia tra immagini in movimento, informatica, teoria, performance e fantascienza. Blas affronta la materialità delle tecnologie digitali, ma allo stesso tempo estrae le filosofie e gli immaginari nascosti nell’intelligenza artificiale, nel riconoscimento biometrico, nella polizia predittiva, nella sicurezza aeroportuale, in Internet e nella guerra biologica. https://zachblas.info/biography/
[15] Principio espresso nell’AI Act
Scopri le strategie e gli investimenti che stanno trasformando il volto della Sicilia