Tra i temi più delicati in assoluto dell’impiego degli algoritmi si colloca la possibilità di “leggere” il comportamento umano tramite AI, sul modello della famigerata “macchina della verità”. Vediamo cosa prevede l’AI Act, con la premessa che, forse, il legislatore europeo (la montagna) non doveva partorire questo “topolino”.
Il sistema di riconoscimento dele emozioni nel testo normativo
La definizione normativa è contenuta all’articolo 3, numero 39 dell’AI Act: Per cui, per “sistema di riconoscimento delle emozioni”, si deve intendere “un sistema di IA finalizzato all’identificazione o all’inferenza di emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici”.
Il Considerando 18 dell’AI Act
Nota interpretativa sul punto – che spiega anche la rilevanza della tematica – è contenuta nel Considerando 18.
“(18) La nozione di “sistema di riconoscimento delle emozioni” di cui al presente regolamento dovrebbe essere definita come un sistema di IA finalizzato a identificare o inferire emozioni o intenzioni di persone fisiche, sulla base dei loro dati biometrici. La nozione si riferisce a emozioni o intenzioni quali felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento. Non comprende stati fisici, quali dolore o affaticamento, compresi, ad esempio, ai sistemi utilizzati per rilevare lo stato di affaticamento dei piloti o dei conducenti professionisti al fine di prevenire gli incidenti. Non comprende neppure la semplice individuazione di espressioni, gesti o movimenti immediatamente evidenti, a meno che non siano utilizzati per identificare o inferire emozioni. Tali espressioni possono essere espressioni facciali di base quali un aggrottamento delle sopracciglia o un sorriso, gesti quali il movimento di mani, braccia o testa, o caratteristiche della voce di una persona, ad esempio una voce alta o un sussurro”.
In altri termini, il numero 39 dell’articolo 3 dell’AI Act definisce quei software in grado – forse – di connettere ad un output fisico, magari inconscio, un’emozione umana, quali gioia, tristezza, spavento e simili.
Non rientrano nel novero situazioni fisiche “oggettive” come affaticamento, spossatezza, stanchezza o altre analoghe.
Già farebbe ridere così, perché tra tristezza ed affaticamento non si può, a rigor di termini, parlare di differenze oggettive o soggettive, rientrando entrambe le categorie nell’assoluta soggettività.
Il fatto è che la tematica è delicatissima, perché oltre che “leggere” i “sentimenti” e le “emozioni” di ciascuno, questui sistemi potrebbero effettuare un “ricalco” – per utilizzare un termine mutuato dalla programmazione neurolinguistica – di ognuno e creare dei replicanti virtuali capaci di simulare “sentimenti” ed “emozioni” in maniera indistinguibile dall’originale.
Il divieto – troppo blando? – dei sistemi di riconoscimento delle emozioni
Il ban di questi sistemi è previsto dall’articolo 5, alla lettera f), che vieta: “l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l’uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza”.
Ad una prima lettura il testo appare insufficiente, perché appare limitato ad impedire questi sistemi solo nel contesto lavorativo e scolastico.
Il Considerando 44 dell’AI Act
Il Considerando 44 offre interessanti spunti interpretativi.
“(44) Sussistono serie preoccupazioni in merito alla base scientifica dei sistemi di IA volti a identificare o inferire emozioni, in particolare perché l’espressione delle emozioni varia notevolmente in base alle culture e alle situazioni e persino in relazione a una stessa persona. Tra le principali carenze di tali sistemi figurano la limitata affidabilità, la mancanza di specificità e la limitata generalizzabilità. Pertanto, i sistemi di IA che identificano o inferiscono emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici possono portare a risultati discriminatori e possono essere invasivi dei diritti e delle libertà delle persone interessate. Considerando lo squilibrio di potere nel contesto del lavoro o dell’istruzione, combinato con la natura invasiva di tali sistemi, questi ultimi potrebbero determinare un trattamento pregiudizievole o sfavorevole di talune persone fisiche o di interi gruppi di persone fisiche. È pertanto opportuno vietare l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA destinati a essere utilizzati per rilevare lo stato emotivo delle persone in situazioni relative al luogo di lavoro e all’istruzione. Tale divieto non dovrebbe riguardare i sistemi di IA immessi sul mercato esclusivamente per motivi medici o di sicurezza, come i sistemi destinati all’uso terapeutico”.
Il divieto, quindi, è esteso ad ogni uso discriminatorio, ma non è chiaro il motivo per cui il testo non abbia esteso il ban anche alle autorità pubbliche per finalità di pubblica sicurezza sul modello del riconoscimento biometrico.
Conclusioni
A parere di chi scrive, questi sistemi dovevano essere vietati sic et simpliciter, con le uniche eccezioni di sistemi legati alla diagnostica ed alla ricerca scientifica.
Per quanto a livello interpretativo sia possibile enucleare un ban più ampio di quello che apparentemente si legge nel testo della lettera f) dell’articolo 5, un maggior rigore avrebbe tutelato maggiormente i cittadini dell’Unione.
Anche in questo caso, comunque, si navigherà a vista, ed i prossimi anni diranno quanto il legislatore europeo sarà stato imprudente o meno.