L’AI Act è la legge che stabilisce le regole per l’intelligenza artificiale in Europa. È stata approvata il 9 dicembre dai principali organismi dell’Unione europea UE. Prima di diventare definitiva, deve essere ancora modificata dai tecnici e infine votata e approvata da Commissione, Consiglio e Parlamento europeo un’ultima volta. Si prevede che entri in vigore tra due anni.
Questa legge vuole che l’intelligenza artificiale rispetti i diritti e le libertà delle persone, e che, al tempo stesso, promuova l’innovazione, con una particolare tutela delle PMI. Le aziende che creano intelligenza artificiale devono essere responsabili e valutare da sole se la loro tecnologia non viola i diritti fondamentali e non mette in pericolo le persone. Ma come fanno le PMI e startup a competere con le possibilità delle big tech? In questo senso, l’IA Act viene incontro proprio alle aziende più piccole, permettendo loro una finestra di adeguamento, con sandbox regolamentativi.
L’AI ACT e l’approccio basato sul rischio
L’AI Act, in altre parole, vuole che la normativa protegga l’integrità e i diritti dell’individuo, utilizzando un approccio “basato sul rischio” per regolare l’intelligenza artificiale, focalizzandosi sulle applicazioni più pericolose per l’essere umano. Cosa significa, però, “basato sul rischio”? In questo articolo cerco di darne una lettura filosofica del framework seguito dai regolamentatori, chiarendo ai lettori non esperti di etica e politica tale concetto.
I diversi sensi del rischio
Da un lato, in termini molto generali, rischio significa evento indesiderato, procurante infelicità. Ad esempio, la seguente frase “Rischio di essere bocciata all’esame se non studio” significa che può accadere che si verifichi il caso di fallire qualora non si mettessero in atto le misure per evitarlo, cioè studiare.
Un altro senso di rischio è quello di causa efficiente: un esempio potrebbe essere “la sonnolenza rappresenta un rischio per l’incolumità di chi guida”. Il significato di questa espressione è proprio il fatto che eventuali colpi di sonno mentre si conduce un veicolo causano spesso la morte propria e altrui. Il termine può essere associato anche a una misura quantitativa, legata alla probabilità che un certo fatto possa rappresentare un rischio: “Hai una possibilità pari al 50 percento che tu possa rischiare di ammalarti”.
A livello tecnico ci si riferisce a un dato statistico, indicante il valore atteso di un possibile evento negativo quale prodotto tra la sua probabilità e una misura della sua gravità. In questo caso sarebbe una misura risultante tra un dato oggettivo e uno soggettivo, in cui gravità è quasi sempre un dato relativo, culturale. Non ci deve stupire, le leggi sono la concretizzazione di una Società specifica, di un popolo, di un sistema produttivo, in cui, per quanto astratta la persona giuridica, è sempre storicizzata e quindi non veramente universale, senza tempo e spazio. La legge concretizza i legami di solidarietà specifici di un gruppo. La legge assicura una materializzazione di tale patto di solidarietà e, punendo il reo, assicura un ribadire continuo delle fondamenta dell’unione, impedendo l’anomia.
Rischio e psicologia
A livello di epistemologia c’è un’insipienza necessaria relativa al rischio e una base psicologica legata alla probabilità: quanto sei disposto a tremare di fronte alla possibilità di si verifichi un certo fatto? È una scommessa; quasi un aut-aut kierkegaardiano che ci impone di scegliere o questo o quello, per fare in modo che il futuro ci sia lieve. Si dice che la conoscenza del rischio è conoscenza della mancanza di conoscenza. E in effetti è proprio la possibilità che accada o non accada, l’incertezza di controllare la pesca della pallina rossa o verde da un sacchetto di infinite palline, che ci porta all’esperienza del rischio. Possiamo scegliere di massimizzare il valore dato all’evitamento o di trascurarlo, scegliendo di sorseggiare il bicchiere mezzo vuoto. Sembra dipendere tutto da una motivazione psicologica, più che da un principio razionale. Mi torna in mente l’insegnamento del Buddha all’allievo colpito da una freccia di cui non sapeva dire se fosse avvelenata o meno. Il Buddha gli rispose di non restare immobile in quell’aut aut, ma di togliere in fretta la freccia dalla carne e dopo di scoprire se effettivamente fosse intrisa di veleno. Insomma, la razionalità impone di considerare il rischio peggiore e di agire come se effettivamente il futuro ci riservasse il verificarsi di quel preciso evento. Ecco il senso dell’Ai Act e del framework basato sul rischio: agisci come se avessi la certezza che si verificasse la possibilità più nefasta, perciò cercala di minimizzare con i tuoi atti.
Percezione del rischio e soggettività
L’unica questione è cosa è ritenuto imbevibile per gli esseri umani; se c’è un rischio universalmente inaccettabile o ideologicamente inaccettabile. Insomma, la percezione del rischio pertiene al soggettivo e al transeunte più di quello che si intende. La mia aracnofobia mi farebbe ipergiudicare gli sgabuzzini, ma è solo una fobia altamente individuale. In ogni caso un framework etico e legale dovrebbe lasciare la possibilità di manovra anche ai soggetti per cui individualmente gli angoli bui potrebbero rappresentare una situazione di disagio. Questa è la libertà e la giustizia.
Riguardo al rischio esistono due tipi di errori che concernono l’induzione. Nel primo caso (errore di tipo I) si considera esistente un fenomeno che di fatto non c’è; nel secondo caso, (errore di tipo II) si considera non esistente un fenomeno che c’è. Per la scienza è peggio l’errore I, nella praxis è peggio il secondo caso. Per la filosofia pratica, al contrario, è peggio ignorare un motore rotto (errore II) piuttosto che credere esistente un motore rotto che poi non lo è. Evitare l’errore di tipo II per l’etica significa massimizzare il rischio.
La morale e l’etica nel valutare il rischio dell’IA
Contrariamente a quanto si potrebbe supporre, il rischio nasce come concetto nell’epistemologia, solo in seguito è stato trattato all’interno della morale. Il rischio, come si è detto, non dipende solo e soltanto da una valutazione della probabilità che certi eventi si verifichino, ma anche di quale evento viene giudicato come più o meno nocivo, sul quale la nostra valutazione ricadrà.
MI spiego meglio. Poniamo il caso si un robot per l’assistenza degli anziani: il rischio da valutare dipende dalla morale con cui giudichiamo la tecnologia, non è primario, bensì secondario. Infatti, possiamo assumere come rischioso il fatto che l’anziano non abbia assistenza 24/7 e allora va bene un robot che faccia compagnia; oppure può essere rischiosa la perdita di relazioni umane, a questo punto il rischio è proprio quello di introdurre il robot. Da questo si capisce di per sé una valutazione in base al rischio non ha alcun significato. Assume un senso sempre relativo ai valori, quindi alla morale che è messa a repentaglio e che quindi una tecnologia, se approvata deve massimizzare e non rappresentare un problema a sua volta.
Da questo punto di vista quale morale è servita per giudicare cosa sia rischioso e cosa no, e solo a questo punto quale rappresenta il principio negativo alla Schopenhauer della Giustizia. Secondo il filosofo tedesco la compassione rappresenta la via morale per vincere (limitatamente) la Volontà. Essa si declina secondo due virtù, la carità, positiva, e la giustizia, negativa. Quest’ultima è negativa nel senso che impone una limitazione: non ledere gli altri, non fare del male. Nell’altro caso è positiva perché impone un aiuto verso il prossimo, “quantum potes juva”. Neminem laede è un principio che impone di evitare il male nello stesso modo in cui nella proposta della tecnologia si valuta il grado di danno potenziale e lo si evita con soluzioni ad hoc di sicurezza primaria (si evita il rischio intrinseco, come per esempio non si usano materiali che prendono fuoco o non si usano le IA per il punteggio sociale o con dati biometrici) e una sicurezza secondaria (oltre a eliminare i materiali pericolosi, si costruiscono strumenti per contenere eventuali incendi, porte tagliafuoco ad esempio, oppure nel caso nell’IA si propongono strumenti di contenimento del rischio come audit indipendenti o norme per evitare abusi o discriminazioni).
Etica e AI ACT
Alla luce di quanto detto in questo articolo, riusciamo a comprendere meglio il senso del Regolamento europeo appena approvato?
Il regolamento segue un approccio basato sul rischio valutato sulla morale europea, differenziando tra gli usi dell’IA che creano differenti gradi di rischio. Possiamo semplificarli nella scaletta seguente:
- Rischio Inaccettabile: Sistemi di IA il cui uso è contrario ai valori fondamentali dell’Unione. Assolutamente vietati.
- Rischio Alto: Sistemi di IA con potenziali conseguenze negative per le persone o la società. In questo caso vengono adottate contromisure e l’utilizzo deve essere limitato a motivazioni forti, quali terrorismo, pubblica sicurezza e simili. I sistemi ad alto rischio devono essere soggetti a una valutazione di conformità.
- Rischio Basso o Minimo: Sistemi di IA con rischi limitati. In questo caso l’importante è l’osservanza delle norme, database e modelli in cui l’etica sia inserita by design.
A seconda del livello di rischio, misurato sui valori UE, viene stabilito un diverso grado di responsabilità. Il regolamento si concentra, inoltre, su settori ad alto impatto, come cambiamenti climatici, ambiente, sanità, finanza e mobilità.
Insomma, la morale a cui si appella l’UE è un misto tra morale deontologica, un’etica basata sulla virtù e una sui diritti: per la morale deontologica le azioni sono intrinsecamente buone, basate sul dovere fine a se stesso e sull’universalità delle scelte in quelle medesime circostanze: questa universalità di scelta impedisce a qualcuno di essere sacrificato.
Nel secondo caso, nell’etica aristotelica o della virtù, c’è un principio di consequenzialismo che concerne la felicità come output per l’aver preservato i valori o l’eccellenza dell’essere umano, aver mediato tra estremi. Insomma, i valori o le supposte virtù non possono essere messi da parte premiando i benefici o gli utili probabili di un’azione per il maggior numero, ma non per tutti, concedendo la possibilità che qualcuno si sacrifichi.
La virtù etica massima è la giustizia, con cui si intende la volontà di riconoscere e rispettare i diritti altrui attribuendo a ciascuno ciò che gli è dovuto secondo la ragione e la legge; la virtù dianoetica la ragione, nelle varie forme che assume. In breve, va rispettata l’autonomia razionale dei singoli, la competenza, l’autodeterminazione, perché è ciò che li rende esseri umani, sempre in un’ottica di libertà e responsabilità. Il sacrificio è pertanto escluso da questo tipo di etiche. I valori vengono assunti sempre come step primario, da proteggere e anzi amplificare con le scelte stesse. In particolare. i valori tutelati dall’UE sono quelli definiti nel Trattato di Lisbona, cioè la dignità umana (tra cui l’autonomia), la libertà, la democrazia, l’uguaglianza, lo stato di diritto e i diritti umani. E infatti a tal riguardo, nel regolamento c’è un richiamo ai diritti, perciò si entra nell’etica basata su di essi. Ben pochi altri valori o ideali del passato possono vantare quel consenso universale che oggi riscuotono i diritti, universali e al tempo stesso fondati sulla soggettività e sulla sua auto-realizzazione.
IA, utilitarismo e solidarietà
Anche l’utilitarismo è chiamato in causa, per proteggere l’innovazione e l’economia, con particolare riferimento alle PMI, essendo questi gli obiettivi su cui si regge l’Europa, i quali includono la promozione della pace, la sicurezza, il benessere dei cittadini, la creazione di un mercato interno, lo sviluppo sostenibile, la protezione dell’ambiente e il progresso scientifico e tecnologico. Nel contesto globale, l’UE si impegna anche per la solidarietà, il rispetto reciproco, il commercio equo, l’eliminazione della povertà e il rigoroso rispetto del diritto internazionale. Viene assunta la possibilità di definire le conseguenze delle IA proposte e premiando quelle che rappresentano un vantaggio comunitario.
Una questione di compromessi
L’etica è sempre questione di compromessi, non c’è una formula che vada bene per tutti e sempre; quindi, è normale che si trovino etiche e framework diversificati che cerchino di adattarsi alle esigenze di tutti. Ed ecco perché questo regolamento ha richiesto così tanto tempo, e ora sia al vaglio dei tecnici per ritornare ancora una volta tra le mani degli organismi europei, per l’ultimo sì o per un no.
Insomma, tutte le volte che vado a proporre un modello di IA è il “perché lo usi?” che va chiarito, e solo qui trova un senso il rischio. Se le conseguenze dell’IA sono a vantaggio degli individui e dei loro diritti o non rappresentano uno svantaggio allora è o permessa o non sconsigliata; se in qualche modo un’IA arrecasse un danno inevitabile alla libertà e ai diritti verrebbe catalogata come inaccettabile e quindi vietata tout court.
A questo livello vengono catalogati le IA applicate al social scoring, tracciamenti biometrici (senza che ci sia un motivo molto forte come il terrorismo e la ricerca di criminali rei di aver commesso reati altamente pericolosi), algoritmi di scraping online che automatizzato la raccolta di immagini di chiunque sul web per allenare i modelli di ML e DL, senza che vi sia una finalità stringente e per un uso limitato come la pubblica sicurezza. Ancora non permessi sono polizia predittiva (se non per ragioni di studio di tendenze, ma condotte su dati anonimi, quindi che non vanno a prevedere il reato di Nome e Cognome) e il riconoscimento emotivo. Sono casi in cui la libertà viene meno. È vietato permettere l’uso di IA che possano manipolare il comportamento, perdendo la sua spontaneità. Inoltre, catalogare gli individui sulla base di caratteristiche individuali delicate come genere, religione, orientamento, “razza” potrebbe celare differenze di trattamento sociale, distribuzione diversificata di servizi, bias sistematici, controllo targetizzato. Tutti elementi che vanno contro i diritti fondamentali in modo inaccettabile.
La trasparenza dei modelli di IA
Se il rischio fosse alto, ma avessimo a dover trattare ragioni di pubblica sicurezza, allora limitatamente a questo caso potremmo utilizzare facial recognition in real time e sistemi che in altre situazioni comporterebbero rischi inaccettabili. Per i deep fake sarà necessario allegare etichette che ne chiariscano l’origine artificiale. La trasparenza dei modelli di IA, con database visibili, sistemi di allenamento, audit sistematici, valutazioni di conformità ai diritti umani. Se il rischio è basso, allora, si avrebbero meno limiti nel doversi adattare e sottomettere a controlli serrati le proposte. Essere trasparenti, quindi informare i consumatori e utenti che stanno interagendo con una IA, ma non si hanno più obblighi serrati di conformità, di validazione da parte delle autorità competenti, audit, controlli pre e post.
Conclusioni
Certo, la trasparenza richiesta manca di un punto per me essenziale: educare la società civile perché sappia cos’è una IA, come funzioni, cosa siano tutti quei termini che compaiono nell’IA Act, compresi quelli di rischio e etica dei diritti, altrimenti la trasparenza fallisce ab principio e ci si affida solo e soltanto alle autorità competenti, quindi una decisione di pochi, un’élite di tecnici. Infine perché ci sia democrazia e la possibilità di una vera innovazione è imprescindibile permettere a tutti di poter partecipare, proponendo soluzioni, nei limiti consapevoli della legge, a maggior ragione che a breve ogni professione sarà affiancata da un algoritmo.