Così come per il trattamento dei dati personali è bene seguire il principio della privacy by design, nell’implementazione ed adozione di sistemi di intelligenza artificiale che possono avere impatti sulla vita delle persone, sarebbe bene seguire il principio del redress by design.
Il redress by design riguarda l’idea di stabilire, fin dalla fase di progettazione, meccanismi per garantire la ridondanza, sistemi alternativi, procedure alternative, ecc. per poter efficacemente individuare, verificare, correggere le decisioni sbagliate prese da un sistema perfettamente funzionante e, se possibile, migliorare il sistema.
Come esempio di mancata implementazione di un sistema di redress by design, si consideri la recente Direttiva Ue sul diritto d’autore: un sistema di Intelligenza Artificiale deciderà se un contenuto è presumibilmente legittimo o se è in violazione del diritto d’autore reclamato da qualcuno.
Vediamo tutte le problematiche che questo implicherà.
Cos’è l’intelligenza artificiale
Se una persona prende una multa per eccesso di velocità per una infrazione riscontrata con l’Autovelox, ha pochi appigli. Se il dispositivo è stato omologato, installato e revisionato accuratamente, la misurazione che effettua è deterministica. Un dispositivo deterministico perfettamente funzionante non commette errori.
Non sono un amante del termine “Intelligenza Artificial”. In passato scrissi che concordavo con Kaplan quando diceva che si potrebbe definire più correttamente “computazione antropica” in quanto forma di computazione che approssima alcune caratteristiche del funzionamento dei neuroni mimando il funzionamento di un cervello.
La “Intelligenza artificiale” è infatti un approccio alla programmazione non algoritmicamente deterministico: distilla da una grande quantità di dati, oculatamente raccolti ed analizzati, un modello probabilistico, modello che viene poi utilizzato per effettuare predizioni partendo da nuovi dati osservati.
“Addestro” un sistema con migliaia di esempi di appartamenti, ciascuno con le sue caratteristiche (vani, metri quadri, quartiere, classe energetica, piano, ecc.) ed il suo prezzo e distillo un modello statistico che poi utilizzo per effettuare predizioni: a fronte di un nuovo input di caratteristiche di un appartamento posso predire il suo prezzo.
Ma un modello approssima la realtà per come è stata rappresentata con dei dati, non la riproduce esattamente, per cui il sistema effettuerà predizioni errate. Un autovelox probabilistico, alcune volte farebbe delle predizioni errate circa la velocità.
Gli errori dell’AI e il redress
La parola“redress”, secondo il dizionario Merriam Webster, significa la possibilità di ottenere un rimedio.
Con il passaggio da sistemi deterministici a sistemi probabilistici determinato dall’AI, la questione assume nuova rilevanza. Questo è un punto che ho sollevato di recente al Gruppo di esperti di alto livello sull’Intelligenza Artificial della Comunità Europea.
Così come abbiamo il principio della “privacy by design” per i sistemi di gestione dei dati personali, dovremmo avere un principio di “redress by design” per i sistemi basati sull’Intelligenza Artificiale che prendono decisioni che possono avere impatti sulla vita delle persone.
La considerazione di base è che un sistema di Intelligenza Artificiale perfettamente funzionante prenderà decisioni errate. Ad esempio, ad una persona potrebbe essere negato un servizio a causa di una decisione sbagliata da parte di un sistema di IA.
Un sistema di questo tipo non è deterministico come l’autovelox può essere: se si supera il limite di velocità con l’auto, l’autovelox lo rileva e si prende una multa. È possibile fare ricorso opponendosi alla multa, ma intanto sei colpevole fino a prova contraria perché un sistema deterministico perfettamente funzionante (correttamente configurato, certificato e controllato) decide che sei colpevole.
Ma con un sistema di IA perfettamente funzionante, dato che esso è un sistema statistico che necessariamente produce risultati probabilistici, questa decisione può essere giusta nel 98% delle volte e sbagliata nel 2% delle volte
Sarebbe inappropriato classificare queste decisioni sbagliate come errori tout court (se vogliamo possiamo considerarlo come una combinazione di errore analitico ed errore inerente) il che significa che in questo 2% di casi, la persona viene giudicata colpevole anche quando non lo è (o non può ottenere un servizio, anche se ha pieno diritto di ottenerlo).
Per la persona, la decisione sbagliata può generare ricadute che superano la portata della decisione stessa, per esempio generando biasimo sociale, feedback negativi e altre conseguenze che possono diffondersi online e diventare persino impossibili da rimuovere.
In questi casi sbagliati (possono essere falsi positivi o falsi negativi), la procedura di appello può non esistere o, se esiste, può essere inefficace, il suo costo può essere eccessivo, può non essere accessibile a tutti, può richiedere un tempo eccessivo o potrebbe non essere efficace nel rettificare le suddette ricadute.
Direttiva Ue sul copyright e importanza di correggere decisioni sbagliate
Come dicevamo, un esempio di mancata implementazione di un sistema di redress by design, si è recente Direttiva Ue sul diritto d’autore, sulla base della quale un sistema di Intelligenza Artificiale deciderà se un contenuto è presumibilmente legittimo o viola il diritto d’autore.
Un sistema di filtraggio perfettamente funzionante farà errori e bloccherà la pubblicazione di alcuni contenuti. Anche se nel complesso il numero di falsi positivi può essere limitato, il danno causato al diritto alla libertà di parola di queste persone sarà totale.
I dettagli della procedura di ricorso prevista dalla direttiva sono molto scarsi ed è probabile che sia attuata dagli Stati membri in modo tale da inibire (volenti o nolenti) i ricorsi effettivi. Chi si imbarcherebbe in un procedimento lungo e complesso presso l’Autorità delle Comunicazione per fare ripristinare su Youtube un video di una festa di compleanno in cui un ragazzino strimpellasse alcuni pezzi di un brano famoso ?
Se i ricorsi, come è probabile, saranno pochi e le rimozioni molte, saremo portati a ritenere il sistema un successo e ad estendere l’applicazione ad altri ambiti. Ma in realtà non sapremo quanti saranno i contenuti considerati falsamente positivi e rimossi. L’identificazione dei casi di predizione errata sarà certamente inficiata.
Non disporremo quindi di un modo efficace per correggere decisioni sbagliate in modo economico e tempestivo e, soprattutto, non otterremo una visione precisa dell’effettiva precisione dei sistemi.
Precisione e recupero
In statistica esistono due misure denominate Precisione e Recupero che ci indicano la qualità di funzionamento del classificatore. La Precisione è elevata quando è elevata la probabilità che il contenuto rimosso sia effettivamente una violazione del copyright (quante erano veramente violazioni, tra tutte quelle che abbiamo predetto?). Il Recupero è elevato quando un sistema che analizza molti contenuti è efficace nell’identificare i contenuti in violazione (di tutti i contenuti pirata che c’erano tra tutti i contenuti esaminati, quanti sono riuscito a riconoscerne ?).
Si tratta di una coperta corta. Ad un certo livello, se miglioro la precisione peggioro il recupero. E viceversa.
Si è portati a pensare che la cultura cinese abbia più a cuore il Recupero: l’importante è beccare tutte le violazioni che ci sono nei casi esaminati. Se poi tra i casi esaminati e giudicati ci va di mezzo qualche innocente, ci dispiace ma è per il bene della società.
I valori europei sono più interessati alla precisione: nessun innocente deve essere ingiustamente sanzionato.
Ecco allora che, nel nostro sistema di valori, per le decisioni che hanno un impatto sulla vita delle persone, diviene prioritario prevedere, sin dalle fasi di disegno, dei meccanismi volti ad aumentare la precisione complessiva, sia intervenendo sui classificatori che sulla sequenza dei sistemi di classificazione che nelle procedure operative che li sfruttano.
Le alternative possibili
Nel caso del Copyright, un’alternativa di Redress-by-design, ad esempio, avrebbe potuto essere attuata adottando una procedura diversa per gestire i falsi positivi, garantendo agli utenti la facoltà di opporsi immediatamente e con pochi clic alla decisione di bloccare la pubblicazione di un contenuto, forzandone la pubblicazione immediata su presentazione da parte dell’utente stesso di un meccanismo di verifica indiretta utilizzabile da un tribunale (più o meno come la verifica del numero di telefono da parte di un’applicazione di messaggistica o di una splash page wifi).
Non è sufficiente pensare ai tradizionali sistemi di redress in presenza di decisioni automatiche effettuate da macchine che usano modelli probabilistici per effettuare predizioni. Modelli che sappiamo che, anche se perfettamente programmati, forniscono una percentuale di predizioni errate.