La lettura

Il nuovo dialogo tra umano e macchina si fonda sulla privacy: ecco perché

Occorre un dialogo con le macchine: ma il controllo dell’IA da parte dell’umano porta con sé il paradosso dell’essere controllati. Solo la privacy può essere la quadra per il dilemma. Un estratto dal libro “Decisioni Algoritmiche. Equità, causalità, trasparenza”

Pubblicato il 02 Mag 2022

Giuseppe D'Acquisto

Funzionario del Garante per la protezione dei dati personali, Titolare dell’insegnamento di intelligenza artificiale presso il Dipartimento di Giurisprudenza dell’Università LUISS Guido Carli

L'AI rende funzionale il lavoro senza violare la privacy

In uno scenario dominato dall’intelligenza artificiale, non sembra esserci spazio per la dimensione umana.

  • I tempi di decisione dell’uomo appaiono troppo lenti se confrontati con quelli delle macchine.
  • La complessità di processamento dei dati a cui può giungere un algoritmo è incomparabilmente superiore rispetto alla nostra limitata capacità mnemonica e computazionale.
  • E forse non sono neppure necessarie teorie generali che provino a spiegare con l’eleganza e la sintesi della matematica e della logica ciò che accade intorno, dal momento che possiamo misurare in ogni momento qualsiasi genere di probabilità congiunta tra stati del mondo osservato e da queste fare discendere analisi non soltanto multivariate, come da sempre la statistica ha fatto, ma oggi addirittura causali tra fenomeni.

I volumi dei dati e le prestazioni delle macchine stanno esercitando una pressione sugli argini di difesa che abbiamo costruito attorno ai concetti di decisione e di teoria che sembra destinata a prevalere rispetto alla tenuta di questi stessi argini, se non già oggi di sicuro domani.

Intelligenza artificiale, l’Europa si scontra sulle regole: ecco i nodi

La macchina deve agire da sola per il bene del mondo

È più probabile che attraverso l’analisi dei dati effettuata con sistemi di intelligenza artificiale e non attraverso una teoria sviluppata dall’intelletto dell’uomo riusciremo a venire a capo di alcuni grandi problemi ancora irrisolti: l’affrancamento dell’uomo rispetto alla fatica fisica o alla ripetitività di certi lavori ma anche la cura delle malattie più letali e il superamento delle future pandemie, la riduzione dell’inquinamento, il miglioramento dei trasporti, o ancora l’approvvigionamento idrico ed energetico per l’umanità.

L’intelligenza artificiale, sostanzialmente attraverso un approccio “a forza bruta”, che passa in rassegna tutte le opzioni possibili in cerca di quella migliore, ci consente di fare quel passo in avanti di conoscenza sul mondo che il nostro intelletto, in un mondo così complesso, non sempre è in grado di fare.

Dunque, se vogliamo questi benefici, la macchina dovrà agire da sola, in autonomia rispetto all’intervento dell’uomo, perché soltanto a quella scala di velocità di processamento e di volumi di dati questi benefici appaiono, e soltanto dopo aver scartato moltissime alternative improduttive.

Se l’uomo prova con la sua “lentezza” a cercare una strada tra i dati, è soltanto destinato a perdersi, oppure a intralciare l’operato della macchina allontanando il raggiungimento dell’obiettivo.

C’è, potremmo dire, un mondo lento, che è il mondo nel quale oggi ancora viviamo, all’interno del quale l’uomo è vulnerabile in molti aspetti della propria esistenza, e ci sarà, e in parte c’è già, un mondo veloce nel quale attraverso il trattamento dei dati (ci si aspetta che) l’uomo sarà meno vulnerabile. Per traghettare l’umanità in questo nuovo mondo è necessario l’intervento di macchine autonome.

Questo scenario induce un importantissimo e concretissimo problema regolatorio: come fare in modo, con regole costruite oggi, che domani questo traghettamento abbia successo? Come intervenire oggi, con scelte che non impediscano lo sviluppo delle tecnologie, per individuare i giusti obiettivi da dare a macchine che dovranno perseguirli in autonomia?

Controllo dell’IA: i limiti dell’approccio sulla prevalenza dell’intervento umano

La risposta a questi interrogativi, per nulla semplice, ha due possibili declinazioni, che non si escludono a vicenda: un approccio giuridico, fondato su norme e regole comportamentali a cui sviluppatori e utilizzatori di sistemi di intelligenza artificiale devono attenersi per mitigare i rischi di risultati contro l’uomo, e uno tecnologico, fondato sull’idea di poter esercitare in ogni momento un controllo umano sull’operato di macchine intelligenti e autonome in modo da confinarne la condotta all’interno di “zone franche” nelle quali siano preservati i valori umani (di equità, di trasparenza ad esempio) e sia mantenuto un certo dominio dell’uomo sulla macchina.

Entrambi gli approcci scontano un’antinomia di fondo con cui bisognerà fare i conti: o i sistemi di intelligenza artificiale sono caratterizzati da autonomia decisionale, e come tali in grado di farci traghettare verso questo mondo nuovo, oppure non lo sono, l’azione della macchina rimane servente rispetto all’uomo, e dunque ne eredita i limiti e la lentezza, e il traghettamento non può avere luogo.

Entrambi gli approcci intendono salvare il risultato, ossia traghettare il vecchio mondo nel nuovo, sacrificando o limitando ciò che è il presupposto stesso del risultato, ossia l’autonomia decisionale della macchina.

Sul piano giuridico è noto il tentativo che sta facendo la Commissione Europea di disciplinare l’utilizzo di sistemi di intelligenza artificiale attraverso un Regolamento europeo, presentato proprio un anno fa, che prevede obblighi differenziati per sviluppatori e utilizzatori in ragione del livello di rischio presunto per i diritti e le libertà individuali che potrebbe derivare dall’uso di sistemi di intelligenza artificiale. Il dibattito è attualmente in corso e coinvolge varie istituzioni europee. Se ne è parlato molto anche su agendadigitale.

Sia consentita questa volta una breve riflessione sul tema del controllo dell’intelligenza artificiale per via tecnologica. Controllare un sistema di intelligenza artificiale significa “riservarsi l’ultima parola” sul risultato di un algoritmo prima che questo determini i propri effetti sulla persona a cui si rivolge, oppure mantenersi la libertà di spegnere la macchina se questa sta per produrre risultati che potrebbero risultare dannosi per un individuo o per la collettività.

È il concetto di “intervento umano”, già previsto come forma di tutela in diverse norme dell’Unione europea (ad esempio, nell’art 22 del Regolamento generale in materia di protezione dei dati personali).

È un atteggiamento cautelativo i cui effetti sono noti: mantenere il controllo umano sulle decisioni consente infatti di ottenere decisioni fondate su valori socialmente condivisi e accettati (l’equità, la trasparenza).

Si tratta però di un’opzione valida per situazioni semplici, ossia per algoritmi decisionali non particolarmente complessi, che magari operano su pochi dati e all’interno di un contesto interamente noto e determinato.

Peraltro, l’intervento umano non scongiura la possibilità che, per regioni legate ai limiti computazionali dell’uomo, alla sua conoscenza imperfetta sui fenomeni, oppure per scelta deliberata, si possano comunque verificare casi di decisioni o giudizi arbitrari e persino discriminatori.

Nei casi più complessi, in cui la decisione deve essere assunta in un contesto non pienamente determinato, in presenza di rilevanti moli di dati o attraverso l’impiego di modelli matematici non elementari, questo approccio cautelativo potrebbe non essere così efficace, e l’idea della prevalenza assoluta dell’intervento umano potrebbe tradursi in un vero e proprio freno nei confronti dell’impiego delle tecnologie come strumento di ausilio alle decisioni per l’uomo. Un segnale di sfiducia pregiudiziale nei confronti dello sviluppo tecnologico che potrebbe compromettere nel lungo termine il progresso stesso della ricerca scientifica.

 

Da https://www.giappichelli.it/decisioni-algoritmiche

Controllo dell’IA: dalla sostituzione al dialogo con la macchina

Si pone dunque il problema di individuare una forma di intervento umano compatibile con questo scenario di progresso tecnologico. Detto in altri termini, si pone per l’uomo il problema di esercitare un dominio sulla tecnologia, quando questa si mostra autonoma e potenzialmente “più intelligente” dell’uomo stesso e di indirizzarne l’impiego verso decisioni che siano di beneficio per l’uomo e che non gli si ritorcano contro.

Questo problema era stato già intuito dai padri fondatori dell’intelligenza artificiale. È celebre, a questo proposito, la frase scritta da Norbert Wiener, uno dei pionieri dell’intelligenza artificiale, già nel 1960 “If we use, to achieve our purposes, a mechanical agency with whose operation we cannot interfere effectively … we had better be quite sure that the purpose put into the machine is the purpose which we really desire”.

In situazioni più complesse, il controllo dell’uomo nei confronti di macchine intelligenti e capaci di assumere decisioni e formulare giudizi in autonomia non si risolve dunque sostituendo l’uomo alla macchina “quando ci accorgiamo che le cose non vanno bene”.

Il paradigma dell’autonomia decisionale della macchina

Il paradigma dell’autonomia decisionale della macchina potrebbe infatti rendere difficile, se non impossibile, per l’uomo accorgersi di quando le cose stanno per andare male in modo da intervenire.

Il problema è più articolato e non sempre, salvo i casi più semplici, possiamo aspettarci che l’ambiente o un algoritmo ci segnalino esplicitamente, magari con una sirena o con un segnale acustico di allarme di modo che non ci si sbagli, che stiamo per entrare in un’area di rischio.

Il problema del controllo a cui la comunità scientifica sta oggi dedicando i suoi sforzi riguarda il caso di macchine che operino in piena autonomia e senza l’intervento dell’uomo per raggiungere gli obiettivi che noi chiediamo loro di raggiungere, ma in modo “critico”, ossia ammettendo variazioni di condotta o fissando dei limiti invalicabili nel caso in cui questi obiettivi confliggano con interessi, oppure diritti individuali o collettivi, superiori. Questa condotta critica è un primo accenno alla realizzazione di una sorta di “coscienza” da parte delle macchine sul proprio stesso operato.

È un obiettivo molto difficile da raggiungere che richiede uno sforzo di concettualizzazione e di formalizzazione di molti atteggiamenti dell’uomo che, sebbene ci sembrino funzionare efficacemente e senza sforzo nelle relazioni tra uomini, non così facilmente si prestano ad essere definiti in grandezze oggettive e misurabili e ad essere espresse in un linguaggio formale comprensibile da una macchina.

Il percorso di avvicinamento tra uomo e macchina

Il primo passo di questo percorso di avvicinamento tra uomo e macchina è rappresentato da un allineamento tra i valori dell’uomo e le capacità di una macchina autonoma di andare oltre la semplice esecuzione di un comando. Possiamo pensare a diversi gradi di allineamento e, per farlo, può essere utile ricorrere a una esemplificazione.

Immaginiamo di impartire alla nostra automobile un comando di arresto allo stesso modo in cui oggi dialoghiamo con un assistente vocale domestico. A seconda del livello di autonomia della macchina possono presentarsi diversi casi. Una macchina “incosciente” (come quelle attuali) eseguirebbe immediatamente il comando fermandosi e non tenendo conto del contesto circostante. Ciò potrebbe determinare un rischio per i passeggeri ma anche per soggetti terzi, dal momento che l’arresto dell’autovettura potrebbe avvenire nel mezzo di un’autostrada in presenza di altre automobili che si muovono ad elevata velocità e i cui conducenti potrebbero non avere un tempo di reazione sufficiente per evitare uno scontro.

Una macchina più consapevole del contesto potrebbe cercare il momento migliore e la situazione meno rischiosa per fermarsi (ad esempio in una piazzola di sosta e dopo avere atteso il passaggio delle macchine più veloci). Oppure, proseguendo nel livello di autonomia, potremmo pensare a una macchina che sia capace di interpretare “la ragione” per cui il conducente ha chiesto di fermarsi, ad esempio per cenare o per trovare un albergo, e che cerchi la migliore destinazione per soddisfarne le preferenze.

Man mano che proseguiamo nella scala dell’autonomia, maggiore diventa l’astrazione del comando. Questo è molto assertivo e specifico nel caso di una macchina semplice e inconsapevole, mentre diventa un obiettivo da soddisfare nello scenario a massimo livello di autonomia in cui la macchina è persino capace di prevedere le intenzioni dell’uomo.

Dobbiamo dunque assumere che al crescere del livello di autonomia esista una gerarchia di concetti condivisi tra l’uomo e la macchina che consenta questa astrazione: per soddisfare una necessità o un desiderio dell’uomo, la macchina deve conoscere l’ambiente circostante (nell’esempio dell’automobile, la posizione e la velocità degli altri autoveicoli, il ristorante più vicino, ecc.) ed eseguire alcuni comandi (azionare l’acceleratore e il freno, manovrare il volante) in modo da arrivare nel punto in cui queste necessità potranno essere soddisfatte.

Affinché la macchina sia in grado di effettuare questa astrazione dei comandi dobbiamo anche assumere che sia avvenuto un dialogo preliminare tra la macchina e l’uomo durante il quale quest’ultimo ha spiegato in qualche modo le proprie necessità alla macchina, accordandosi sulle modalità per raggiungere un determinato obiettivo.

L’allineamento tra valori dell’uomo e capacità della macchina

Questo allineamento tra valori dell’uomo e capacità della macchina è un processo di learning che richiede un “precettore”, l’uomo, che abbia chiare le proprie necessità, un “apprendista”, la macchina, che abbia la capacità di soddisfarle, un protocollo di comunicazione tra uomo e macchina per tradurre in modo oggettivo queste necessità in azioni concrete tra quelle consentite alla macchina, e naturalmente un certo tempo per affinare questa approssimazione tra concetti astratti (sono stanco e voglio fermarmi a cenare) e azioni concrete (aziono il freno, l’acceleratore e il volante per portare il passeggero al punto in cui quel desiderio può essere soddisfatto).

Realisticamente sarà un processo molto lento, costellato da molti errori e da ripensamenti e che dovrà fare i conti con la razionalità parziale dell’uomo nello svolgere questo ruolo di “precettore”, ma che verosimilmente procederà perché, con i tassi di crescita che già oggi sperimentiamo per le prestazioni delle tecnologie e per la quantità di dati che viene costantemente generata, ogni altra ipotesi di controllo che non contempi un elevato grado di autonomia decisionale da parte delle macchine genererebbe prima o poi un conflitto tra progresso della scienza e regolamentazione delle tecnologie.

È attraverso un processo di astrazione di questo tipo che l’uomo stesso è giunto a concetti come quello del diritto o dell’etica. Lo ha fatto con “lentezza” e senza porsi il problema della dimostrabilità matematica e della misurabilità degli effetti di ogni decisione. Oggi il progresso tecnologico ci obbliga a ripercorrere quei passi che hanno condotto alla costruzione dei valori che orientano le scelte dell’uomo, e che hanno richiesto secoli per il loro consolidamento, molto più velocemente e con un approccio orientato al calcolo e alla dimostrazione logico-formale per tradurre quei concetti in “oggetti misurabili” e perciò idonei a essere incorporati all’interno degli algoritmi.

Controllo dell’IA: l’importanza della privacy

La possibilità di esercitare un controllo sulle macchine autonome passa dunque per la conoscenza, o per la scoperta, delle preferenze dell’uomo da parte della macchina. Ciò dà luogo ad un paradosso di difficile soluzione: l’uomo deve rendersi sempre più osservabile per poter esercitare un controllo sulle decisioni assunte da un algoritmo.

Il controllo di una macchina intelligente, sempre più intelligente a tal punto da esserlo forse in certi ambiti più dell’uomo, è possibile se la macchina ci scruta in ogni nostro movimento e anticipa (per il nostro bene) ogni nostra prossima mossa. In questo paradosso, nel quale siamo dominanti sulla macchina se siamo da questa costantemente vigilati, le corde che vengono toccate sono molto intime e i valori in gioco sono molto preziosi e riguardano la libertà e il libero arbitrio dell’uomo rispetto a ogni volontà esterna.

Questo scrutinio dei comportamenti umani, così necessario per garantirci il dominio su una macchina a tal punto intelligente, non potrà avvenire a spese della libertà di scelta dell’uomo.

La relazione uomo-macchina per poter consistere in uno sviluppo e non in un conflitto dovrà essere costruita in un quadro di totale fiducia rispetto alle potenzialità delle tecnologie.

La privacy, ossia in pochissime parole, la libertà rimessa a ciascuno di mostrare di sé ciò che vuole, sarà fondamentale (forse la questione più importante) per individuare la giusta quantità di informazioni da trasferire alla macchina, e il protocollo da impiegare per questo trasferimento, al fine di conciliare i benefici che sicuramente trarremo dalle accresciute capacità decisionali degli algoritmi in un mondo sempre più complesso e l’irrinunciabile libertà dell’uomo nell’impiego delle tecnologie.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Analisi
Video
Iniziative
Social
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati