La Commissione europea ha proposto di recente nuove regole e azioni volte a trasformare l’Europa nel polo mondiale per un’intelligenza artificiale affidabile. Il Parlamento Europeo adesso sta lavorando su tale proposta, ma ha sempre avuto ben presente la problematica tant’è vero che in anticipo sulla proposta della Commissione sull’intelligenza artificiale, aveva costituito la commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) per analizzare l’impatto dell’IA sull’economia dell’Unione europea.
Regolare l’IA? Operazione molto filosofica. Tutti i temi sul tavolo
La nozione di IA nella proposta della Commissione
Ma cerchiamo, adesso di capire cosa intende la Commissione nella sua proposta per intelligenza artificiale, considerato che spesso si fa confusione sulla reale interpretazione di tale termine. La problematica è ben nota alla Commissione, difatti già il considerando 6 della proposta specifica che “la nozione di sistema di IA dovrebbe essere chiaramente definita per garantire la certezza del diritto, fornendo nel contempo la flessibilità necessaria per accogliere i futuri sviluppi tecnologici. La definizione dovrebbe essere basata sulle caratteristiche funzionali chiave del software, in particolare la capacità, per un dato insieme di obiettivi definiti dall’uomo, di generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano l’ambiente con cui il sistema interagisce, sia in una dimensione fisica che digitale. I sistemi di intelligenza artificiale possono essere progettati per funzionare con diversi livelli di autonomia ed essere utilizzati in modo autonomo o come componente di un prodotto, indipendentemente dal fatto che il sistema sia fisicamente integrato nel prodotto (incorporato) o serva la funzionalità del prodotto senza esservi integrato (non incorporato)”.
Partendo, quindi, da tali considerazioni l’art. 3 della proposta definisce il sistema di “intelligenza artificiale” come il software sviluppato con una o più tecniche e approcci elencati nell’allegato I e che può, per una data serie di obiettivi definiti dall’uomo, generare risultati quali contenuto, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono.
Dall’analisi del considerando ed anche dall’analisi della stessa definizione sembra che la Commissione europea voglia accogliere una definizione piuttosto circostanziata di intelligenza artificiale delimitandone con una certa precisione i confini, invece quando esaminiamo l’allegato I richiamato dalla definizione scopriamo che si fa riferimento sia ad approcci tipici del machine learning, compreso l’apprendimento supervisionato, non supervisionato e profondo come il deep learning; sia ad approcci basati sulla logica e sulla conoscenza, tra cui rappresentazione della conoscenza, programmazione (logica) induttiva, basi di conoscenza, motori deduttivi e inferenziali, ragionamento (simbolico) e sistemi esperti nonché persino approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione.
IA “forte” e IA “debole
Probabilmente la Commissione al fine di evitare problematiche interpretative ha voluto ampliare al massimo la nozione di intelligenza artificiale ricomprendendo in essa sia l’intelligenza artificiale forte, intesa a duplicare la mente negli elaboratori, cioè a creare computer in grado di comprendere e di possedere stati cognitivi che l’intelligenza artificiale debole intesa a realizzare sistemi informatici capaci di prestazioni normalmente attribuite all’intelligenza umana, pur senza assumere alcuna analogia tra le menti e i sistemi informatici.
D’altro canto, definire l’intelligenza artificiale è arduo quanto definire l’intelligenza naturale e benché molte siano state le definizioni date dai vari studiosi, tutte portano ad una sola conclusione: la ricerca nel settore dell’intelligenza artificiale non può prescindere dai risultati raggiunti dalla ricerca in altre discipline: ad esempio è impossibile far capire al computer un linguaggio naturale senza uno studio della sintassi e della semantica di quel linguaggio.
Le attività intelligenti si basano su un impiego attivo, non rigidamente predeterminato, della conoscenza. Di qui l’esigenza di sviluppare un nuovo tipo di sistemi informatici, i cosiddetti sistemi basati sulla conoscenza, mediante i quali ci si propone di usare in modo intelligente le informazioni, trasformando i dati in conoscenza.
I programmi informatici tradizionali, pur non essendo basati sulla conoscenza, ne incorporano una, essi difatti non sono altro che la descrizione della procedura (l’algoritmo), per svolgere un certo compito, e possono essere sviluppati solo tenendo conto delle caratteristiche di quel compito.
Caratteristiche dei sistemi informatici tradizionali e dei sistemi basati sulla conoscenza
È possibile, quindi, a questo punto per tracciare meglio i confini, delineare delle differenze tra i sistemi informatici tradizionali e quelli basati sulla conoscenza.
Nei sistemi informatici tradizionali:
- la conoscenza non è mai rappresentata esplicitamente e non è mai separata dalle procedure che la usano e che ne disciplinano l’elaborazione;
- la conoscenza è applicata in modo rigidamente predeterminato;
- non è possibile aggiungere nuova conoscenza senza modificare le procedure;
- il sistema non è in grado di esporre la conoscenza sulla quale si basa né di spiegare perché, sulla base della stessa, sia giunto a determinati risultati.
Invece, nei sistemi basati sulla conoscenza:
- la conoscenza è contenuta in una determinata base, dove è rappresentata in un linguaggio ad alto livello, cioè in una forma relativamente vicina al linguaggio usato nella comunicazione umana. È possibile adottare una rappresentazione dichiarativa del compito affidato al sistema informatico, lasciando al sistema l’individuazione della procedura da seguire per svolgere quel compito;
- la conoscenza è usata da un motore inferenziale, ovvero un meccanismo in grado di interpretare il contenuto della base di conoscenza ed effettuare deduzioni logiche in modo da risolvere il problema posto al sistema;
- la base di conoscenza può essere arricchita di nuove informazioni senza intervenire sul motore inferenziale;
- il sistema è in grado di esporre in forma comprensibile le premesse e le inferenze che hanno condotto ad un determinato risultato, cioè di giustificare le conclusioni cui giunge.
I sistemi basati sulla conoscenza sono spesso completati da interfacce che agevolano l’interrogazione e la preparazione della base della conoscenza.
In definitiva essi sono costituiti da tre componenti fondamentali:
- la base di conoscenza;
- il motore inferenziale;
- le interfacce, rivolte tanto all’utente quanto all’ingegnere della conoscenza (autore del programma).
Il sistema “esperto”
Il sistema esperto, richiamato nella definizione dalla Commissione europea, non è altro che un sistema basato sulla conoscenza in grado di eseguire compiti che richiedono conoscenza specializzata, possono essere svolti solo da esperti o da persone dotate di notevoli competenze. Il sistema esperto è quindi composto da due elementi:
- un elemento strutturale, in ragione del quale il sistema è basato sulla conoscenza, cioè si compone di una base di conoscenza distinta dal motore inferenziale;
- un elemento funzionale, in ragione del quale il sistema deve essere in grado di fornire prestazioni che richiedano notevoli competenze.
I sistemi esperti, quindi, sono programmi in cui l’utente interagisce in un dialogo simile a quello che si svolgerebbe con un esperto umano, al quale è stato esposto un problema e al quale vengono rivolte domande sulle soluzioni proposte. Tali sistemi possono essere visti come intermediari tra gli esperti umani, che interagiscono con il sistema nell’acquisire conoscenza, e l’utente umano che interagisce con il sistema nella consultazione.
Le reti neurali
Ma come abbiamo visto la Commissione europea ricomprende nella nozione di IA anche
forme più evolute di intelligenza artificiale e cioè c.d. reti neurali e quindi il machine learning. Difatti, il dibattito delle scienze cognitive è tutt’oggi aperto, ponendo in dubbio l’esistenza di un sistema simbolico mentale quale causa dei processi cognitivi, ed attribuendo ad esso il ruolo di procedimento euristico, mezzo per la predizione dei comportamenti quotidiani della persona. Il sistema simbolico viene concepito come un modello adatto a descrivere grossolanamente e macroscopicamente il comportamento umano, non però il suo reale funzionamento a livello neuronale.
Le reti neurali differiscono in modo radicale e per diversi aspetti dai tradizionali modelli di intelligenza artificiale. Le principali differenze derivano dal presupposto che le reti apprendono, non conoscono già le regole ma si modellano, attraverso un algoritmo di apprendimento, in modo tale da comportarsi come se conoscessero le regole, alla fine dell’apprendimento. Quale sarà il risultato finale del procedimento d’apprendimento è imprevedibile per il programmatore stesso: il programmatore non può prevedere l’evoluzione della rete. Ma una volta terminato l’apprendimento la rete diventa stabile e la sua configurazione non cambia più. Esse simulano quindi il funzionamento del cervello umano e animale, che riesce a trovare la soluzione ai vari problemi semplicemente basandosi sull’esperienza del passato.
Le reti neurali artificiali si inseriscono in qualche modo nell’ampia tematica dell’intelligenza artificiale e ne costituiscono un’evoluzione innovativa; è innegabile che lo stimolo alla realizzazione delle reti neurali artificiali provenga dal desiderio di riprodurre sistemi di elaborazione “intelligenti”, simili, per prestazioni e comportamento, all’uomo, le cui azioni sono governate dal cervello. Naturalmente tale concezione è alla base del funzionamento dello stesso machine learning.
In realtà temo che una definizione così ampia di intelligenza artificiale contenuta in tale proposta possa estendere considerevolmente la portata applicativa del Regolamento ricomprendendo sistemi informatici più o meno evoluti che non possiedono le peculiarità tipiche dei sistemi di IA.
Regolamentazione dell’IA e competitività del mercato
Altra osservazione che nasce dall’esame della proposta comunitaria è che finalmente la Commissione supera quelle resistenze potremo dire “storiche” relative alla regolamentazione dell’IA. Difatti, sebbene un contesto normativo trasparente sia visto come un elemento chiave per lo sviluppo di sistemi informatici intelligenti di mercato, in cui prodotti e servizi possono essere distribuiti senza problemi, c’è il forte timore da parte di molti che una legislazione prematura e invadente possa ostacolare il progresso scientifico ed annullare potenziali vantaggi o peggio ancora causare inefficienze economiche o altro. Allo stesso tempo, in qualche modo paradossalmente, si ammette che la mancanza di un ambiente giuridico affidabile e sicuro possa ugualmente ostacolare l’innovazione tecnologica. Tale difficile situazione mina sicuramente la certezza del diritto ed induce la gente ad agire in un settore ambiguo in cui i diritti e le responsabilità non sono preventivamente individuabili.
Leggi e regolamenti nel settore dell’IA sono fondamentali anche per consentire un effettivo sviluppo di un mercato competitivo. L’ambizione dell’Unione europea di promuovere l’innovazione nel mercato interno fa dell’IA un settore strategico, a cui le istituzioni europee stanno dedicando una notevole attenzione. Allo stesso tempo la ricerca e la produzione industriale nel campo della stessa intelligenza artificiale e della robotica devono crescere in linea con l’obiettivo complementare, che è sancito dalla politica europea, di affermarsi come uno spazio di libertà, sicurezza e giustizia.
Gli obiettivi concorrenti di proteggere i consumatori e più in generale gli utenti finali da effetti pregiudizievoli promuovendo contemporaneamente l’innovazione devono quindi diventare propri del legislatore. A questo proposito, il sistema normativo più efficace deve combinare più strumenti: norme giuridiche, norme e standard tecnici, codici di condotta e best practices. In questo modo sarà davvero possibile garantire la certezza, la flessibilità, la precisione ed anche l’interpretazione più corretta di fronte a determinati dubbi.
L’approccio al rischio nella proposta Ue
Nell’ottica proprio della tutela dei diritti fondamentali dei cittadini interessante è anche l’approccio al rischio individuato dalla Commissione come presupposto fondamentale per la regolamentazione della materia.
In particolare si fa riferimento a 4 tipologie di rischio:
Rischio inaccettabile
I sistemi di IA considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale”.
Rischio alto
Sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata:
- in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
- nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
- in componenti di sicurezza dei prodotti (ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot);
- nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione);
- in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito);
- in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove);
- nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio);
- nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti);
- nei sistemi di identificazione biometrica remota.
- I sistemi di IA ad alto rischio saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato: adeguati sistemi di valutazione e attenuazione dei rischi;
- elevata qualità dei set di dati che alimentano il sistema, per ridurre al minimo i rischi e i risultati discriminatori;
- registrazione delle attività per garantire la tracciabilità dei risultati;
- documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sulle sue finalità affinché le autorità possano valutarne la conformità;
- informazioni chiare e adeguate per l’utente;
- appropriate misure di sorveglianza umana, per ridurre al minimo i rischi;
- elevato livello di robustezza, sicurezza e accuratezza.
Rischio limitato
Ossia sistemi di IA con specifici obblighi di trasparenza: quando utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no.
Rischio minimo
La proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’IA. La grande maggioranza dei sistemi di IA rientra in questa categoria. Il progetto di regolamento non interviene in questo caso, poiché questi sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.