Le nuove sfide poste dall’intelligenza artificiale necessitano di regole comuni, investimenti e di un vero cambiamento culturale che consentano di superare i dubbi sulla reale efficacia e sulla capacità umana di controllo degli algoritmi di machine learning.
Alle decisioni automatizzate di questi sistemi algoritmici, infatti, si affida un numero sempre maggiore di aziende private di ogni dimensione e di PA per semplificare e migliorare le scelte umane con l’obiettivo di ridurre errori ed incertezze – come evidenziati, tra gli altri, da un rapporto di AlgorithmWatch di gennaio 2019. I risultati, tuttavia, non sono sempre chiari e i cittadini sono sempre più disorientati di fronte agli scenari poco trasparenti, arbitrari e potenzialmente discriminatori proposti dagli algoritmi che potrebbero minare, nel tempo, la fiducia nel sistema e nelle istituzioni. Né è dato di sapere con chiarezza chi usa questi algoritmi e come.
Decisioni automatizzate, lo scenario globale
USA e Cina adottano da tempo sistemi di machine learning in grado di automatizzare le decisioni sulla base di algoritmi precostituiti: dai sistemi di riconoscimento facciale, al settore giudiziario passando per quello assicurativo, tutto è regolato dall’intelligenza artificiale e in Europa per certi aspetti le cose non sono molto differenti perché i sistemi automatizzati di supporto al processo decisionale sono in forte aumento e coprono la maggior parte degli aspetti della vita quotidiana. Non tutto però funziona a dovere: per questo è necessaria un’attenta riflessione sulle ripercussioni di un loro uso sempre più esteso.
Poco più di un mese fa, ad esempio, per un errore dell’algoritmo di classificazione di un software, circa mezzo milione di cittadini spagnoli si è visto negare un sussidio per l’elettricità adottato dal governo dopo la crisi del 2009 e rinnovato con nuovi criteri automatizzati a dicembre scorso.
Non è andata meglio a diverse migliaia di disoccupati svedesi che hanno perso il sussidio pur avendo tutti i requisiti a causa di un’errata valutazione da parte dei sistemi di AI che, dopo un’attenta analisi hanno evidenziato un’incidenza degli errori tra il 10 ed il 15 % delle domande analizzate.
Cosa dire poi di SyRI, il sistema di monitoraggio dei rischi sociali adottato dal governo olandese per contrastare possibili frodi al sistema centrale di welfare, che incrocia una moltitudine di banche dati ed attraverso l’AI restituisce informazioni alcune volte errate e comunque al limite inferiore della compliance normativa rispetto al GDPR.
Anche se questi strumenti sono certamente stati tutti sviluppati con le migliori intenzioni, gli errori e le discriminazioni che a volte commettono ci pongono in una posizione di scetticismo se non addirittura di preoccupazione.
Rimettere l’uomo al centro
È evidente che servano nuove regole, maggiore controllo e soprattutto è necessario riportare l’uomo anche nella sua veste di cittadino al centro dello scenario.
Ci sono diversi modi per farlo, come quello adottato di recente dalla città di New York che ha creato una commissione per identificare i sistemi di processo decisionale automatizzato usati dall’amministrazione e monitorarli attraverso criteri di obiettività, equità, correttezza e trasparenza. C’è anche chi propone di rendere totalmente open source tutti i sistemi decisionali soprattutto in ambito pubblico, ma si tratta di tentativi parziali e spesso motivati dal problema di fondo che circonda tutti i sistemi d’intelligenza artificiale: pochi di noi sanno in realtà di cosa si tratti, ma soprattutto nessuno è ancora riuscito a capire cosa succede nelle fasi di deep learning.
Servono quindi azioni di ampio respiro e in un periodo in cui si prevede che la spesa mondiale in sistemi di AI dei prossimi 4 anni supererà la cifra di 100 miliardi di dollari con una crescita del 25% annuo rispetto ad oggi, l’Europa avrà un ruolo determinante investendo oltre 20 miliardi che rispetto alla situazione attuale segnano un +35% di crescita annua con punte addirittura superiori nel settore sanitario.
L’importanza di fare sistema
Aldilà dei valori economici in campo è fondamentale che tutti gli organi politici comprendano la reale portata e l’influenza che i sistemi di decisione automatizzata porteranno nel rapporto con i cittadini e tra clienti-fornitori, ma finché tali soluzioni resteranno nascoste dentro aree grigie sempre più oscure per l’opinione pubblica, sarà difficile mantenere un minimo di equilibrio.
Gli investimenti da soli non bastano, anzi per assurdo rischiano di dare un’immagine di una corsa verso un Eldorado dai contorni molto inquietanti, piuttosto serve un approccio molto ampio che consenta ai cittadini di abituarsi alle nuove sfide tramite una vera e propria rivoluzione di pensiero nei confronti dell’AI.
La Finlandia da questo punto di vista è all’avanguardia e grazie a partenariati pubblico-privati ha attivato una piattaforma gratuita di alfabetizzazione sull’AI il cui obiettivo ambizioso è quello di formare ogni anno il 2% della popolazione per prepararsi al meglio alle prossime sfide tecnologiche ed individuare potenziali talenti che possano rendere il paese competitivo ed all’avanguardia nello sviluppo di tali soluzioni.
È però chiaro che strategie vincenti come quella finlandese seppur estremamente efficaci in termini d’impatto sulla popolazione locale, possono creare economie di scala solo se inquadrate in un contesto più organico come ad esempio quello dell’UE. Occorre quindi fare sistema e ridurre le differenze fra i diversi Stati partendo dal presupposto che anche tutti sistemi di decisione automatizzata non dovrebbero essere considerati come semplici soluzioni tecnologiche od elementi di ottimizzazione dei costi, ma vere e proprie soluzioni strategiche a sostegno della collettività.
Da questo punto di vista la dichiarazione congiunta sulla cooperazione per lo sviluppo di soluzioni di intelligenza artificiale dell’aprile 2018 da parte di 25 stati membri dell’UE ha segnato un primo passo verso quello che è stato il documento di strategia europea dal quale a sua volta è derivata la proposta italiana, redatta da una commissione di 30 esperti nazionali che in 9 capitoli hanno indicato a chiare lettere gli obiettivi nazionali da perseguire partendo dal ruolo della PA che dovrà garantire di essere all’altezza attraverso un processo di ammodernamento e di crescita nelle proprie competenze digitali sfruttando le eccellenze universitarie e dei centri di ricerca per formare nuove classi dirigenti preparate alle sfide, passando dall’esigenza di porre i sistemi d’intelligenza artificiale al servizio della forza lavoro attraverso l’adozione di un adeguato quadro normativo ed etico che consenta di diffondere la consapevolezza e la fiducia nella società civile.
Il gap dell’Italia e come colmarlo
I propositi nazionali sono certamente ambiziosi ed in più di una circostanza a livello politico si è posto l’accento sull’esigenza di un radicale cambio di marcia per tentare di colmare un divario che già oggi è abbastanza ampio rispetto ad alcune nazioni europee, ma purtroppo, almeno per il momento, l’Italia ha quote trascurabili di spesa nei sistemi d’intelligenza artificiale rispetto alla media europea che vede primeggiare Regno Unito, Germania e Francia i cui investimenti soprattutto nei settori finanziario, manifatturiero, sanitario e della Pubblica Amministrazione stanno delineando precise linee strategiche che portano alla costituzione di nuovi distretti produttivi per lo sviluppo di startup fortemente innovative nei confronti delle quali senza una rapidissima inversione di tendenza il divario per la nostra nazione rischia di diventare incolmabile.
Le soluzioni ci sarebbero, ma dipendono da una visione più organica dell’argomento che stenta a decollare, perlomeno nel nostro paese.
La digitalizzazione totale delle aziende è un processo estremamente complesso e lento che non può che avvenire per gradi. Un esempio lampante è quello del settore automotive che sta lentamente spostando una parte delle proprie attività dalle vendite all’utilizzo as a service per soddisfare le aspettative dei millenials che si stanno affacciando su questo mercato portandosi dietro la propria cultura legata all’uso dei beni e dei servizi piuttosto che al possesso degli stessi come accade per la nostra generazione.
A maggior ragione ed anche con una precisa strategia politica, al momento abbozzata solo sulla carta e nelle intenzioni, le pubbliche amministrazioni necessiteranno di tempi ancora più lunghi per passare ad una nuova fase completamente digitale sia per il lento ricambio generazionale, tipico della PA italiana, che per altre motivazioni tra cui in primis la mancanza di risorse economiche e finanziarie adeguate.
Se la privacy diventa vera e propria moneta
Nel mentre i sistemi di decisione automatizzata continuano a proliferare in mezzo all’incertezza ed ai dubbi sulla loro totale imparzialità, nonostante il GDPR provi ad inserire dei paletti a tutela dei nostri dati personali ormai quotidianamente divorati da qualsiasi piattaforma digitale a tal punto che c’è chi sostiene che nel giro dei prossimi 10 anni la nostra privacy potrà essere considerata moneta di scambio per effettuare piccoli acquisti.
Alcuni piccoli esempi sono già in atto in Giappone e Stati Uniti, dove una catena di bar giapponese offre agli studenti di pagare il conto in cambio dei propri dati. Shiru Cafe, questo è il nome della catena, apre i propri negozi solo nei pressi delle università ed ha come obiettivo la profilazione degli studenti per indirizzare le informazioni a sponsor che a loro volta fanno tesoro di questi dati come nel caso di JP Morgan che ha selezionato il 40% dei propri neoassunti giapponesi grazie alle preziose informazioni ottenute con i sistemi di machine learning forniti dalla catena di bar.
È probabile che gli scenari futuri non si discosteranno molto da questo esempio, per questo motivo sono necessarie nuove regole sulla scia ad esempio del GDPR che da oltre un anno sta facendo scuola a livello mondiale e sta tentando di indicare un percorso entro il quale muoversi a tutela delle nostre informazioni personali. AlgorithmWatch fa notare altre lacune normative, per esempio è difficile scoprire chi sta usando gli algoritmi di decision making (se non agendo con insistenza con richiesta di accesso agli atti via Foia); e il Gdpr non protegge verso le decisioni automatizzate fatte per motivi di polizia, né verso quelle fatte da esseri umani influenzati dagli algoritmi.
Il GDPR non è perfetto e presto andrà rivisto proprio nell’ottica di questi sviluppi futuri, ma già oggi indica un passaggio obbligato rispetto alla profilazione dell’utente/cittadino, soprattutto all’art. 22 nel quale si parla proprio di processi decisionali automatizzati e del diritto del cittadino di non essere sottoposto a decisione basata unicamente sul trattamento automatizzato a meno che non sia:
- necessario per la conclusione di un contratto,
- sia autorizzato dal Diritto dell’UE o
- si basi sul consenso esplicito dell’interessato.
Su questi tre ultimi aspetti ci giocheremo una buona parte dei diritti legati al nostro rapporto con gli algoritmi, da cittadini europei abbiamo una piccola base di partenza, non perfetta ma molto chiara, starà a noi renderla una solida struttura a difesa del patrimonio delle nostre informazioni.