La fiducia dei consumatori e dei cittadini è diventata un valore vie più rilevante nei tempi speciali che stiamo vivendo, ora che abbiamo la possibilità e l’onere di ricostruire la nostra economia in modo più responsabile e sostenibile, dopo la crisi pandemica.
Coloro che sono pronti a dar prova di leadership dovrebbero pertanto assicurarsi, sia nel mondo imprenditoriale, sia nelle istituzioni e nella società civile, che le rispettive organizzazioni comprendano il potenziale e i rischi dell’intelligenza artificiale, e dispongano di un quadro di riferimento solido perché tali tecnologie possano contribuire a raggiungere obiettivi ambiziosi di sostenibilità, rispettando al contempo i diritti della persona. Questo è il momento di unire le forze e costruire un mondo migliore per il futuro.
Ed è anche per questo che il recente riconoscimento, da parte della Pontificia Accademia per la Vita, di Euroconsumers, insieme ad organizzazioni private come Microsoft e IBM e Istituzioni come la FAO e il Ministero per l’Innovazione italiano, quali ambasciatrici della Rome Call for AI Ethics, per promuovere e incarnare con i loro stessi comportamenti un approccio etico ed antropocentrico all’intelligenza artificiale è per me motivo di personale orgoglio.
Un’IA in linea coi valori Ue
Come è noto, dopo intense discussioni, consultazioni con gli stakeholders e ampi lavori preparatori, il 21 aprile di questo anno la Commissione europea ha finalmente pubblicato l’attesa proposta di Regolamento intesa ad istituire un quadro giuridico uniforme per quanto riguarda lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale in conformità ai valori dell’Unione europea. In tale ottica, è stato approntato in essa un approccio basato sul rischio, suddiviso in quattro livelli decrescenti e proporzionati di regole vincolanti, a seconda delle ripercussioni negative che potrebbero avere determinate applicazioni di intelligenza artificiale sulla sicurezza delle persone e sui loro diritti fondamentali. Al primo livello, previsto per sistemi di IA il cui rischio è ritenuto inaccettabile per l’Ordinamento europeo, corrispondono pertanto alcuni precisi divieti, per quanto concerne ad esempio: quei sistemi di IA che utilizzino tecniche subliminali al fine di falsare in misura rilevante il comportamento delle persone; quelli che sfruttino abusivamente vulnerabilità legate all’età o alla disabilità di particolari gruppi di persone; o anche l’uso dei cosiddetti sistemi di social scoring da parte di pubbliche autorità, per valutare o classificare l’affidabilità delle persone sulla base del loro comportamento sociale o caratteristiche della loro personalità. Al secondo livello ci sono i sistemi di IA il cui rischio è ritenuto elevato ed il cui utilizzo sarà possibile solo a seguito di una preventiva valutazione di conformità e nel rispetto di precisi requisiti obbligatori, in questa categoria rientrano ad esempio tutti i sistemi di identificazione biometrica remota. Infine, vi sono le applicazioni di IA con rischio basso o minimo, per le quali si prevedono ad ogni modo specifici obblighi di trasparenza, affinché i consumatori siano adeguatamente informati e resi consapevoli del fatto che stanno interagendo con una macchina.
Garantire la certezza del diritto
Come spesso accade, dalla pubblicazione della proposta della Commissione europea è scaturito un ampio dibattito, questo ovviamente anche in considerazione del fatto che l’iter per l’approvazione definitiva è ancora lungo e che quindi i diversi stakeholders si impegneranno legittimamente a cercare di ottenere questa o quella modifica in linea con la massimizzazione degli interessi delle loro constituencies. Alcuni, in particolare, hanno sottolineato che il carattere spesso troppo ampio o vago costituisca un limite in molte parti della proposta, per quanto concerne la sua capacità prospettica di garantire la certezza del diritto in un ambito così delicato per i diritti fondamentali dei cittadini, senza fornire loro garanzie sufficienti che l’eventuale danno possa essere efficacemente identificato, impedito e/o risarcito. Si sono però anche sollevate voci di altri esperti che, per converso, hanno segnalato come l’ampiezza della categoria dei sistemi di IA riconosciuti come a rischio elevato determini una eccessiva onerosità in capo ai soggetti che saranno tenuti a rispettarne rigorosamente i connessi obblighi. In realtà, è convinzione di chi scrive che, al lordo di necessarie ed opportune modifiche in alcuni aspetti specifici, che saranno auspicabilmente apportate prima della sua approvazione finale, la proposta della Commissione europea sia solida e robusta e, quindi, adeguata a poter conferire quella fiducia necessaria a promuovere uno sviluppo dei sistemi di IA utili per la vita degli individui e per la società in generale.
La “terza via” della Ue tra Usa e Cina
Ma dietro a questo approccio normativo europeo etico ed antropocentrico all’IA vi è probabilmente di più. Nel suo richiamare con forza i valori fondamentali dell’Unione, stressandone gli aspetti di necessaria fiducia e affidabilità per il cittadino, così come di trasparenza, accuratezza, solidità e non discriminazione, non si può evitare di scorgere anche la volontà della UE di cercare di posizionare in chiave geopolitica il suo asset migliore, considerato che nella corsa globale all’intelligenza artificiale gli altri due attori principali, Stati Uniti e Cina, la surclassano invece di gran lunga in termini di capacità di investimento nel settore.
Ecco allora che se la strategia della Cina, ovviamente guidata centralmente dal governo che protegge e sostiene le sue imprese nazionali, incontra nel suo stesso approccio dirigistico i propri limiti ad una espansione globale e quella degli Stati Uniti, invece improntata a riconoscere, come di tradizione, un ruolo più rilevante al mercato e agli investimenti delle sue grandi aziende a fronte di una regolamentazione più leggera con ampio spazio per l’autoregolamentazione, comincia a scontare in termini di credibilità globale il peso ingombrante dei suoi campioni nazionali, l’Unione Europea sta cercando di fare leva invece sulla chiave normativa per aprirsi una terza via tra le due superpotenze, promuovendo l’intelligenza artificiale etica ed affidabile quale paradigma da esportare, come è già avvenuto con successo per il GDPR, ben oltre i propri confini.
I rischi, per l’innovazione, di una normativa troppo difensiva
Un punto d’attenzione per quanto concerne l’impatto della proposta di Regolamento sul mercato interno dell’Unione è invece quello inerente ai costi per ottenere le conformità, le pratiche burocratiche e i vari oneri amministrativi, che ricadranno sulle imprese quando il nuovo quadro normativo verrà ad essere applicato. Queste rischieranno peraltro di avere un particolare effetto negativo sulle imprese comunitarie di piccole e medie dimensioni, per non parlare delle start-up, e ciò potrebbe finire per ostacolare l’innovazione e la concorrenza nel settore. D’altra parte, nella proposta, al netto della parte in cui si incoraggiano le autorità nazionali a istituire sandbox regolamentari, sono poche le misure volte a sostenere l’innovazione. La nuova regolamentazione rimane prevalentemente difensiva, ovvero intesa – come si è detto in precedenza – a sminare i possibili impatti negativi dell’IA sui diritti fondamentali: in questo la UE sta ponendo un quadro solido, e non possiamo attenderci legittimamente più di questo dal legislatore comunitario.
Torniamo allora al punto di partenza: l’intelligenza artificiale ha potenzialità al momento ancora solo in parte esplorate per risolvere i problemi che già affliggono l’umanità e che, se non appresteremo entro breve adeguati accorgimenti in maniera sinergica e collettiva, si aggraveranno e rischieranno di essere esiziali. Dovremo essere noi, come singoli individui e come società in generale, a creare una governance adeguata di queste tecnologie per poter fare in modo che i benefici siano fruibili in maniera sempre più esponenziale, diffusa e democratica.
L’IA per la sostenibilità ambientale
L’intelligenza artificiale offre, in effetti, nuove soluzioni per l’analisi dei dati, per la predizione intelligente e per l’ottimizzazione dei processi a supporto delle politiche di sostenibilità ambientale. Occorre, allora, stimolare il sistema produttivo, in particolare le piccole e medie imprese, a integrare i propri processi con l’uso di sistemi di intelligenza artificiale in chiave predittiva, che possano rendere la produzione più efficiente e sostenibile sotto il profilo ambientale. Per altro verso, le grandi aziende globali del comparto tecnologico, nel riconoscere in maniera più esplicita il proprio ruolo rilevante nell’ambito dell’ecosistema digitale, dovrebbero assumersi più responsabilità per il modo in cui alcune loro infrastrutture, ad esempio per l’indicizzazione di pubblicità e il ranking delle informazioni, possano anche inavvertitamente complicare la transizione verso la sostenibilità. Tale auspicabile impegno si inquadra in ciò che più ampiamente potremmo descrivere come una sorta di give back digitale in favore della sostenibilità. Ovvero dell’atteggiamento che sarebbe auspicabile assumessero in maniera sempre più consistente imprese che, grazie alla loro intraprendenza e innovazione, hanno ormai acquisito posizioni dominanti nel mercato e che, pertanto, invece di sfruttare ulteriormente l’ambiente e la società che ha consentito loro tale sviluppo, dovrebbero al contrario cercare di migliorarli, restituendo alla collettività parte di quanto ricevuto.
Intelligenza Artificiale per lo sviluppo sostenibile: casi d’uso e prospettive
Conclusioni
Siamo all’alba di una nuova era: la ricostruzione dell’economia e della società post-covid19 potrà dare i propri frutti solo se gli operatori di mercato saranno in grado di unire le loro forze con i consumatori e le loro rispettive organizzazioni, per condividere idee e obiettivi. Solo in questo modo si potrà creare un ecosistema digitale più equilibrato e più adatto a rispondere alle sfide pressanti del pianeta.