La Commissione europea ha finalmente pubblicato la tanto attesa proposta di Regolamento sull’intelligenza artificiale a conclusione di un percorso, avviato da alcuni anni, volto a indirizzare la ricerca e l’uso della tecnologia verso il benessere dell’umanità, evitando effetti distopici.
Intelligenza artificiale, i punti chiave del regolamento europeo
In questo si distingue dall’approccio degli Stati Uniti e della Cina, che hanno strategie profondamente diverse: negli Stati Uniti predomina un approccio liberista che vede protagoniste le grandi multinazionali, la Cina ha invece un‘impostazione statalista in cui prevale il controllo dello Stato (anche se poi – anche questo – si traduce nel predominio di grandi aziende).
Ci sono, però, alcuni elementi nel paradigma europeo che ci portano a riflettere sui pericoli legati alla costruzione di un apparato burocratico che, pur combattendo gli effetti dannosi della tecnologia, pone limiti e impedisce processi virtuosi.
Intelligenza artificiale: strategie e normative Ue
Lo sforzo Europeo è contraddistinto dalla definizione di strategie e normative atte a contenere effetti di aumento delle diseguaglianze, controllo e condizionamento sociale, diffusione di informazioni distorte, armi autonome, discriminazioni di genere ed etniche, disoccupazione, ecc.
In particolare, l’Unione Europea riconosce che: “L’intelligenza artificiale è una famiglia di tecnologie in rapida evoluzione che può contribuire a una vasta gamma di benefici economici e sociali in tutto lo spettro di industrie e attività sociali, ad esempio nel settore sanitario, agricolo, educativo, della gestione delle infrastrutture, dell’energia, dei trasporti e della logistica, dei servizi pubblici, della sicurezza e della mitigazione e adattamento ai cambiamenti climatici, solo per citarne alcuni. Allo stesso tempo, alcuni degli usi e delle applicazioni dell’intelligenza artificiale possono generare rischi e causare danni a interessi e diritti tutelati dal diritto dell’Unione. Tale danno potrebbe essere materiale o immateriale, nella misura in cui riguarda la sicurezza e la salute delle persone, i loro beni o altri diritti e interessi fondamentali individuali tutelati dal diritto dell’Unione Europea.”
Nei suoi programmi politici per il quinquennio 2019-2024, la Presidente eletta Ursula von der Leyen ha annunciato che la Commissione avrebbe presentato una legislazione per un approccio europeo coordinato sulle implicazioni umane ed etiche dell’intelligenza artificiale e una riflessione sul migliore utilizzo dei big data per l’innovazione.
In seguito a tale annuncio, il 19 febbraio 2020 la Commissione ha pubblicato il Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, al fine di definire proposte politiche su come raggiungere il duplice obiettivo di promuovere l’adozione dell’intelligenza artificiale, affrontando anche i rischi associati a determinati usi di tale tecnologia, e di avviare un’ampia consultazione delle parti interessate su tali opzioni politiche. La stragrande maggioranza delle parti interessate ha sostenuto l’intervento normativo per affrontare le sfide e le preoccupazioni sollevate dall’intelligenza artificiale.
Nell’ottobre 2020 il Parlamento europeo ha adottato una serie di risoluzioni relative all’intelligenza artificiale, tra cui l’etica, la responsabilità, il diritto d’autore, l’intelligenza artificiale in materia penale, nell’istruzione, nella cultura e nel settore audiovisivo. La risoluzione del Parlamento europeo su un quadro di aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate raccomanda specificamente alla Commissione di proporre un’azione legislativa per sfruttare le opportunità e i benefici della disciplina, ma anche per garantire la protezione dei principi etici. Il Consiglio europeo ha chiesto un “senso di urgenza per affrontare le tendenze emergenti”, comprese “questioni quali l’intelligenza artificiale, garantendo nel contempo un elevato livello di protezione dei dati, diritti digitali e norme etiche”. Ha inoltre affermato che l’UE deve essere un leader globale nello sviluppo di un’intelligenza artificiale sicura, affidabile ed etica, invitando la Commissione a fornire una definizione chiara ed obiettiva dei sistemi di IA ad alto rischio.
Il Regolamento per un approccio europeo all’intelligenza artificiale
In questo quadro viene pubblicato il Regolamento per un approccio Europeo all’Intelligenza Artificiale, che pone una serie di vincoli e restrizioni sui sistemi, andando a regolamentare alcuni utilizzi della disciplina che potrebbero portare ad usi lesivi dei diritti umani, in particolar modo per i sistemi definiti ad alto rischio. Essi sono quelli coinvolti nei sistemi di identificazione biometrica degli individui in spazi pubblici, sistemi di sicurezza adottati per fornitura di servizi essenziali come elettricità, acqua e gas, sistemi antiincendio, primo soccorso, accesso all’istruzione, recruiment, accesso al credito, accesso a benefit per persone in stati di indigenza, assessment di rischio individuale, previsione o determinazione del rischio di crimine, concessione di visti, sistemi di supporto alle decisioni per giudizi legali e molto altro.
Il passo normativo è coerente con la strategia messa in atto dall’Europa che l’ha portata a ricoprire una posizione di rilievo a livello internazionale attraverso, per esempio, l’emanazione del GDPR (Regolamento generale per la protezione dei dati), molto contestato all’inizio, ma oggi di fatto un documento che ha portato l’Europa a vedere riconosciuto il proprio ruolo di leadership a livello mondiale.
Regole su intelligenza artificiale: la Ue prende le distanze dal modello Usa
Intelligenza artificiale, dalla Ue un “apparato burocratico” troppo oneroso?
Pur apprezzando la finalità con cui queste iniziative sono state attuate e la necessità di contrastare effetti distopici derivanti da un utilizzo sbagliato di una tecnologia come l’intelligenza artificiale, credo sia necessaria una riflessione ulteriore.
- Il regolamento evidenzia ciò che non dobbiamo fare.
- Cerca di definire azioni che presentano alti rischi da evitare per la compromissione dei diritti umani e della società
- Definisce processi atti a controllare tali azioni.
- Afferma che l’IA deve porre l’umanità al centro.
Le leggi, i regolamenti, le sanzioni e i processi sono importanti, ma forse non possono costituire l’unico metodo con cui risolvere i problemi. Se ogni volta che viene posto in essere un comportamento inadeguato creiamo una legge, una procedura di controllo, un regolamento, alla fine rischiamo di costruire un apparato burocratico che forse contrasta gli effetti dannosi, ma che, al contempo, impone vincoli e impedisce processi virtuosi.
Agire sul piano socioeconomico per risolvere i problemi che creano le disuguaglianze
L’Intelligenza Artificiale, nelle sue varie declinazioni e paradigmi, è una tecnologia dichiarativa. A differenza dei programmi tradizionali dove il programmatore descrive un algoritmo che porta alla soluzione del problema, nell’intelligenza artificiale il programmatore descrive il problema, i vincoli, gli strumenti che abbiamo a disposizione ed il contesto in cui dovrà operare. È la macchina che inventa l’algoritmo, sia che si parli di rappresentazione della conoscenza sia che si parli di machine learning. In un caso la descrizione degli elementi necessari per risolvere il problema viene effettuata attraverso linguaggi formali, nell’altro attraverso esempi, ma è sempre la macchina che crea la soluzione.
Il problema è che viviamo in una società algoritmica, dove siamo abituati a descrivere i processi e i regolamenti, ma non a definire in modo chiaro gli obiettivi. Prendiamo ad esempio l’economia. È una scienza (o dovrebbe esserlo) che studia come utilizzare le risorse scarse per ottenere valore. Se pensiamo che le risorse scarse siano costituite dal capitale e dal lavoro e che le risorse ambientali siano inalterabili e senza limiti, abbiamo un problema. Se pensiamo che l’obiettivo sia la crescita del PIL e del profitto, puntiamo agli obiettivi sbagliati. Se scambiamo il liberismo economico per la libertà, avremo effetti distopici.
Secondo il rapporto “The Economics of Biodiversity: The Dasgupta Review”, commissionato nel 2019 dal ministero del Tesoro del Regno Unito a Sir Partha Dasgupta, professore emerito di economia all’università di Cambridge e membro del St John’s College di Frank Ramsey, «in economia, la natura è un “punto cieco” che non può più essere ignorato dai sistemi contabili che dettano le finanze nazionali e dai responsabili delle decisioni che vi stanno dietro». Nel rapporto si afferma che «Il mio obiettivo principale è la ricostruzione dell’economia per includere la natura come ingrediente. Una crescita e uno sviluppo economici veramente sostenibili significa riconoscere che la nostra prosperità a lungo termine si basa sul riequilibrio della nostra domanda di beni e servizi della natura con la sua capacità di fornirli. Economia sostenibile significa utilizzare una misura diversa dal PIL. Significa anche tenere pienamente conto dell’impatto delle nostre interazioni con la Natura a tutti i livelli della società. Il Covid-19 ci ha mostrato cosa può succedere se non lo facciamo».
Artificial intelligence’s potential contribution in economic emissions intensity (EEI) reduction worldwide by 2030, by sector (Fonte: Statista, da www.capgemini.com/wp-content/uploads/2020/12/Report-Climate-AI.pdf)
Il rapporto è stato pubblicato a febbraio 2021 e parla esplicitamente della necessità di riformulare radicalmente il sistema socioeconomico mettendo al centro il pianeta e la biodiversità. Se vogliamo produrre benessere per l’umanità dobbiamo capire che facciamo parte di un ecosistema complesso e che se lo distruggiamo, generiamo effetti distopici. Se non esaminiamo il sistema da questo punto di vista non saremo in grado di definire correttamente nemmeno le azioni rischiose, sia quelle generate dall’essere umano sia quelle prodotte da un sistema di intelligenza artificiale. Se l’obiettivo primario è il profitto, dire che non possiamo usare i sistemi di riconoscimento biometrico nei luoghi pubblici è un paletto che qualcuno vivrà come un ostacolo al proprio business. Se il livello di democrazia di un paese diminuisce, si tenderà ad utilizzare sistemi di condizionamento degli individui e a ridurre il senso critico e la cultura della propria popolazione. Se aumentano le diseguaglianze, produrremo più delinquenza, e useremo sistemi per contrastarla, senza risolvere il problema che la genera.
I sistemi di condizionamento sociale non sono nati con l’Intelligenza Artificiale o con i social network, da decenni le aziende utilizzano la pubblicità per spingere i cittadini a consumare di più. Ed oggi diamo per scontato che uno spettacolo possa essere interrotto dalla pubblicità. In realtà questi strumenti altro non sono se non mezzi di condizionamento sociale. Anche la politica se ne è impadronita e li usa da tempo. I social network e gli strumenti di IA stanno semplicemente amplificando una tendenza in atto da decenni.
Il PIL può anche aumentare, ma le disuguaglianze stanno aumentando e i poveri diventano sempre più poveri.
Il Pianeta, non l’uomo al centro
Senza un cambiamento radicale nel sistema socioeconomico, le leggi e i regolamenti rischiano di generare soltanto attrito in una macchina che punta nella direzione sbagliata e che cerchiamo di raddrizzare con vincoli esterni.
È come se avessimo un’automobile con le ruote disallineate, che la portano a sbandare. Per evitare di cadere in un crepaccio, installiamo dei sistemi di protezione lungo la strada, dei guardrail che evitino alla macchina di cadere. Ma l’auto struscia continuamente sui sistemi di protezione. Non cade, ma si danneggia, rallenta, produce attrito e calore. Dobbiamo riparare la macchina per farla puntare nella direzione corretta. Quest’ultima pandemia dovrebbe avercelo insegnato.
Anche l’obiettivo di rimettere l’umanità al centro non è convincente. È chiaro che l’obiettivo è formulato con l’intento di spingere il benessere del genere umano invece che promuovere la crescita del mercato e del profitto (che sono in realtà algoritmi pensati per raggiungere il primo scopo). È un passo avanti, ma rischia di non cogliere una lezione che risale a Copernico: la Terra e anche noi con essa non siamo il centro dell’universo. Siamo una parte del tutto, magari anche periferica, e se vogliamo sopravvivere e progredire – nel senso di aumentare il benessere dell’umanità – dobbiamo capire che viviamo e facciamo parte di un sistema più vasto, che è la risorsa primaria. Se siamo intelligenti dobbiamo mettere al centro il pianeta. Ma questo non è affatto semplice. Produrre maggior benessere per tutti, senza danneggiare il pianeta, in una modalità circolare, sostenibile e rispettosa dei diritti degli esseri viventi, è una sfida enormemente complessa.
Forse la nostra intelligenza non è adeguata a questo compito, i nostri meccanismi innati sono capaci di fornirci soluzioni ai pericoli che abbiamo sempre percepito: abbiamo paura del buio, dei rumori improvvisi, di potenziali aggressioni ravvicinate da parte di altri esseri umani o animali pericolosi, ma non siamo addestrati a concepire che le nostre azioni possano portare a danni lontani da noi o che si propagano nel tempo.
Abbiamo bisogno di una forte evoluzione culturale se vogliamo evitare un disastro dovuto ai nostri stessi comportamenti.
Conclusioni
Noi riteniamo che l’intelligenza artificiale, diretta verso obiettivi corretti e con i giusti indicatori dei costi (ambientali) e dei valori che vogliamo raggiungere, possa costituire uno strumento prezioso proprio per questi traguardi. Dobbiamo evidenziare il valore che questi sistemi possono portare verso una trasformazione radicale del nostro modo di vivere e consumare, per esempio enfatizzando l’adozione di un‘economia circolare, diffondendo una cultura che permetta alle persone di superare convinzioni dettate da bias e polarizzazioni, accettando diversi punti di vista.
Abbiamo bisogno di molte idee diverse, di metterle a confronto e anche di una profonda evoluzione dei nostri sistemi di produzione, educativi, democratici, socioeconomici.
Se a tutto questo reagiamo soltanto definendo ciò che non possiamo fare, rischiamo di perdere opportunità necessarie per la sopravvivenza.