Che l’intelligenza artificiale rappresenti una delle più potenti tecnologie del nostro tempo non è un mistero. Tuttavia, e proprio per questo, è d’obbligo un’attenta riflessione sulle modalità con le quali portare avanti questo processo trasformativo, senza cadere in un facile orientamento all’ipertrofia normativa – tutto sommato abbastanza tipica del nostro continente e decisamente endemico in Italia – ma nemmeno inciampando nel sin troppo comune disfattismo tecno-deterministico di chi sostiene che non si possa contribuire alla direzione che prende lo sviluppo tecnologico e digitale.
Certo: non possiamo far procedere una slavina in salita, ma possiamo orientarne la direzione. Per farlo servono elementi come visione strategica, governance politica, capacità di cogliere il senso dei problemi e definizione di un orientamento condiviso.
Per questo la Fondazione per la Sostenibilità Digitale nel 2019 pubblicava il suo Manifesto per la Sostenibilità Digitale, con l’intento di evidenziare come la trasformazione digitale sia un processo senz’altro inarrestabile, ma rispetto al quale una direzione comune di sviluppo può essere identificata nell’adesione ai principi di sostenibilità consolidati in Agenda 2030. Da allora è passato molto tempo: tanti – per lo più all’ultimo minuto – sono stati fulminati sulla via di Damasco della sostenibilità ed oggi affrontano il tema con il radicalismo (e la superficialità) dei veri convertiti, ma finalmente (forse) il tema è diventato di agenda.
L’esplosione dell’AI, in questo contesto, anche a causa della pervasività di questa tecnologia e del suo impatto, ha reso ancora più importante contestualizzare correttamente il discorso, in un momento in cui i più ne parlano da prospettive specifiche e puntuali, rischiando di perdere di vista la dimensione intrinsecamente sistemica del rapporto tra sostenibilità e intelligenza artificiale, soprattutto se visto dalla prospettiva della Pubblica Amministrazione.
Sostenibilità Digitale, che cos’è
Spesso le distonie interpretative nascono dall’errata contestualizzazione dei concetti. Così, quando si parla di sostenibilità, i più pensano ad una sola delle sue dimensioni, quella ambientale. Confondono il concetto di sostenibilità con quello di ambientalismo e persino con quello di ecologia (temi nobili ed importanti in sé, ma distinti e diversi da quello di sostenibilità) e dimenticano che la sostenibilità, prima di tutto, è una visione sociale che deve essere realizzata sviluppando strategie economiche e politiche attuate nel rispetto dell’ambiente. Tanto che l’Osservatorio per la Sostenibilità Digitale evidenzia come meno di un cittadino italiano su tre sia in grado di ricollegare la sua visione ideologica del concetto di sostenibilità con la strategia economica che dovrebbe conseguirne.
Appiattire la sostenibilità sulla sua sola dimensione ambientale non solo è scorretto, ma è pericoloso: non consente di tutelare la complessità sistemica del concetto, a deperimento di tutte le sue dimensioni, inclusa la stessa dimensione ambientale.
Questa distorsione sulla sola dimensione ambientale (tipicamente europea – o comunque dei paesi più ricchi: leggasi, di chi se lo può permettere) si ritrova appieno nella sostenibilità digitale. E così, quando si parla di sostenibilità digitale, i più – i convertiti dell’ultim’ora di cui sopra – pensano esclusivamente all’impatto carbonico della tecnologia, ossia al suo consumo. La sostenibilità digitale, tuttavia, non è solo una questione di riduzione del consumo energetico o di ottimizzazione delle risorse. Rappresenta un principio guida che deve ridefinire ogni fase della trasformazione digitale.
Sostenibilità digitale nel Piano triennale per l’informatica nella PA
Ciò è vero anche e soprattutto nella Pubblica Amministrazione, tanto che il Piano Triennale per l’Informatica nella Pubblica Amministrazione 2024-2026 dell’AgID riporta il concetto di sostenibilità principale tra i suoi princìpi chiave.
Il concetto di sostenibilità digitale esplicita quindi “il ruolo sistemico della tecnologia nel raggiungimento degli obiettivi di sostenibilità ambientale, economica e sociale, guardando ad essa da una parte come strumento di supporto per il perseguimento degli obiettivi di sviluppo sostenibile, dall’altra come elemento da indirizzare attraverso criteri di sostenibilità. In questo duplice ruolo, la sostenibilità digitale riguarda quindi le interazioni della digitalizzazione e della trasformazione digitale rispetto a sostenibilità ambientale, economica e sociale”.
Non esistono tecnologie intrinsecamente sostenibili o insostenibili (ve la ricordate blockchain?), ma al più tecnologie più o meno energivore. La loro “sostenibilità” dipende da considerazioni più ampie, che non possono essere esclusivamente di tipo ambientale, ma devono:
- considerare il loro impatto sistemico sulle dimensioni economica e sociale. In altri termini, a fronte di un impatto ambientale determinato: quali sono le ripercussioni economiche e sociali? Tali ripercussioni “bilanciano” l’impatto ambientale? Si noti come quest’ultima sia, spesso, una considerazione strettamente “politica”.
- considerare non solo l’impatto ambientale “negativo” generato dalla tecnologia digitale, ma anche i vantaggi prodotti dalla sua implementazione, con un approccio che si basi non solo sui consumi del digitale (l’ormai famoso contributo della digitalizzazione alla produzione di CO2, che viene stimato tra il 2 ed il 4% delle emissioni totali: cifra che scritta così fa scena, ma vuol dire poco) ma anche sulle sue ripercussioni sull’intero ciclo di vita del contesto digitalizzato. Nulla di più dell’approccio LCA (Life Cycle Analysis), per il quale non è tanto importante evidenziare come una mail produca mediamente 11g di CO2, ma capire quanta CO2 tale mail faccia risparmiare (di carta stampata, carburante per consegnare un plico, ecc…). Privo di tale approccio qualsiasi numero è aria fritta.
KPI per sostenibilità digitale
Ciò non vuol dire, ovviamente, che non si debbano spendere energie per minimizzare l’impatto carbonico del digitale, ma che non si deve cadere nell’errore di pensare che fare una valutazione di sostenibilità possa ridursi a questo.
Servono metriche condivise e standard che permettano di uniformare i modelli di misurazione per comprendere chiaramente gli impatti generati dalla trasformazione digitale sia sul fronte ambientale che su quello economico e sociale: motivo per il quale è stata rilasciata nel 2023 la Prassi di Riferimento UNI 147 “Sostenibilità Digitale” dedicata, appunto, alla definizione dei principali Key Performance Indicator utili a comprendere il livello di sostenibilità di un progetto di trasformazione digitale.
Sostenibilità digitale, l’AI nella PA
Quanto detto in generale per la sostenibilità della tecnologia vale all’ennesima potenza per la tecnologia alla base dell’intelligenza artificiale. Sia per i suoi impatti ambientali – oggettivamente potenzialmente enormi – sia per quelli economici e sociali che, tanto in positivo che in negativo, richiedono metriche per essere valutati e misurati.
Come evidenziato anche dal Piano Triennale per l’Informatica nella Pubblica Amministrazione 2024-2026, è cruciale che l’adozione dell’IA sia orientata non solo all’efficienza, ma anche alla sostenibilità e al rispetto dei diritti fondamentali.
Nel contesto della Pubblica Amministrazione, ciò significa che l’adozione dell’IA deve essere orientata a migliorare i servizi pubblici, riducendo al contempo l’impatto ambientale e promuovendo l’inclusione sociale.
La priorità: una normativa specifica
Le infrastrutture digitali devono essere resilienti, accessibili e inclusive, e devono supportare un ecosistema pubblico integrato, come delineato dal Piano Triennale. Questo approccio richiede una vera e propria revisione delle politiche digitali nazionali, allineandole agli obiettivi dell’Agenda 2030 e promuovendo la creazione di un Testo Unico della Sostenibilità Digitale che coordini tutte le normative relative alla digitalizzazione. In tutto ciò, definire il ruolo dell’AI sarà fondamentale, così come identificare il suo contributo in termini trasformativi ai singoli processi della pubblica amministrazione.
AI sostenibile, le caratteristiche
Per questo motivo nel marzo 2023 la Fondazione per la Sostenibilità Digitale ha proposto un ulteriore documento che sviluppa una prima definizione delle caratteristiche epistemiche dei sistemi di Intelligenza Artificiale, tra le quali:
- Rispetto dei diritti fondamentali: i sistemi AI devono essere progettati fin dall’inizio per garantire il rispetto della dignità umana e dei diritti fondamentali, come definiti dalla Carta dei diritti fondamentali dell’Unione europea e della Convenzione europea dei diritti dell’uomo.
- Privacy: l’AI deve rispettare i criteri ed i principi in tema di protezione dei dati personali, garantendo agli utenti il pieno controllo dei propri dati.
- Trasparenza: l’Intelligenza Artificiale deve basarsi su criteri di trasparenza sia per quanto attiene i dati di training e le fonti di riferimento, che per ciò che riguarda le logiche e gli algoritmi adottati.
- Sicurezza: i sistemi AI devono garantire la confidenzialità, integrità e disponibilità delle informazioni, tenere in considerazione i possibili rischi derivanti dalle interazioni con le persone e con gli altri sistemi, e prevedere meccanismi di sicurezza fin dalla progettazione, per garantire che siano sicuri in modo verificabile in ogni fase.
- Interoperabilità: l’AI non deve creare nuovi “walled garden” ma deve basarsi su standard e protocolli aperti, in grado di garantire in maniera ottimale lo scambio e il riutilizzo delle informazioni.
- Portabilità: l’utente deve avere la possibilità di esportare i propri dati (non soltanto quelli personali) in un formato strutturato e trasferirli, anche in maniera automatizzata, da un sistema all’altro.
- Accessibilità: i sistemi di Intelligenza Artificiale devono garantire, fin dalla fase di progettazione e nelle fasi successive, l’accesso alle persone con disabilità, su base di uguaglianza e “senza lasciare indietro nessuno”.
- Revoca: deve essere garantita la possibilità di un’efficace supervisione umana, che possa incidere ove necessario su processi e azioni governati o eseguiti dall’AI.
- Riconoscibilità: gli utenti devono essere messi in condizione, in maniera semplice e intuitiva, di sapere che stanno interagendo con un sistema di AI. Anche i prodotti dell’AI devono essere chiaramente identificati, con sistemi standard e interoperabili.
- Proporzionalità del rischio: nello sviluppo dell’Al deve esistere un rapporto di proporzionalità tra i modelli di implementazione, le dinamiche di utilizzo ed i processi regolamentari in relazione alla portata dei rischi che possono essere generati dalla sua adozione
- Efficienza energetica: i sistemi di AI devono essere progettati tenendo in considerazione l’impatto ambientale generato tanto nelle fasi di addestramento che di esercizio ed utilizzo da parte dell’utenza.
Come si vede, tali caratteristiche non incidono troppo sul concetto di “etica dell’intelligenza artificiale”, che per quanto discusso ed intensamente trattato è in concreto estremamente scivoloso, ma determinano un quadro di riferimento delle caratteristiche che i sistemi di intelligenza artificiale dovrebbero avere per essere definiti sostenibili (e si noti come non tutte siano facilmente ottenibili quando si parla, oggi, di quella Gen AI verso la quale tutti si stanno orientando; ma questo è un altro discorso).
In altre parole, non si tratta di indicare a priori un’etica degli algoritmi, ma di definire quelle caratteristiche in base alle quali i decisori (siano essi decisori politici, attori amministrativi, manager aziendali) possano di volta in volta consapevolmente scegliere come gli algoritmi debbano comportarsi. Insomma: per essere sostenibile un’AI non deve incorporare un modello etico, ma deve consentire a chi la usa di “entrare” nella black box che produce i risultati, ed influenzarne il comportamento, o quantomeno poterlo leggere con chiarezza.
Gli impatti per la privacy
Come evidenziato anche dal report Unesco pubblicato nel settembre 2023 “Guidance for generative AI in education and research”, l’adozione dell’intelligenza artificiale generativa comporta sfide significative. Essa può generare contenuti non accurati o fuorvianti, con potenziali ripercussioni sulla fiducia del pubblico nei servizi pubblici. L’uso di dati personali per addestrare algoritmi di IA solleva questioni critiche sulla privacy e sulla sicurezza. E non serve andar lontano ma basta guardare alle cronache di questi giorni relative a Grok ed alla campagna elettorale statunitense per vedere quanto possano essere pericolosi sistemi di intelligenza artificiale che non rispondano alle caratteristiche suggerite dal Manifesto per la Sostenibilità Digitale dell’Intelligenza Artificiale.
AI nella PA, i vantaggi
Ma l’adozione dell’IA nella Pubblica Amministrazione offre anche straordinarie opportunità per migliorare l’efficienza e la qualità dei servizi pubblici. Per garantire che queste tecnologie abbiano un impatto positivo e sistemico, è necessario andare oltre il DNSH e definire delle caratteristiche che consentano ai decisori di entrare davvero nelle scelte. Anche nell’ottica di poter bilanciare le ripercussioni positive e negative dell’AI sulle dimensioni ambientale, economica e sociale.
Ogni volta che si sviluppa una nuova tecnologia essa genera un impatto che ridefinisce anche il ruolo delle altre. L’AI è qui per restare e cambierà il mondo. Perché lo cambi in meglio servono scelte sistemiche, regole che impongano – tramite normative e spinta di mercato – il rispetto di criteri tecnici precisi, capacità di scindere il livello tecnico, che deve guidare lo sviluppo, da quello etico, che riguarda i governanti che devono avere la possibilità di guardare ai sistemi di AI non come a delle “black box” con un’etica incorporata, ma come ad algoritmi che rispondano a regole precise di sostenibilità digitale.
Conclusione
La Pubblica Amministrazione ha ora la responsabilità e l’opportunità di dimostrare che l’innovazione tecnologica può andare di pari passo con la responsabilità sociale e ambientale, tracciando la strada verso un futuro in cui tecnologia e umanità siano veramente alleate. Per raggiungere questo obiettivo, sarà essenziale un impegno continuo verso l’educazione, la formazione e la partecipazione democratica, nonché un monitoraggio costante per garantire che l’IA serva al bene comune.