Stiamo vivendo in quelli che l’intellettuale britannico-pakistano Ziauddin Sardar ha definito “tempi post-normali“, un’era segnata da caos, complessità e contraddizioni, in cui le ortodossie tradizionali stanno morendo e non ne sono ancora emerse di nuove.
Si tratta di un periodo caratterizzato da una “policrisi”, una serie di crisi globali interconnesse: guerre, emergenze climatiche, disuguaglianze economiche, sfiducia nella democrazia.
Indice degli argomenti
L’irruzione dell’IA in un contesto di crisi globali
In questo contesto, ha fatto irruzione una tecnologia dirompente come l’Intelligenza Artificiale, che grazie all’hype raggiunto dall’IA generativa ha avuto una diffusione capillare, senza precedenti rispetto ad altre tecnologie. Una tecnologia che impatta fortemente diversi settori della nostra vita, in modo pervasivo. Diventa quindi fondamentale interrogarsi sulle conseguenze del suo impatto, soprattutto in settori come lo sviluppo e il lavoro umanitario, dove sono coinvolti soggetti deboli, che spesso ne subiscono passivamente le conseguenze.
Spreco Alimentare: perché è fondamentale affrontare e risolvere questa problematica
La ricerca “L’intelligenza artificiale nello sviluppo e nel lavoro umanitario”
Nasce da questi presupposti la ricerca “L’intelligenza artificiale nello sviluppo e nel lavoro umanitario”, realizzata da Impactskills, in collaborazione con Università degli Studi di Torino e Università di Manchester, sostenuta dal Ministero degli Affari Esteri e della Cooperazione Internazionale. L’obiettivo è cercare di capire in che modo l’intelligenza artificiale predittiva e generativa viene integrata nelle pratiche di sviluppo e umanitarie e quali sfide etiche e sociale porta con sé. E ancora, in quale misura queste tecnologie contribuiscono (o non contribuiscono) al raggiungimento degli Obiettivi di Sviluppo Sostenibile (SDGs) o se, al contrario, ne sono di ostacolo.
La politica dell’IA
Come altre tecnologie, l’IA non è neutrale. Porta con sé relazioni sociali, valori, pregiudizi, politiche e dinamiche di potere. Lo sviluppo e l’implementazione delle tecnologie IA sono profondamente radicati e influenzati da contesti storici, culturali e politico-ideologici. La domanda fondamentale di Langdon Winner, “Gli artefatti hanno una politica?”, trova una rinnovata rilevanza in questi tempi “post-normali”.
Come tutti gli artefatti tecnologici, anche l’IA ha una politica. Non solo: i pregiudizi correlati alle tecnologie, e nello specifico all’IA, sono particolarmente insidiosi perché si nascondono sotto le spoglie di oggettività, efficienza o praticità. Nel settori dello sviluppo e degli aiuti umanitari, dove l’IA è spesso celebrata come una soluzione a problemi complessi, il tema diventa ancora più delicato.
È necessario che i principali attori riconoscano che la proprietà, la progettazione, l’implementazione e la governance dell’IA riflettano dinamiche di potere, pregiudizi e valori sottostanti. In questo modo possono valutare criticamente i sistemi di IA per garantire che vengano implementati in modi che promuovano equità, sostenibilità e inclusione, allineandosi così ai principi universali dell’Agenda SDG (non lasciare nessuno indietro, promuovere inclusività, affrontare le disuguaglianze, promuovere lo sviluppo sostenibile e garantire responsabilità e trasparenza).
L’uso dell’IA nel settore umanitario
L’uso dell’IA, compreso il machine learning e altre tecniche del IA, non è una novità nel settore umanitario. Dall’assistenza alle persone sfollate tramite chatbot automatizzati all’uso di mappe AI-supported per la risposta alle emergenze, applicazioni specifiche dell’IA sono state utilizzate nella risposta umanitaria per diversi anni.
Esempi promettenti mostrano come l’IA possa supportare risultati significativi se contestualizzata e guidata da approcci incentrati sugli esseri umani e sulle comunità. Ad esempio, l’IA è stata impiegata per affrontare l’apartheid spaziale in Sudafrica, aiutando a identificare le disuguaglianze sistemiche nella distribuzione delle risorse.
Questo e altri esempi, citati nella ricerca, dimostrano che, quando progettata con lungimiranza etica, trasparenza e implementata insieme ad altri strumenti, l’IA può rafforzare gli sforzi per la sostenibilità e l’equità.
Di contro, il Proxy Means Testing (PMT), ampiamente utilizzato soprattutto nei Paesi con grandi economie informali, dove i dati diretti sul reddito sono inaffidabili, è la dimostrazione tangibile che gli algoritmi possono danneggiare i più deboli, “automatizzando” la povertà e l’esclusione.
Esame critico dell’IA
Le tecnologie dell’IA si portano dietro pressanti problemi etici, ambientali e di diritti umani. La ricerca individua cinque aree chiave dell’impatto sociale dell’IA:
- Influenza delle aziende sullo sviluppo digitale: il rischio è che le grandi aziende (le Big Tech in primis) diventano i principali, senon gli unici, attori dello sviluppo digitale, con il rischio che il Sud globale diventi terreno di sperimentazione piuttosto che vero partner nello sviluppo digitale.
- Pregiudizi, discriminazione e opacità dell’IA: i sistemi di IA apprendono modelli dai dati, pertanto sono suscettibili di ereditare i pregiudizi presenti nei set di dati utilizzati per l’addestramento.
- Sorveglianza e privacy: l’IA ha permesso di implementare capacità senza precedenti di monitoraggio e raccolta dati. Se da un lato queste tecnologie promettono una maggiore la sicurezza, dall’altro mettono a rischio privacy e libertà civili.
- Sostenibilità ambientale: l’hardware per l’IA e i data center necessari per farla funzionare impattano sulle risorse, sul consumo di energia e di acqua, con conseguenze sia sugli ecosistemi che sulle comunità umane.
- Nuove forme di colonialismo digitale: parlando di colonialismo dell’IA ci si riferisce alle pratiche con cui vengono estratti dati e risorse da regioni o comunità più deboli per avvantaggiare entità più potenti, senza un’adeguata compensazione o consenso.
Langdon Winner, nel suo Autonomous Technology, osserva che “i membri della società tecnologica sanno sempre meno delle strutture fondamentali e dei processi che li sostengono”. Sopraffatti dalle informazioni e disconnessi dal processo decisionale, le persone perdono la capacità di partecipare attivamente alla definizione dei futuri tecnologici. Per i responsabili politici, la sfida del futuro risiede nel ripristinare l’agentività dei cittadini.
Modello del divario tra hype e realtà dell’IA
Le raccomandazioni della ricerca sono articolate in tre pilastri principali. In primo luogo, si richiama alla democratizzazione dell’expertise e dell’elaborazione delle politiche nell’era dell’IA. In secondo luogo, vengono fornite sei raccomandazioni concrete per i decisori politici in diverse aree, che spaziano dall’adozione di principi etici by-design alla ricerca contestuale e transdisciplinare, e molto altro.
Infine, viene introdotto il modello del divario tra hype e realtà dell’IA. Questo framework mira ad affrontare le sfide poste dall’hype che circonda l’IA nei settori dello sviluppo e umanitario. Un hype che spesso impedisce di comprendere appieno le reali potenzialità, ma anche i limiti e gli impatti dell’IA.
Il modello valuta il divario su sette dimensioni, concentrandosi sui fattori che contribuiscono all’hype, sulle realtà operative e sui gap che devono essere analizzati dai decisori politici e dagli altri stakeholder.