intelligenza artificiale

Guerre di algoritmi: sistemi d’arma autonomi e agentività digitale



Indirizzo copiato

Il crescente impiego dei sistemi d’arma autonomi negli attuali conflitti sta ridefinendo le dinamiche della guerra, sollevando problemi etici e di accountability. Esploriamo fino a che punto tali sistemi possano prendere decisioni indipendenti dal controllo umano, introducendo il concetto di agentività digitale in ambito militare e delineando i pericoli dell’avvento di una digicrazia militare

Pubblicato il 6 feb 2024

Giuseppe Galetta

funzionario presso l’Università degli Studi di Napoli Federico II



intelligenza artificiale guerra

Nel corso degli ultimi decenni, l’avanzamento tecnologico ha portato ad un crescente utilizzo dei sistemi d’arma autonomi nei teatri di guerra.

Con l’attuale conflitto in Ucraina l’impiego di tali dispositivi è diventato parte integrante dei piani strategici e delle azioni tattiche sul campo di battaglia, mettendo in evidenza i vantaggi, ma anche i rischi legati ad un loro utilizzo indiscriminato.

Questi sistemi d’arma, infatti, grazie all’implementazione di algoritmi di intelligenza artificiale, sono ormai in grado di prendere decisioni autonome e condurre operazioni militari senza un controllo umano diretto (Smith, 2020). La crescente autonomia di tali dispositivi sta rivoluzionando la logica stessa dei conflitti moderni, sollevando interrogativi etici e legali riguardo al controllo e alla responsabilità delle azioni compiute da queste armi intelligenti: è giusto affidare a una macchina la decisione di uccidere? Fino a che punto un sistema d’arma autonomo è in grado di prendere decisioni? E chi è responsabile per tali decisioni?

Classificazione dei sistemi d’arma autonomi

Gli AWS (Autonomous Weapon Systems) o LAWS (Lethal Autonomous Weapon Systems) rappresentano una categoria di armamenti progettati per operare in modo autonomo, senza il coinvolgimento diretto di operatori umani nel processo decisionale riguardante l’individuazione e all’attacco dei target. Questi sistemi d’arma utilizzano l’intelligenza artificiale e l’automazione avanzata per eseguire le loro funzioni e possono essere classificati in diverse tipologie, in base alle loro capacità operative e agli scenari in cui sono impiegati:

Sistemi droni

Droni armati o UAV (Unmanned Aerial Vehicles), ovvero aerei senza equipaggio umano, controllati a distanza o autonomi, utilizzati per svolgere missioni di ricognizione, sorveglianza e attacco, dotati di capacità decisionali autonome, in grado di selezionare e attaccare bersagli senza l’intervento diretto di un operatore umano.

Sistemi terrestri autonomi

Veicoli terrestri autonomi progettati per operare su terreno, dotati di armamenti letali. Possono essere utilizzati per missioni di sorveglianza, pattugliamento o combattimento senza la necessità di un equipaggio umano a bordo.

Sistemi navali autonomi

Piccole o grandi imbarcazioni con capacità letali senza equipaggio umano, che possono essere impiegate per missioni di pattugliamento marittimo, protezione delle rotte navali, ricerca, attacco o altri scopi navali.

Sistemi di difesa aerea autonoma

Sistemi autonomi progettati per identificare e neutralizzare minacce aeree senza l’intervento umano diretto, dotati di capacità avanzate di riconoscimento e decisione basate su algoritmi  (search and destroy).

Robot terrestri autonomi

Robot con capacità di movimento su terreno, utilizzati in contesti militari per svolgere varie operazioni, da ricognizioni, a operazioni di disinnesco di ordigni esplosivi, a missioni offensive.

Sistemi sottomarini autonomi

Veicoli sottomarini senza equipaggio umano a bordo, progettati per eseguire missioni sottomarine senza l’intervento diretto dell’uomo.

Swarm di robot

Sistemi di Sciame (Swarm Robotics), ossia gruppi di robot o droni che operano in modo coordinato, spesso utilizzati per compiti distribuiti e collaborativi.

Armamenti autonomi

Lethal Autonomous Weapon Systems (LAWS), ovverosistemi dotati di armi letali, che possono prendere decisioni autonome riguardo l’identificazione e l’attacco di obiettivi.

Sistemi di supporto logistico

Sistemi logistici autonomi, ossiaveicoli o droni progettati per il trasporto di materiali, munizioni, medicinali e altre risorse logistiche senza il coinvolgimento diretto umano.

L’evoluzione degli AWS/LAWS

È importante notare che il panorama degli AWS/LAWS è in continua evoluzione e nuove categorie e sottocategorie stanno emergendo in risposta agli sviluppi tecnologici e agli scenari operativi. Ad esempio, si sta provvedendo alla miniaturizzazione tali dispositivi per renderli difficilmente individuabili o tracciabili, utilizzandoli in operazioni di ricognizione e intelligence oltre le linee nemiche (come nel caso dei nano-droni di tipo stealth appartenenti alla classe Black Hornet), cercando al tempo stesso di aumentare la loro capacità distruttiva, come nel caso delle loitering munition o munizioni circuitate (note come droni-kamikaze), che stanno avendo grande impatto sui campi di battaglia in Ucraina. Il campo di battaglia si configura ormai come un orizzonte multidominio, dove si combatte contemporaneamente tra terra, mare, aria, spazio e cyberspazio e le smart weapons, grazie alla loro flessibilità, rapidità d’azione e precisione, rappresentano una risorsa decisiva e inevitabile per i paesi belligeranti (Gregory, 2011; Sabry, 2021; Leonard, 2023).

Le caratteristiche principali dei sistemi d’arma autonomi

Le caratteristiche principali dei sistemi d’arma autonomi possono essere così sintetizzate:

Capacità decisionale autonoma

Gli AWS/LAWS sono progettati per prendere decisioni autonome e portare a termine azioni letali senza intervento umano diretto, basandosi su algoritmi avanzati e reti neurali artificiali. Questa autonomia decisionale può coprire l’identificazione di obiettivi, la selezione dei bersagli e l’esecuzione degli attacchi.

Intelligenza Artificiale avanzata

Gli algoritmi di intelligenza artificiale, inclusi quelli basati su apprendimento automatico e reti neurali, vengono utilizzati per consentire agli AWS/LAWS di apprendere dalle situazioni o da altri sistemi simili in tempo reale, connettendosi anche a risorse OSINT (Open Source Intelligence), al fine di adattarsi alle mutevoli condizioni del campo di battaglia. Questa tecnologia permette una maggiore flessibilità operativa e una risposta più adatta alle varie situazioni di combattimento.

Capacità di integrazione

Gli AWS/LAWS possono essere integrati in reti complesse di comunicazione e sorveglianza, consentendo una coordinazione efficace con altri sistemi d’arma e risorse militari. Questa logica di “sciame” (swarming) consente un coordinamento più efficace sul campo di battaglia, permettendo a tali sistemi d’arma di agire all’unisono.

Sensori avanzati

Gli AWS/LAWS sono dotati di sensori avanzati, come telecamere, radar, lidar, infrarosso e altro ancora, che consentono di percepire l’ambiente circostante e individuare i bersagli con precisione.

Velocità di decisione

Gli algoritmi utilizzati dagli AWS/LAWS e la rapidità nell’elaborazione dei dati permettono a tali sistemi d’arma di prendere automaticamente decisioni ad elevatissima velocità, superando la capacità umana di reazione.

Date le elevate capacità di autonomia di tali sistemi d’arma, il dibattito sull’utilizzo degli AWS/LAWS è molto complesso, coinvolgendo aspetti etici e legali, oltre che strategico-politici. Organizzazioni internazionali, ricercatori e attivisti stanno cercando di stabilire principi e regolamenti in grado di mitigare i rischi associati a questa nuova generazione di armamenti, con l’obiettivo di garantire che tali sistemi d’arma possano essere impiegati in maniera responsabile e conforme alle norme internazionali (Williams & Scharre, 2015).

Contestualizzazione storica e attuale

Il dibattito sull’impiego di sistemi d’arma autonomi non è nuovo. Già nel 1950, lo scrittore di fantascienza Isaac Asimov anticipava le sfide etiche legate all’automazione delle decisioni belliche nella sua opera “I, Robot” (Asimov, 2021), mentre negli anni Sessanta del secolo scorso la telechirica muoveva i suoi primi passi (Clark, 1963; 1964).

Tuttavia, solo nelle ultime due decadi, con l’avanzamento dell’intelligenza artificiale e delle tecnologie robotiche, il tema è diventato centrale nei discorsi strategici, politici e militari (De Landa, 1996; Heisbourg, 1999; Payne, 2021). La diffusione dei droni (Unmanned Aerial Vehicles – UAV), infatti, ha rappresentato un punto di svolta nella concezione delle operazioni belliche (Kaag & Kreps, 2014; Gusterson, 2016; Ruschi, 2016; Tognocchi, 2018). Il processo di dronizzazione dei conflitti ha raggiunto la sua massima espressione con l’attuale guerra in Ucraina. Tale processo ha imposto una revisione delle strategie militari, ma anche dei principi etici nella conduzione delle operazioni sul campo. Infatti, come evidenziato da Adams (2001), negli ultimi conflitti si sta assistendo ad un progressivo abbandono del processo decisionale umano a fronte di un corrispettivo incremento dell’autonomia dei sistemi d’arma guidati da algoritmi di intelligenza artificiale. Tutto questo solleva interrogativi sulla responsabilità morale e giuridica delle azioni militari, poiché le macchine “intelligenti” stanno assumendo un ruolo sempre più attivo e autonomo nell’uso della forza letale (Chamayou, 2015; Schwarz, 2015; Jaffer, 2016; Johnson, 2019).

Gli algoritmi e la geografia della guerra

Amoore (2009) ha sottolineato la crescente importanza degli algoritmi nella geografia della guerra contemporanea: l’algoritmo diventa centrale nella selezione dei bersagli e nell’attuazione di azioni letali. Questo solleva preoccupazioni etiche sulle decisioni autome delle macchine che coinvolgono vite umane. Amoroso e Tamburrini (2019) hanno affrontato la questione dell’etica e del diritto nell’uso crescente dei sistemi d’arma autonomi: secondo gli autori, la necessità di definire il ruolo del controllo umano in tali contesti diventa cruciale per evitare abusi e garantire il rispetto dei principi etici fondamentali, in accordo con le leggi e i trattati internazionali. Panwar (2020) ha approfondito il concetto di autonomia, sottolineando come le armi autonome debbano essere considerate “schiave” piuttosto che “padrone”. Questo approccio riflette la necessità di sottoporre le armi autonome a un significativo controllo umano (HRW, 2016). Le stesse istituzioni militari hanno affrontato l’argomento: in Italia, i recenti rapporti del CASD (Centro Alti Studi per la Difesa) e dell’IRAD (Istituto di Ricerca e Analisi della Difesa) illustrano lo stato dell’arte dell’intelligenza artificiale e dell’applicazione dello “swarming” nei contesti militari (CASD-IRAD, 2022a, 2022b), In ambito internazionale, l’International Committee of the Red Cross, riscontrando l’enorme impatto sul campo di battaglia e l’ingente numero di vittime civili coinvolte in attacchi su obiettivi militari, ha esaminato gli aspetti tecnici, legali e umanitari dei sistemi d’arma autonomi (ICRC, 2014), mentre il SIPRI (Stockholm International Peace Research Institute) ha svolto ricerche approfondite sull’evoluzione e il limite dell’autonomia nelle armi (Boulanin & Verbruggen, 2017; Boulanin et al., 2017; 2020).

Il dilemma etico di Asaro

Il tema dell’accountability è il principale nodo da sciogliere quando si parla di sistemi d’arma autonomi (Seixas-Nunes, 2022a). Il filosofo della scienza Peter Asaro si è occupato di questioni legate all’etica e alle implicazioni sociali della robotica e dell’intelligenza artificiale in ambito militare, sollevando un importante dilemma etico alla base dell’impiego dei sistemi d’arma autonomi nei teatri di guerra (Asaro, 2012). Infatti, la possibilità che le macchine possano prendere decisioni autonome senza il diretto coinvolgimento umano durante le operazioni militari, comporta il rischio di disumanizzazione della guerra, sollevando dubbi circa la responsabilità nella conduzione di azioni letali: può una macchina essere lasciata libera di uccidere in base a un algoritmo? Il nucleo del dilemma è rappresentato proprio dal timore che gli AWS/LAWS, possano essere dotati di un’autonomia decisionale così avanzata da poter selezionare e ingaggiare bersagli senza il controllo umano diretto, diventando di fatto dei killer robots (Sparrow, 2007; Balistreri, 2017; Felt, 2020): la necessità di preservare i diritti umani e il controllo umano significativo sulle macchine impone dunque la scelta di vietare o meno l’utilizzo dei sistemi d’arma autonomi (Krishnan, 2009).

Tale dilemma solleva molte preoccupazioni etiche, tra cui:

Mancanza di responsabilità

Se un sistema d’arma autonomo prende decisioni di vita o di morte senza un controllo umano diretto, chi è responsabile in caso di danni collaterali o errori?

Mancanza di etica

Gli algoritmi che guidano tali sistemi potrebbero non essere in grado di comprendere appieno le complessità etiche delle situazioni di combattimento, portando a decisioni che potrebbero essere considerate immorali o controverse.

Rischio di abusi

Un’arma autonoma potrebbe essere utilizzata in modo improprio o illegale, ad esempio, per reprimere proteste civili o per fini terroristici.

Velocità delle decisioni

Le macchine possono prendere decisioni processando dati ad altissima velocità, il che potrebbe portare a situazioni in cui il tempo per una riflessione etica di tipo umano è limitato o inesistente.

Mancanza di empatia

Le macchine non possiedono empatia come gli esseri umani, e questo potrebbe influenzare le decisioni in modo diverso rispetto a un operatore umano, causando morti inutili in determinati scenari operativi.

Peter Asaro e altri esperti in etica dell’intelligenza artificiale sottolineano l’importanza di porre limiti e introdurre normative chiare sull’utilizzo delle armi autonome per ridurre questi rischi etici (Reeves & Johnson, 2014; Stauffer, 2020; Seixas-Nunes, 2022c). Con l’aumento dei conflitti in ogni parte del mondo, le questioni legate alla roboetica, al diritto internazionale e alle leggi sulla guerra sono diventate sempre più rilevanti nel dibattito circa l’impiego di tali tecnologie nelle operazioni militari.

L’illusione della coscienza artificiale di Arkin

La possibilità di dotare i sistemi d’arma autonomi di una coscienza artificiale in grado di guidare la macchina verso decisioni conformi alle regole internazionali è alla base dell’approccio di Ronald Arkin, che propone un modello di sistema etico di IA di tipo top-down apparentemente in grado di aumentare la sensibilità etica della macchina rispetto alla decisione meccanicamente determinata di uccidere (Arkin, 2009). Secondo Arkin, un sistema d’arma autonomo dovrebbe essere basato su un’architettura IA governata da un “agente morale artificiale” o ATA (Wallach & Allen, 2009) che implementi regole d’ingaggio e vincoli ben precisi, basati su sistemi normativi universalmente accettati in guerra (come il diritto bellico, la Convenzione di Ginevra e la dichiarazione dei diritti dell’uomo promulgata dall’ONU), in grado di guidare le decisioni della macchina (CASD, 2022c). In base a tale assunto, un sistema d’arma autonomo che incorpori tali regole, dovrebbe essere in grado di verificarle prima di prendere una decisione letale e, quindi, agire in maniera conforme ai principi etici del diritto internazionale umanitario. Purtroppo, al momento attuale non è ancora possibile garantire che la macchina, trovandosi ad operare in specifici contesti che richiedono rapidità di reazione,  interpreti correttamente tali regole, anche se universalmente condivise, per cui la soluzione proposta da Arkin appare tuttora di difficile attuazione. Gli studi sullo sviluppo di una coscienza artificiale sono ancora in corso ed altre soluzioni sono state proposte affinché i sistemi d’arma autonomi possano al più presto acquisire una capacità decisionale improntata al rispetto delle regole di guerra, evitando ambiguità interpretative e impedendo uccisioni indiscriminate o danni collaterali (Strawser, 2013). A tal proposito, un’interessante disamina di vari casi di studio sullo sviluppo di una coscienza artificiale è offerta da Chella (2023).

L’agentività digitale nei teatri di guerra

L’agentività è un concetto elaborato dallo psicologo Albert Bandura nell’ambito della teoria social-cognitiva e dell’autoefficacia. Si tratta della capacità dell’essere umano di agire attivamente e trasformativamente in determinati contesti operativi, mettendo in atto azioni adeguate allo scopo (Bandura, 2000). L’intenzionalità alla base delle azioni è quindi modulata sulla base delle variabili di contesto, che modificano i livelli di risposta dell’agente, il quale può intervenire in maniera causale sulla realtà per modificarla producendo gli effetti voluti. Se l’agente non è umano ma è una macchina, è chiaro che tutte le possibili variabili dovrebbero essere già inserite nel set algoritmico in base al quale il sistema autonomo d’arma, trovandosi di fronte ad una determinata situazione operativa, possa agire in maniera rapida e adeguata al contesto, conformemente alle istruzioni ricevute.

Il concetto di “agentività digitale” in ambito militare si riferisce alla capacità dei sistemi d’arma autonomi di esercitare una capacità decisionale indipendente rispetto all’operatore umano attraverso l’utilizzo di algoritmi di intelligenza artificiale (Scharre, 2018). L’IA, infatti, svolge un ruolo chiave nell’analisi predittiva e nel decision making durante le operazioni militari: i modelli predittivi basati su algoritmi di apprendimento automatico possono valutare scenari complessi, anticipare movimenti avversari e ottimizzare le risposte alle minacce in tempo reale, utilizzando anche risorse OSINT in tempo reale (Galetta, 2023). Grazie allo sviluppo di capacità predittive e di autoapprendimento, tali sistemi possono assumere un crescente livello di autonomia nella pianificazione, nell’esecuzione e nella valutazione delle azioni senza una supervisione umana diretta in tempo reale, sollevando dubbi cruciali circa la sicurezza, l’etica, la legalità e i profili di responsabilità nella condotta delle operazioni militari (Bergen & Rothenberg, 2014; Wang & Zhang, 2021). Infatti, se da una parte tali sistemi offrono una maggiore efficacia tattica e operativa sul campo di battaglia, dall’altro la possibilità di errori algoritmici o di compromissione dei sistemi informativi da parte di agenti esterni al sistema (hacking) aumentano il rischio di danni collaterali (Chiriatti, 2021).

Elementi chiave del concetto di agentività digitale in ambito militare

Esplorando l’uso dei sistemi d’arma autonomi nei teatri di guerra, gli elementi chiave della discussione sul concetto di agentività digitale in ambito militare sono i seguenti:

Algoritmi e decisioni autonome

Gli algoritmi sono essenziali per la costruzione di una “agentività digitale”. I sistemi d’arma autonomi utilizzano algoritmi complessi per elaborare informazioni, identificare obiettivi, prendere decisioni ed eseguire azioni senza un intervento umano diretto.

Apprendimento automatico e adattamento

Alcuni sistemi d’arma autonomi sono in grado di apprendere dai dati e adattarsi alle nuove informazioni senza l’intervento umano. Questo può comportare una maggiore flessibilità operativa, ma solleva anche preoccupazioni riguardo alla trasparenza e alla comprensibilità delle decisioni prese da tali sistemi.

Capacità di risposta rapida

L’agentività digitale consente ai sistemi autonomi di reagire rapidamente a situazioni dinamiche e complesse sul campo di battaglia. Questo è spesso considerato un vantaggio strategico, ma può rendere molto difficile evitare decisioni impulsive o errate.

Sfide etiche e legalità

L’agentività digitale nei sistemi d’arma solleva importanti questioni etiche e legali. Chi è responsabile per le azioni compiute da un sistema autonomo? Come possono essere garantiti il rispetto del diritto internazionale e delle leggi umanitarie?

Controllo umano significativo

In molte discussioni, si sottolinea l’importanza di mantenere un “controllo umano significativo” su tali sistemi. Questo implica che, mentre i sistemi possono avere una certa autonomia, dovrebbero rimanere soggetti al controllo umano in caso di decisioni critiche e per evitare comportamenti imprevisti o indesiderati (Horowitz & Scharre, 2015; Ekelhof, 2019).

Interconnessione e “swarming”

In alcune situazioni, i sistemi d’arma autonomi possono operare in modo coordinato e collaborativo, formando sistemi interconnessi noti come swarm. Questi possono amplificare l’agentività digitale di un singolo sistema connettendolo con altre unità sistemiche per produrre un’azione coordinata, richiedendo quindi una gestione più attenta (Kallenborn, 2021).

Ad ampliare il concetto di agentività digitale in ambito militare contribuiscono anche gli studi di swarm robotics, ovvero l’applicazione della logica di sciame ai sistemi d’arma autonomi, che consentirebbero alle armi intelligenti di agire in armonia durante le operazioni militari, introducendo l’idea di un’agentività collettiva digitale, possibile preludio di una coscienza robotica collettiva (Arquilla & Ronfeldt, 2000). Tale cooperazione tra algoritmi consentirebbe agli eserciti di superare le limitazioni umane nella pianificazione e nell’esecuzione delle operazioni, permettendo di adattarsi automaticamente alle mutevoli condizioni del campo di battaglia ed imponendo una supremazia strategica sul nemico (Singer, 2009a; 2009b). Anche tale prospettiva solleva molti dubbi etici, ma anche preoccupazioni per il futuro stesso dell’umanità (Asaro, 2008; Docherty, 2012; Balistreri, 2015; Alexandre, 2018).Inizio modulo

I pericoli di una digicrazia di guerra

La possibilità che i sistemi d’arma autonomi possano superare i limiti decisionali imposti dall’uomo comporta il rischio che le macchine possano un giorno assumere il pieno controllo dei conflitti, imponendo una sorta di potere immateriale con conseguenze inimmaginabili. L’attuale impiego degli AWS/LAWS sul campo di battaglia, in grado di eseguire targeted killings in piena autonomia, sta estendendo la portata strategica della guerra oltre i confini convenzionali (Grondin, 2013). Satelliti, droni ed altri dispositivi ad alta tecnologia forniscono una visione dettagliata e in tempo reale del campo di battaglia: questa ubiquità sensoriale consente una comprensione avanzata del teatro operativo, permettendo ai sistemi d’arma autonomi di prendere decisioni rapide e mirate, ma non certo prive di errori e danni collaterali. Si tratta di una digicrazia esercitata attraverso il potere degli algoritmi di IA applicati a strumenti di guerra (Freedman, 2017).

Il termine “digicrazia” utilizzato in ambito militare denota la creazione di un sistema di potere digitale per mezzo del quale le tecnologie avanzate e l’IA giocano un ruolo predominante nella conduzione delle operazioni militari (Arquilla & Ronfeldt, 1997). Tale potere si manifesta attraverso la totalizzazione del controllo del tempo e dello spazio nelle operazioni militari, grazie ad un’estesa rete di sistemi di sorveglianza geospaziale globale (Gregory, 2011; Krieger, 2018), ma anche attraverso la capacità delle armi intelligenti di agire senza dare il tempo all’avversario di accorgersi della minaccia e prendere le opportune contromisure, aumentando la supremazia strategica sul campo. Un drone, infatti, proietta la sua forza senza proiettare vulnerabilità, diventando un dispositivo di potere incarnato (videre nec videri): un «Golem digitale» che, ribellatosi al suo creatore, è ormai in grado di esprimere una propria autonoma agentività (Čapek, 2015; Marazzi, 2012; Payne, 2021). Il drone è l’incarnazione dell’avversario sul campo di battaglia: a lui è anche possibile arrendersi, come già fatto da molti soldati russi in Ucraina.

Un ulteriore elemento di supremazia strategica è dato dall’implementazione nei sistemi d’arma di algoritmi predittivi, alimentati da dati in tempo reale, che consentono la previsione di movimenti avversari, il monitoraggio delle risorse logistiche e la valutazione delle condizioni meteorologiche, influenzando l’esito delle operazioni sul campo di battaglia. La digicrazia militare è interamente basata su algoritmi avanzati che conferiscono agentività digitale ai sistemi d’arma autonomi.

Questi algoritmi, che sfruttano le capacità di apprendimento automatico dell’IA, consentono a droni, robot e smart weapons di poter assumere un ruolo attivo nelle decisioni operative sul campo di battaglia, del tutto svincolate dal controllo umano (Sabry, 2021). L’agentività digitale rappresenta quindi la capacità di esprimere autonomamente intenzioni e azioni da parte della macchina, creando un nuovo concetto di guerra, dove a combattere sono gli algoritmi (Arkin, 2007). In un simile contesto di digicrazia militare, dove a esercitare il potere sul campo sono i sistemi autonomi d’arma, si assiste ad una trasformazione delle guerre convenzionali in guerre di algoritmi: le forze armate si scontrano non solo attraverso la potenza di fuoco convenzionale, ma anche attraverso la competenza algoritmica. Gli eserciti delle grandi potenze militari competono nello sviluppo e nell’impiego di algoritmi avanzati per ottenere vantaggi strategici e operativi, utilizzando anche lo spazio come ultima frontiera di combattimento attraverso il lancio massiccio di satelliti militari, in grado di interfacciarsi con i sistemi d’arma autonomi sulla terra.

La digicrazia militare solleva dunque importanti questioni etiche riguardo al controllo umano sulle macchine intelligenti (Sharkey, N. E., 2012). Come già detto, la decisione di affidare a sistemi autonomi la selezione e l’attacco di obiettivi apre un dibattito sulla responsabilità e sulla legalità delle azioni compiute da tali dispositivi. La necessità di regolamentazioni chiare e di linee guida etiche diventa quindi imperativa al fine di mitigare rischi e abusi (Sharkey, A., 2019). In conclusione, la digicrazia militare rappresenta la nuova frontiera nell’evoluzione della guerra, dove il potere digitale si fonde con le strategie militari. Se da un lato offre vantaggi in termini di efficienza e precisione, dall’altro richiede un approccio olistico e multidisciplinare che integri controlli etici, regolamentazioni e un dialogo politico internazionale per garantire un utilizzo responsabile di queste tecnologie avanzate (Bousquet, 2009). L’equilibrio tra l’efficienza operativa data dalla tecnologia e la necessità di preservare valori umani e diritti fondamentali rappresenta una sfida cruciale.

La riflessione critica su questo paradigma emergente è essenziale per guidare lo sviluppo futuro delle tecnologie militari su basi eticamente responsabili e condivise, affinchè l’obiettivo delle ricerche sui nuovi sistemi d’arma autonomi non sia soltanto quello di accelerare la kill chain nel corso delle guerre, programmandone gli sviluppi a lungo termine come una catena di montaggio distruttiva e disumanizzante (Cheater, 2005; Clapper et al., 2007).  Il controllo umano su decisioni letali, la prevenzione di abusi e la responsabilità legale sono temi centrali che richiedono una riflessione approfondita ed un approccio sincretico e multidisciplinare. Il concetto di “controllo umano significativo” deve quindi assumere un ruolo centrale nell’ambito delle ricerche sui sistemi d’arma intelligenti.

Conclusioni

L’utilizzo dei sistemi d’arma autonomi è un tema complesso, che coinvolge dimensioni etiche, giuridiche, filosofiche, politiche e militari. La stessa bibliografia esplorata in questo articolo riflette la diversità delle prospettive, evidenziando la necessità di un dialogo interdisciplinare per affrontare le sfide e garantire un utilizzo etico e responsabile di tali tecnologie. Il rapido sviluppo dell’IA in ambito militare ha profondamente trasformato la natura della guerra, introducendo nuove sfide e opportunità, ma anche molte preoccupazioni. Infatti, se da un lato l’IA offre indiscussi vantaggi in termini di efficienza, rapidità e precisione, dall’altro è irrinunciabile affrontare le implicazioni etiche e stabilire regole chiare al fine di guidare correttamente il suo utilizzo in ambito militare.

La guerra degli algoritmi è una realtà in evoluzione, e comprendere appieno il suo impatto è essenziale per plasmare il futuro delle dinamiche belliche globali. Il dialogo internazionale e la cooperazione tra i paesi sono essenziali per garantire che l’IA contribuisca a un contesto di sicurezza globale anziché minacciarlo.

La mancanza di regole chiare e il rischio di un utilizzo improprio delle tecnologie avanzate in ambito militare possono portare a conseguenze disastrose per l’intera umanità. La comunità internazionale è chiamata a sviluppare regole nuove, in grado di mitigare gli impatti negativi e garantire un uso responsabile dell’IA in guerra. Le nuove battaglie si svolgeranno dunque sul fronte dell’etica e della regolamentazione internazionale, nella speranza che in questo nuovo tipo di guerra non vi siano solo sconfitti.

Bibliografia

Ackerman, E. (2014). U.S. Army Considers Replacing Thousands of Soldiers with Robots. IEEE Spectrum. https://spectrum.ieee.org/army-considers-replacing-thousands-of-soldiers-with-robots

Adams, T. K. (2001). Future Warfare and the Decline of Human Decisionmaking. Parameters, 31(4), 57-71. https://press.armywarcollege.edu/cgi/viewcontent.cgi?article=2058&context=parameters

Alexandre, L. (2018). La guerra delle intelligenze. Intelligenza artificiale contro intelligenza umana. Torino: EDT.

Allinson, J. (2015). The Necropolitics of Drones. International Political Sociology, 9. https://doi.org/10.1111/ips.12086

Amoore, L. (2009). Algorithmic war: Everyday geographies of the war on terror. Antipode, 41(1), 49-69.

Amoroso, D., & Tamburrini, G. (2019). I sistemi robotici ad autonomia crescente tra etica e diritto: quale ruolo per il controllo umano?. BioLaw Journal – Rivista di BioDiritto, 1, 33-51.

Annati, M. (2019). Autonomous Weapon Systems. Rivista Italiana di Difesa, 4, 63-75.

Arkin, R. C. (2007). Governing lethal behavior: embedding ethics in a hybrid deliberative/reactive robot architecture. Technical Report GUT-GVU-07-11. Georgia Institute of Technology. https://www.cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf

Arkin, R. C. (2009). Governing Lethal Behavior in Autonomous Robots. New York, NY – Boca Raton, FL: Chapman and Hall – CRC Press.

Arquilla, J., & Ronfeldt, D. (1997). In Athena’s Camp: Preparing for Conflict in the Information Age. Santa Monica, CA: Rand Corporation.

Arquilla, J., & Ronfeldt, D. (2000). Swarming and the Future of Conflict. Santa Monica, CA: RAND Corporation.

Asaro, P. (2008). How just could a robot war be?. In A. Briggle, K. Waelbers, & P. A. E. Brey (Eds.), Current Issues in Computing And Philosophy (Frontiers in Artificial Intelligence and Applications) (pp. 50-64). Amsterdam: IOS Press.

Asaro, P. (2012). On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making. International Review of the Red Cross, 94(886), 687-709.

Asaro, P. (2020). Autonomous Weapons and the Ethics of Artificial Intelligence. In S. M. Liao (Ed.), Ethics of Artificial Intelligence. Oxford: Oxford University Press.

Asimov, I. (2021). I, Robot. Milano: Mondadori. (Edizione originale pubblicata nel 1950).

Balistreri, M. (2015). Umanità e integrità del soldato potenziato: alcune riflessioni di bioetica militare. Etica & Politica / Ethics & Politics, XVII(1), 127-146.

Balistreri, M. (2017). Robot Killer. La Rivoluzione Robotica nella Guerra e le Questioni Morali. Etica & Politica / Ethics & Politics, XIX(2), 405-430.

Bandura, A. (2000). Autoefficacia: teoria e applicazioni. Trento: Erickson.

Battaglia, P. (2018). Intelligenza artificiale: dagli automi ai robot «intelligenti». Milano: RCS MediaGroup.

Benjamin, M., & Ehrenreich, B. (2013). Drone Warfare: Killing By Remote Control. London: Verso Books.

Bergen, P. L., & Rothenberg, D. (2014). Drone Wars: Transforming Conflict, Law, and Policy. New York, NY: Cambridge University Press.

Boulanin, V., Bruun, L., & Goussac, N. (2017). Autonomous weapon systems and International Humanitarian Law: Identifying limits and the required type and degree of human-machine interaction. SIPRI Stockholm International Peace Research Institute. https://www.sipri.org/sites/default/files/2021-06/2106_aws_and_ihl_0.pdf

Boulanin, V., & Verbruggen, M. (2017). Mapping the development of autonomy in weapon systems. SIPRI Stockholm International Peace Research Institute. https://www.sipri.org/sites/default/files/2017-11/siprireport_mapping_the_development_of_autonomy_in_weapon_systems_1117_1.pdf

Boulanin, V., Davison, N., Goussac, N., & Carlsson, M. P. (2020). Limits on autonomy in weapon systems. Identifying Practical Elements of Human Control. SIPRI Stockholm International Peace Research Institute. https://www.sipri.org/sites/default/files/2020-06/2006_limits_of_autonomy_0.pdf

Bousquet, A. (2009). The Scientific Way of Warfare: Order and Chaos on the Battlefields of Modernity. New York: Columbia University Press.

Burridge, B. (2003). UAVs and the dawn of post-modern warfare: a perspective on recent operations. RUSI Journal, 148(5), 18–23.

Calhoun, L. (2016). We Kill Because We Can: From Soldiering to Assassination in the Drone Age. London: Zed Books.

Čapek, K. (2015). R.U.R. Rossum’s Universal Robots. Venezia: Marsilio Editore. (Edizione originale pubblicata nel 1921).

Centro Alti Studi per la Difesa (CASD) – Istituto di Ricerca e Analisi della Difesa (IRAD). (2022a) (a cura di M. Artoni). L’impiego dell’intelligenza artificiale – Una trasformazione inevitabile. Evoluzione e stato dell’arte. https://www.difesa.it/SMD_/CASD/IM/CeMiSS/DocumentiVis/Ricerche_da_pubblicare/Pubblicate_nel_2022/Artoni_AQ_SMD_12.pdf

Centro Alti Studi per la Difesa (CASD) – Istituto di Ricerca e Analisi della Difesa (IRAD). (2022b) (a cura di C. Catalano). Evoluzione e stato dell’arte dello “SWARMING” e la sua relazione con le Multi-Domain Operations (MDOs): progressi tecnologici, ambiti di applicazione, punti di forza, vulnerabilità, opportunità, minacce. https://www.difesa.it/SMD_/CASD/IM/CeMiSS/DocumentiVis/Ricerche_da_pubblicare/Pubblicate_nel_2023/ricerca_AQSMD11_Catalano.pdf

Centro Alti Studi per la Difesa (CASD) – Istituto Superiore di Stato Maggiore Interforze (ISSMI). (2022c). I principi fondamentali nella condotta delle operazioni militari. https://www.difesa.it/SMD_/CASD/IM/ISSMI/Documents/Precorso_Diritto_Umanitario.pdf

Ceola, P. (2020). Macchine Guerriere Autonome. Filosofia, LXV(4), 51-62. https://ojs.unito.it/index.php/filosofia/article/view/5078/4702

Ceola, P., & Gaza, C. R. (2013). Non-human Warfare. Robot e cyborg tra postmoderno e postumano. Collana SISM, 4. Torino: Società Italiana di Storia Militare. https://www.societaitalianastoriamilitare.org/COLLANA%20SISM/Non%20Human%20Warfare.pdf

Chamayou, G. (2015). Teoria del drone. Principi filosofici del diritto di uccidere. Roma: DeriveApprodi.

Cheater, J. C. (2005). Accelerating the kill chain via future unmanned aircraft. Blue Horizons Paper, Maxwell Air Force Base, Montgomery AL, Center for Strategy and Technology, Air War College. https://apps.dtic.mil/sti/pdfs/ADA497575.pdf

Chella, A. (2023). Coscienza artificiale: l’ingrediente mancante per un’IA etica?. I Quaderni di Agendadigitale.eu, speciale Intelligenza Artificiale, 14, 28-35.

Chiriatti, M. (2021). Incoscienza artificiale. Come fanno le macchine a prevedere per noi. Roma: LUISS University Press.

Chu, J. (2017, 12 giugno). Army Robotics in the Military. SEI Blog, Carnegie Mellon University. https://insights.sei.cmu.edu/blog/army-robotics-in-the-military/

Clapper, J., Young, J., Cartwright, J., & Grimes, J. (2007). Unmanned systems roadmap 2007–2032. Arlingron VA: Pentagon, Office of the Secretary of Defense.

Clark, J. W. (1963). Telechirics for Operations in Hostile Environments. Battelle Technical Review, 3-8.

Clark, J. W. (1964). Remote Control in Hostile Environments. New Scientist, 22(389), 300-304.

Congressional Research Service. (2018). U.S. Ground Forces Robotics and Autonomous Systems (RAS) and Artificial Intelligence (AI): Considerations for Congress. CRS Report, R45392, 1-43. https://crsreports.congress.gov/product/pdf/R/R45392

Contin, S. (2022). Armi autonome, nuove sfide per l’umanità. Introduction about autonomous weapon. Università di Verona, Facoltà di Filosofia. https://www.researchgate.net/publication/364202002_Armi_autonome_nuove_sfide_per_l’umanita_-_introduction_about_autonomous_weapon

De Landa, M. (1996). La guerra nell’era delle macchine intelligenti. Milano: Feltrinelli.

Docherty, B. L. (2012). Losing Humanity: The Case against Killer Robots. Human Rights Watch, Cambridge MA. https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-killer-robots

Ekelhof, M. (2019). Moving Beyond Semantics on Autonomous Weapons: Meaningful Human Control in Operation. Global Policy, 10(3), 343-348.

ElMasry, E. (2018). Army of the Future: Artificial Intelligence and Its Impact on Operations. JCSP-PCEMI 44, Canadian Forces College. https://www.cfc.forces.gc.ca/259/290/405/192/elmasry.pdf

Etzioni, A., & Etzioni, O. (2017). Pros and Cons of Autonomous Weapons Systems. Military Review, 3, 72-81. https://www.armyupress.army.mil/Portals/7/military-review/Archives/English/pros-and-cons-of-autonomous-weapons-systems.pdf

Felt, C. (2020). Autonomous Weaponry Are Killer Robots in Our Future?. University of Washington, The Henry M. Jackson School of International Relations. https://jsis.washington.edu/news/autonomous-weaponry-are-killer-robots-in-our-future/

Fitzsimonds, J. R., & Mahnken, T. G. (2007). Military officer attitudes towards UAV adoption: Exploring institutional impediments to innovation. JFQ Joint Force Quarterly, 46, 96-103.

Fossa, F., Schiaffonati, V., & Tamburrini, G. (2021). Automi e persone. Introduzione all’etica dell’intelligenza artificiale e della robotica. Roma: Carocci Editore.

Freedman, L. (2017). The Future of War: A History. New York: PublicAffairs.

Galeotti, M. (2023). The Weaponization of Everything. A Field Guide to the New Way of War. New Haven CT: Yale University Press.

Galetta, G. (2023). Il modello Osint in ambito militare: dinamiche di open/closed access nel trattamento dell’informazione a fini strategici. Rivista di Digital Politics, 3(2), 413-442.

Gillis, J. (2017). Warfighter Trust in Autonomy. DSIAC Journal, 4, 23-29.

Gregory, D. (2011). The everywhere war. The Geographical Journal, 177, 238-250.

Grondin, D. (2013). War Beyond the Battlefield. London: Routledge.

Gusterson, H. (2016). Drone: Remote Control Warfare. Cambridge, MA: The MIT Press.

Heisbourg, F. (1999). Il futuro della guerra. Milano: Garzanti.

Holmqvist, C. (2013). Undoing War: War Ontologies and the Materiality of Drone Warfare. Millennium, 41, 535-552.

Horowitz, M. C. (2019). When Speed Kills: Lethal Autonomous Weapons Systems, Deterrence and Stability. Journal of Strategic Studies, 42(6), 764-788.

Horowitz, M. C., & Scharre, P. (2015). Meaningful Human Control in Weapon Systems: A Primer. Washington, D.C.: CNAS Center for a New American Security. https://www.cnas.org/publications/reports/meaningful-human-control-in-weapon-systems-a-primer

HRW – Human Rights Watch (2016). Killer Robots and the Concept of Meaningful Human Control. Memorandum to Convention on Conventional Weapons (CCW) Delegates. https://www.hrw.org/news/2016/04/11/killer-robots-and-concept-meaningful-human-control.

Iaria, A. (2018). Da autonomi a completamente autonomi: l’applicazione dell’Intelligenza Artificiale nei sistemi d’arma autonomi (LAWS). Rassegna della Giustizia Militare: Rivista della Giustizia e della Procedura Penale Militare, 6, 24-32.

ICRC – International Committee of the Red Cross. (2014). Autonomous Weapon Systems: Technical, Military, Legal and Humanitarian Aspects. Expert Meeting Report. Geneva: ICRC. https://www.icrc.org/en/document/report-icrc-meeting-autonomous-weapon-systems-26-28-march-2014

IRIAD – Istituto di Ricerche Internazionali Archivio Disarmo. (2020). LAWS: Lethal Autonomous Weapon Systems: La questione delle armi letali autonome e le possibili azioni italiane ed europee per un accordo internazionale. IRIAD Review – Studi sulla pace e sui conflitti, 7-8, 1-161. https://www.archiviodisarmo.it/view/K0Y2nX8-UWjKHNM9OQ83o96Kv0-oDTrYQW5IYIxM1dE/iriad-review-luglio-agosto.pdf

Jaffer, J. (2016). The Drone Memos: Targeted Killing, Secrecy, and the Law. New York NY: The New Press.

Jean, C. (2006). La guerra virtuale. In C. Rastelli & G. Cerino Badone (Eds.), Storia della guerra futura. Roma: Società Italiana di Storia Militare.

Johnson, M. A. (2019). Drones and the Ethics of Targeted Killing. Oxford Research Encyclopedia of Communication.

Kaag, J., & Kreps, S. (2014). Drone Warfare. Cambridge: Polity Press.

Kahn, P. W. (2002). The Paradox of Riskless Warfare. Philosophy and Public Policy Quarterly, 22(3), 2-8. https://openyls.law.yale.edu/bitstream/handle/20.500.13051/2656/Paradox_of_Riskless_Warfare__%20The.pdf?sequence=2&isAllowed=y

Kallenborn, Z. (2021). Swarm Talk: Understanding Drone Typology. Modern War Institute, West Point NY. https://mwi.usma.edu/swarm-talk-understanding-drone-typology/

Klare, M. T. (2019). Autonomous weapons systems and the Laws of War. Arms Control Association, Washington D.C. https://www.armscontrol.org/act/2019-03/features/autonomous-weapons-systems-laws-war

Krieger, D. (2018). Geospatial Intelligence: Understanding the Basics. London: Routledge.

Krishnan, A. (2009). Killer robots. Legality and ethicality of autonomous weapons. Farnham UK: Ashgate Publishing Limited.

Leonard, M. (2023). L’era della non-pace. Perchè la connettività porta al conflitto. Milano: Bocconi University Press.

Lewis, D. (2020). An Enduring Impasse on Autonomous Weapons. Just Security. https://www.justsecurity.org/72610/an-enduring-impasse-on-autonomous-weapons/

Lin, P., Bekey, G., & Abney, K. (2008). Autonomous military robotics: Risk, ethics, and design. Arlington VA: U.S. Department of Navy, Office of Naval Research. https://digitalcommons.calpoly.edu/cgi/viewcontent.cgi?referer=&httpsredir=1&article=1001&context=phil_fac

Lucas, G. R., Jr. (2013). Engineering, ethics & industry: The moral challenges of lethal autonomy. In B. Strawser (Ed.), Killing by remote control: The ethics of an unmanned military (pp. 211-228). Oxford: Oxford University Press.

Maas, M. M. (2019). How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons. Contemporary Security Policy, 40(3), 285-311.

Marazzi, A. (2012). Uomini, cyborg e robot umanoidi: Antropologia dell’uomo artificiale. Roma: Carocci.

Marchant, G. E., Allenby, B., Arkin, R., Barrett, E. T., Borenstein, J., Gaudet, L. M., Kittrie, O., Lin, P., Lucas, G. R., O’Meara, R., & Silberman, J. (2011). International Governance of Autonomous Military Robots. Columbia Science and Technology Law Review, XII, 272-315. https://doi.org/10.7916/D8TB1HDW

Mégret, F. (2012). War and the Vanishing Battlefield. Loyola University Chicago International Law Review, 9(1). https://ssrn.com/abstract=1986548

Mies, G. (2010). Military robots of the present and the future. AARMS, 9(1), 125-137.

O’Hanlon, M. E. (2000). Technological Change and the Future of Warfare. Washington D.C.: The Brookings Institution.

Osoba, O. A., & Wesler, W. IV. (2017). An Intelligence in Our Image – The Risks of Bias and Errors in Artificial Intelligence. Santa Monica, CA: RAND.

Panwar, R. S. (2020). Lethal Autonomous Weapon Systems: Slaves not Masters! Meaningful Human Control, saving Lives and Non-Feasibility of a Pre-Emptive Ban. Future Wars, 6 ottobre. https://futurewars.rspanwar.net/lethal-autonomous-weapon-systems-slaves-not-masters-meaningful-human-control-saving-lives-and-non-feasibility-of-a-pre-emptive-ban/.

Payne, K. (2021). I, Warbot: The Dawn of Artificially Intelligent Conflict. Oxford: Oxford University Press.

Pireddu, M., & Tursi, M. (Eds.). (2006). Post-umano: Relazione tra uomo e tecnologia nella società delle reti. Milano: Guerini & Associati.

Pryer, D. A. (2013). The rise of the machines: Why increasingly “perfect” weapons help perpetuate our wars and endanger our nation. Military Review, 93(2), 14-24.

Quaranta, P. (2021). Lo stato della robotica militare. Rivista Italiana di Difesa, 7, 64-72.

Quarteroni, A. (2021). Algoritmi per un nuovo mondo. Bari: Edizioni Dedalo.

Reeves, S., & Johnson, W. (2014). Autonomous weapons: Are you sure these are killer robots? Can we talk about it?. The Army Lawyer, 1, 25-31.

Roff, H. M. (2014). The strategic robot problem: Lethal autonomous weapons in war. Journal of Military Ethics, 13(3), 211-227.

Rosapepe, F. P. (2020). Intelligenza artificiale. Limiti e pericoli. I.A. da guerra. Lecce: Youcanprint.

Royakkers, L., & Topolski, A. (2014). Military Robotics & Relationality: Criteria for Ethical Decision-Making. In J. van den Hoven, N. Doorn, T. Swierstra, B.-J. Koops, & H. Romijn (Eds.), Responsible Innovation 1. Innovative Solutions for Global Issues. Dordrecht, NL: Springer. doi: 10.1007/978-94-017-8956-1_20.

Ruschi, F. (2016). Il volo del drone: Verso una guerra post-umana? Una riflessione di Filosofia del Diritto Internazionale. Jura Gentium, 1, 1-28.

Sabry, F. (2021). Armi autonome. In che modo l’intelligenza artificiale prenderà il sopravvento sulla corsa agli armamenti. Abu Dhabi, UAE: 1BK One Billion Knowledgeable.

Sacchi, M. (2020). La guerra delle macchine. Hacker, droni e androidi: perché i conflitti ad alta tecnologia potrebbero essere ingannevoli e terribilmente fatali. Milano: Algama Editore.

Scharre, P. D. (2018). Army of None. Autonomous Weapons and the Future of War. New York, NY: W. W. Norton & Company.

Scharre, P. D., & Horowitz, M. (2015). An introduction to autonomy in weapons systems (Working Paper). Washington D.C.: CNAS Center for New American Security. https://www.cnas.org/publications/reports/an-introduction-to-autonomy-in-weapon-systems.

Scharre, P. D., & Seaboyer, A. (2021). Human control of Autonomous Weapons. Toronto: DRDC Defence Research and Development Canada. Available at https://cradpdf.drdc-rddc.gc.ca/PDFS/unc405/p815744_A1b.pdf.

Schiaffonati, V., & Tamburrini, G. (2021). Armi autonome e controllo umano significativo. In F. Fossa, V. Schiaffonati, & G. Tamburrini (Eds.), Automi e persone. Introduzione all’etica dell’intelligenza artificiale e della robotica. Roma: Carocci Editore, 133-152.

Schwarz, E. (2015). Prescription drones: On the techno-biopolitical regimes of contemporary “ethical killing”. Security Dialogue, 47. doi: 10.1177/0967010615601388.

Seixas-Nunes, A. (2022a). The Legality and Accountability of Autonomous Weapon Systems: A Humanitarian Law Perspective. Cambridge: Cambridge University Press.

Seixas-Nunes, A. (2022b). Introducing Autonomous Systems of War: The Challenges of Artificial Intelligence. In A. Seixas-Nunes, The Legality and Accountability of Autonomous Weapon Systems: A Humanitarian Law Perspective (pp. 9-44). Cambridge: Cambridge University Press.

Seixas-Nunes, A. (2022c). Autonomous Weapon Systems and ‘Autonomy’: Weapons or Killer Robots? In A. Seixas-Nunes, The Legality and Accountability of Autonomous Weapon Systems: A Humanitarian Law Perspective (pp. 103-109). Cambridge: Cambridge University Press.

Sharkey, N. E. (2012). The evitability of autonomous robot warfare. International Review of the Red Cross, 94(886), 787-799.

Sharkey, A. (2019). Autonomous weapons systems, killer robots and human dignity. Ethics and Information Technology, 21(2), 75-87.

Shaw, I. G. R. (2013). Predator Empire: The Geopolitics of U.S. Drone Warfare. Geopolitics, 18(3), 536-559.

Shaw, I. G. R. (2016). Predator Empire: Drone Warfare and Full Spectrum Dominance. Minneapolis, MN: University of Minnesota Press.

Shaw, I. G. R. (2017). Robot Wars: US Empire and geopolitics in the robotic age. Security Dialogue, 48(5), 451-470.

Singer, P. W. (2009a). Wired for War: The Robotics Revolution and Conflict in the 21st Century. New York, NY: Penguin Books Ltd.

Singer, P. W. (2009b). Wired for War? Robots and Military Doctrine. JFQ Joint Force Quarterly, 52(1), 104-110. Available at http://intelros.ru/pdf/jfq_52/21.pdf.

Singer, P. W. (2010). La Guerra delle macchine. Le Scienze, 505(9), 80-87.

Smith, E. A., Jr. (2001). Network-Centric Warfare. Naval War College Review, 54(1), 5. Available at https://digital-commons.usnwc.edu/cgi/viewcontent.cgi?article=2391&context=nwc-review.

Smith, J. (2020). Autonomous Weapon Systems: A Comprehensive Survey. Journal of Military Ethics, 19(3), 245-263.

Somenzi, V., & Cordeschi, R. (Eds.). (2022). La filosofia degli automi. Origini dell’intelligenza artificiale. Milano: Mimesis Edizioni.

Sparrow, R. (2007). Killer robots. Journal of Applied Philosophy, 24(1), 62-77.

Stauffer, B. (2020). Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control. New York, NY: HRW Publications.

Strawser, B. J. (2010). Moral predators: the duty to employ uninhabited aerial vehicles. Journal of Military Ethics, 9(4), 342–368.

Strawser, B. J. (Ed.). (2013). Killing by Remote Control: The Ethics of an Unmanned Military. Oxford: Oxford University Press.

Sullins, J. (2010). RoboWarfare: Can robots be more ethical than humans on the battlefield?. Ethics and Information Technology, 12(3), 263-275.

Tamburrini, G. (2020). Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale. Roma: Carocci Editore.

Tognocchi, M. (2018). Drone warfare and the metamorphosis of battlefield: security, space and technology. MAIR Thesis Seminar, Leiden University, Leiden, NL. Available at https://studenttheses.universiteitleiden.nl/access/item%3A2660055/view.

Umbrello, S. (2021). Coupling levels of abstraction in understanding meaningful human control of autonomous weapons: a Two-tiered approach. Ethics and Information Technology. doi: 10.1007/s10676-021-09588-w.

U.S. Army Capabilities Integration Center – Future Warfare Division. (2018). Operationalizing Robotic and Autonomous Systems in Support of Multi-Domain Operations (White Paper). Available at https://info.publicintelligence.net/USArmy-RoboticAutonomousMultiDomainOps.pdf.

U.S. Army Training and Doctrine Command. (2017). The U.S. Army Robotic and Autonomous Systems Strategy. Fort Eustis, VA. Available at https://mronline.org/wp-content/uploads/2018/02/RAS_Strategy.pdf.

U.S. Department of Defense. (2023). Autonomy in Weapons Systems, directive no. 3000.09. Pentagon, Arlington, VA. Available at https://s3.documentcloud.org/documents/23588964/300009-autonomy-in-weapons-systems.pdf.

U.S. Department of the Army – TRADOC, Army Capabilities Integration Center (ARCIC), Maneuver, Aviation, and Soldier Division. (2017). The U.S. Army Robotic and Autonomous Systems Strategy. Fort Eustis, VA: TRADOC United States Army Training and Doctrine Command.

U.S. Department of the Navy – United States Marine Corps, Warfighting Laboratory, Wargaming Division. (2017). Manned Unmanned Teaming Wargame – Final Report. Quantico, VA: Marine Corps Warfighting Laboratory.

Valavanis, K. P., & Vachtsevanos, G. J. (Eds.). (2015). Handbook of Unmanned Aerial Vehicles. Dordrecht, NL: Springer Reference.

Veruggio, G., & Operto, F. (2008). Roboethics: Social and ethical implications of robotics. In B. Siciliano & O. Khatib (Eds.), Springer handbook of robotics. Berlin: Springer, 1499-1524.

Vicente, J. (2017). Glimpses of Tomorrow: The Coming Age of Autonomous Air Warfare. Nação e Defesa, 146, 66-84.

Wallach, W., & Allen, C. (2008). Moral Machines: Teaching Robots Right from Wrong. New York, NY: Oxford University Press.

Wang, L., & Zhang, Y. (2021). Predictive Analytics in Military Decision Making: A Review. IEEE Access, 9, 27662-27674.

Wilcox, L. (2017). Embodying Algorithmic War: Gender, Race, and the Posthuman in Drone Warfare. Security Dialogue, 48(1), 11-28.

Williams, A. J. (2011). Enabling persistent presence? Performing the embodied geopolitics of the unmanned aerial vehicle assemblage. Political Geography, 30, 381-390.

Williams, A. P., & Scharre, P. D. (Eds.). (2015). Autonomous Systems: Issues for Defence Policymakers. Norfolk, VA: NATO, Headquarters Supreme Allied Commander Transformation (printed by NATO Communications and Information Agency, The Hague, NL).

Work, R., & Brimley, S. (2014). 20YY Preparing for War in the Robotic Age. Center for New American Security. Available at https://www.cnas.org/publications/reports/20yy-preparing-for-war-in-the-robotic-age.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2