Nel cuore del dibattito contemporaneo sulle nuove tecnologie militari si colloca il AWS Group – acronimo di Autonomous Weapons Systems Group – un insieme informale di Stati e attori che, dal 2014, si riuniscono periodicamente nell’ambito della Convention on Certain Conventional Weapons (CCW) presso le Nazioni Unite, con l’obiettivo di discutere limiti, rischi e prospettive giuridiche delle armi autonome. Tuttavia, nonostante la crescente urgenza normativa, le conclusioni del gruppo non producono effetti vincolanti sul piano del diritto internazionale. Non si tratta infatti di un organo formale né di una conferenza dotata di potere decisionale, ma di un forum di discussione, senza alcuna capacità normativa.
Come osservato da Schmitt (2022), «la mancanza di un consenso vincolante sull'uso degli autonomous weapon systems riflette il persistente stallo politico e giuridico tra gli Stati, incapaci di trovare un terreno comune tra innovazione tecnologica e rispetto del diritto internazionale umanitario». Le raccomandazioni prodotte dal gruppo AWS – pur basate su discussioni di alto livello e coordinate dalla Group of Governmental Experts (GGE) – non costituiscono norme giuridiche, né sono soggette a meccanismi di enforcement internazionale.
Secondo la dottrina classica del diritto internazionale, perché uno strumento sia giuridicamente vincolante, deve nascere da un accordo espresso tra soggetti di diritto internazionale, generalmente sotto forma di trattato, convenzione o risoluzione adottata secondo procedure formali. Il gruppo AWS, al contrario, opera su base consensuale, con esiti meramente raccomandatori (UNODA, 2020). In altri termini, la sua funzione è consultiva, non normativa.
Questo vuoto giuridico lascia spazio a interpretazioni divergenti e a iniziative unilaterali da parte degli Stati, spesso guidate più da interessi strategici e tecnologici che da principi di diritto internazionale. In un contesto dove l’uso delle lethal autonomous weapons (LAWs) è sempre più prossimo, l’assenza di una regolamentazione vincolante rappresenta un vulnus critico per la protezione dei diritti umani e il mantenimento dell’ordine giuridico internazionale.
1. Il caso del drone KARGU-2 in Libia (2020)
Uno degli episodi più discussi riguarda l’uso del drone KARGU-2, prodotto dall’azienda turca STM, durante il conflitto civile libico nel 2020. Secondo un rapporto del Panel of Experts on Libya del Consiglio di Sicurezza ONU, il drone sarebbe stato impiegato in modalità completamente autonoma, colpendo bersagli umani senza una supervisione attiva da parte dell’operatore (United Nations Security Council, 2021). Questo episodio è stato interpretato da alcuni analisti come il primo attacco letale completamente autonomo della storia.
Tuttavia, nonostante l’enorme rilevanza etica e giuridica, l’episodio non ha generato alcuna sanzione o risposta normativa internazionale. Nessun meccanismo previsto dalla CCW è stato attivato, e la questione è rimasta confinata a rapporti e dichiarazioni non vincolanti.
"L’assenza di una norma che vieti o disciplini l’uso autonomo di armi letali rende impossibile qualificare questi atti come illeciti sul piano del diritto internazionale positivo attuale" (Ronzitti, 2021, p. 87).
2. L’impiego degli algoritmi nei sistemi di sorveglianza armata in Israele
Un altro esempio significativo è l’uso dell’IA da parte di Israele per identificare e colpire obiettivi durante il conflitto con Hamas nel 2021. Il sistema "The Gospel", secondo quanto riportato da +972 Magazine, avrebbe fornito indicazioni automatiche su potenziali bersagli, sulla base di dati raccolti in tempo reale (Shezaf & Harari, 2023). Pur non essendo un sistema completamente autonomo, la linea di demarcazione tra supporto decisionale e automazione dell’attacco risulta sempre più sottile.
In questo contesto, il diritto umanitario continua a basarsi sul principio di responsabilità umana, che risulta però sempre più difficile da attribuire in sistemi dove le decisioni vengono prese da algoritmi opachi e spesso non auditabili.
3. L’assenza di una reazione giuridica multilaterale
Il terzo “caso”, più trasversale, è l’inerzia collettiva: nonostante i ripetuti inviti alla regolamentazione da parte di ONG come Human Rights Watch e di studiosi di diritto internazionale, gli Stati non hanno ancora trovato un accordo su una definizione operativa di arma autonoma né su una possibile moratoria. Il processo negoziale all’interno della CCW è rallentato da divergenze profonde tra potenze tecnologiche (come USA, Russia e Israele) e Stati favorevoli a una regolamentazione o al divieto (come Austria, Cile o Brasile) (ICRC, 2021).
Nel dibattito sull’impiego dei sistemi di armi autonome (AWS), una delle sfide centrali è garantire un controllo umano significativo (Meaningful Human Control, MHC) che possa colmare il vuoto giuridico rappresentato dal Responsibility Gap Problem (RGP). Con il crescere della complessità tecnologica, diventa sempre più difficile attribuire la responsabilità delle azioni compiute da un AWS a un soggetto umano, minando l’applicazione concreta del diritto internazionale umanitario (IHL). Il MHC, in questo contesto, non ha solo una funzione tecnica, ma assume un valore normativo: assicurare che le decisioni critiche – come la selezione e l’ingaggio del bersaglio – siano sempre riconducibili a un individuo che ne possa rispondere giuridicamente.
L’implementazione del MHC si articola in due momenti chiave: la fase di progettazione e quella operativa. Nella prima, è essenziale che il sistema sia sviluppato in modo prevedibile, testato adeguatamente e integrato con meccanismi che permettano la tracciabilità delle decisioni. Nella fase operativa, il controllo non può limitarsi a una semplice autorizzazione iniziale: deve tradursi in una supervisione continua, come dimostrano esempi concreti come il drone militare X-47B, che opera seguendo una traiettoria programmata sotto costante supervisione umana.
Tuttavia, in assenza di una definizione internazionale condivisa di cosa costituisca un “controllo significativo”, esiste il rischio che la responsabilità venga diluita lungo la filiera decisionale. Se ciascun attore coinvolto (dal progettista all’operatore) ha un ruolo solo marginale, diventa difficile fondare una responsabilità giuridica effettiva per eventuali violazioni dell’IHL. È proprio in questa zona grigia che si annida il Responsibility Gap.
Per affrontarlo, il MHC deve essere inteso come un processo continuo, che coinvolge addestramento, tracciabilità, auditing e valutazione retrospettiva. Solo così è possibile ancorare l’impiego delle armi autonome a una cornice giuridica chiara, in grado di preservare l’accountability umana anche nel contesto della guerra automatizzata. In definitiva, riconoscere al MHC un valore operativo e normativo concreto è la condizione essenziale per garantire che l’automazione non diventi sinonimo di deresponsabilizzazione.
Mondo Internazionale APS - Riproduzione Riservata ® 2025