Il ruolo del sistema Lavender nei bombardamenti sulla Striscia di Gaza

  Articoli (Articles)
  Veronica Grazzi
  25 aprile 2024
  5 minuti, 18 secondi

Il sistema Lavender è un database alimentato dall'intelligenza artificiale (AI) creato per identificare i membri sospetti di Hamas e della Jihad Islamica Palestinese (JIP) come possibili target per un bombardamento. L'indagine condotta da +972 e Local Call raccoglie le testimonianze di sei ufficiali dell'intelligence israeliana che spiegano come Lavender sia stato usato specialmente nelle prime settimane di guerra per velocizzare e sistematizzare il processo di targeting. Si stima che il sistema abbia identificato 37.000 palestinesi come sospetti militanti legati ad Hamas e indicato le loro case come bersagli per gli attacchi aerei.

Come funziona il sistema di intelligenza artificiale usato da Israele

Lavender è stato sviluppato dalla divisione d'élite delle Forze di Difesa israeliane (IDF), l'Unità 8200, in modo da migliorare le strategie di attacco sulla popolazione nella Striscia di Gaza. Prima di impiegare Lavender la scelta del bersaglio umano (un militare o comandante di alto livello) era un procedimento complesso: era necessario controllare che la persona fosse effettivamente un membro di alto livello dell'ala militare di Hamas, scoprire dove viveva e i suoi contatti in maniera interamente manuale.

Tuttavia, dopo il 7 ottobre, l'esercito ha deciso di indicare come possibile obiettivo umano tutti gli operatori dell'ala militare di Hamas indipendentemente dal loro livello di importanza. Il problema tecnico di individuare un alto numero di bersagli in poco tempo è stato risolto con Lavender, utilizzato per sistematizzare l'individuazione di individui che potessero essere ritenuti militanti di Hamas e JIP.

Il software Lavender analizza le informazioni raccolte dal sistema di sorveglianza di massa attivo nella Striscia e assegna un punteggio da 1 a 100 a quasi ogni singolo palestinese, valutando il tasso di probabilità che sia un militante. Lavender è stato istruito per distinguere le caratteristiche degli operativi di Hamas e PIJ, quindi ha imparato a trovare le stesse caratteristiche nella popolazione in generale. Una persona con più caratteristiche affini riceve un punteggio elevato ed è automaticamente un potenziale bersaglio.

Il risultato è che il ruolo del personale umano nell'incriminare i palestinesi come agenti militari è stato messo da parte e l'intelligenza artificiale ha svolto la maggior parte del lavoro, talvolta commettendo errori e identificando come bersagli anche lavoratori della polizia, parenti di militanti o residenti che avevano un nome e un soprannome identici a quelli dei militanti.

Le violazioni del diritto internazionale umanitario

Le fonti dell’esercito israeliano hanno spiegato il funzionamento delle “tolleranze pre-autorizzate” sul numero di civili che potrebbero essere uccisi in un attacco contro gli obiettivi identificati da Lavender. Per esempio, specialmente nelle prime settimane di guerra, era consentito ammazzare 15 o 20 civili per poter uccidere militanti di basso rango, mentre il limite si alzava a 100 per militanti di alto rango.

Le fonti dell'inchiesta riportano che il sistema aveva raggiunto un'accuratezza del 90%; nonostante ci fosse un 10% di margine d'errore, il sistema ha ottenuto l'approvazione per essere impiegato su larga scala nella Striscia. Se Lavender decideva che qualcuno era un militante di Hamas, gli ufficiali dell'intelligence israeliani agivano senza nessun obbligo di verificare in modo indipendente la conclusione del sistema o esaminare i dati grezzi di intelligence su cui si basava. Una fonte ha dichiarato che il personale eseguiva semplicemente ciò che il sistema diceva, e che di solito dedicava personalmente solo "20 secondi" a ciascun obiettivo prima di autorizzare un bombardamento, solo per assicurarsi che l'obiettivo fosse di sesso maschile.

Inoltre, quando si trattava di colpire i presunti militanti di rango inferiore, l'esercito ha preferito usare solo bombe non guidate, chiamate bombe "mute", che possono distruggere interi edifici e causare un numero significativo di vittime. Il motivo è la mancanza di bombe intelligenti (bombe di precisione) che, secondo le dichiarazioni ufficiali di Israele, dovrebbero essere utilizzate solo quando Hamas obbliga la popolazione civile ad agire come scudo umano per condurre attacchi precisi e salvaguardare i civili.

Le fonti spiegano come il sistema Lavender sia inoltre associato a Gospel, un altro sistema AI impiegato per individuare gli edifici da bombardare una volta che gli operativi di Hamas vengono identificati. Poiché ogni abitante a Gaza aveva una casa privata associata alla propria persona, i sistemi di sorveglianza dell'esercito potevano facilmente e automaticamente "collegare" le persone alle loro case, individuando la loro posizione molto più facilmente rispetto a quando erano in missione militare. 

Tutto questo riflette il livello di sorveglianza e controllo a cui la popolazione di Gaza è sottoposta, ma non solo. Automatizzare un compito così delicato come la scelta di obiettivi umani comporta la morte di un maggior numero di vittime civili innocenti a causa di un falso positivo, cosa che in un sistema probabilistico come Lavender può avvenire nel 10% dei casi. Inoltre, il limitato controllo umano e la "pre-autorizzazione" ad accettare un numero di vittime civili collaterali sono prove sufficienti per costituire un crimine di guerra e una gravissima violazione del diritto umanitario internazionale. Il sistema Lavender contribuisce a spiegare perché ci sono così tante morti civili a Gaza e, secondo Ben Saul, relatore speciale delle Nazioni Unite per i diritti umani e l'antiterrorismo, se i dettagli del rapporto si rivelassero veri, "molti attacchi israeliani a Gaza costituirebbero il crimine di guerra di lanciare attacchi sproporzionati".

Le dichiarazioni di Israele

L'intelligenza artificiale è stata utilizzata come un mezzo in grado di prendere decisioni fatto da un umano. In un articolo del Guardian, un ufficiale dell'intelligence israeliana spiega di aver "più fiducia in un meccanismo statico che in un soldato in lutto". La maggior parte delle testimonianze parlano a favore del sistema, definendolo come oggettivo, non soggetto alle emozioni umane ed efficace nell'ottimizzare i tempi nella fase di targeting.

In risposta alla pubblicazione delle testimonianze su +972 e Local Call, l'IDF ha dichiarato in un comunicato che le sue operazioni sono state condotte in conformità alle regole di proporzionalità del diritto internazionale. L'esercito israeliano ha inoltre smentito l'idea che la tecnologia sia un "sistema", quanto piuttosto "un semplice database” il cui scopo è quello di incrociare le fonti di intelligence, al fine di produrre informazioni sugli operatori militari delle organizzazioni terroristiche.

Mondo Internazionale APS - Riproduzione Riservata ® 2024

Condividi il post

L'Autore

Veronica Grazzi

Veronica Grazzi è originaria di un piccolo paese vicino a Trento, Trentino Alto-Adige ed è nata il 10 dicembre 1999.

Si è laureata in scienze internazionali e diplomatiche all’università di Bologna, ed è durante questo periodo che si è appassionata al mondo della scrittura grazie ad un tirocinio presso la testata giornalistica Il Post di Milano. Si è poi iscritta ad una Laurea Magistrale in inglese in Studi Europei ed Internazionali presso la scuola di Studi Internazionali dell’Università di Trento.

Grazie al Progetto Erasmus+ ha vissuto sei mesi in Estonia, dove ha focalizzato i suoi studi sulla relazione tra diritti umani e tecnologia. Si è poi spostata in Ungheria per svolgere un tirocinio presso l’ambasciata d’Italia a Budapest nell’ambito del bando MAECI-CRUI, dove si è appassionata ulteriormente alla politica europea ed alle politiche di confine.

Veronica si trova ora a Vienna, dove sta svolgendo un tirocinio presso l’Agenzia specializzata ONU per lo Sviluppo Industriale Sostenibile. È in questo contesto che ha sviluppato il suo interesse per l’area di aiuti umanitari e diritti umani, prendendo poi parte a varie opportunità di formazione nell’ambito.

In Mondo Internazionale Post, Veronica è un'Autrice per l’area tematica di Diritti Umani.

Categorie

Diritti Umani

Tag

Gaza Diritti umani crisi umanitaria intelligenza artificiale Lavender