In Cloud di guerra, ho documentato l’uso dell’intelligenza artificiale nel conflitto in corso a Gaza – e con modalità differenti in Cisgiordania – evidenziandone le drammatiche conseguenze. Da allora, nuovi dati rivelano che Israele ha sviluppato ulteriori strumenti per consolidare la sua guerra contro Hamas.
Le inchieste condotte da +972 Magazine, Local Call e The Guardian nel 2024, hanno rivelato che Israele ha sviluppato sofisticati strumenti per condurre la guerra contro Hamas, tra i quali l’algoritmo di apprendimento automatico Lavender, utilizzato fin dall’inizio del conflitto, e ora perfezionato, senza mettere in conto le lateralità degli attacchi. L’utilizzo di Lavender ha avuto un ruolo centrale nell’individuazione di almeno 37.000 obiettivi, molti dei quali colpiti in operazioni che hanno causato migliaia di vittime civili..
CAVIE SEMANTICHE: QUANDO ANCHE LA LINGUA VIENE PRESA IN OSTAGGIO
Una nuova inchiesta di +972 Magazine, Local Call e The Guardian, pubblicata lo scorso 6 marzo 2025, ha rivelato che Israele ha messo a punto un nuovo modello linguistico, simile a ChatGPT, costruito esclusivamente su conversazioni private dei palestinesi in Cisgiordania: milioni di messaggi WhatsApp, telefonate, email, SMS intercettati quotidianamente. Un LLM (Large Language Model) alimentato non da testi pubblici, ma da frammenti intimi di vita quotidiana.
Idiomi, inflessioni, silenzi: ogni sfumatura linguistica diventa materia prima per addestrare strumenti di controllo predittivo.
I palestinesi diventano cavie semantiche, banchi di prova per armi algoritmiche progettate per prevedere, classificare, colpire. L’inchiesta dimostra come l’IA traduca automaticamente ogni parola in arabo captata nella Cisgiordania occupata, rendendola leggibile, tracciabile, archiviabile, riproducibile.
Non è solo sorveglianza: è architettura linguistica del dominio, fondata sulla violazione sistematica della dimensione personale e soggettiva della popolazione palestinese.
L’I.A. MILITARE ISRAELIANA IN AZIONE: IL CASO IBRAHIM BIARI
Un’inchiesta del New York Times riporta la testimonianza di tre ufficiali americani e israeliani sull’utilizzo, per localizzare Ibrahim Biari, uno dei comandanti di Hamas ritenuti responsabili dell’attacco del 7 ottobre, di uno strumento di ascolto delle chiamate e di riconoscimento vocale, integrato con tecnologie I.A. e sviluppato dall’Unità 8200[1] in un team che conta anche sulla collaborazione di riservisti impiegati in importanti società del settore. Airwars [2] documenta che, il 31 ottobre 2023, un attacco aereo guidato da queste informazioni ha ucciso Biari e, anche, più di 125 civili.
La precisione apparente dell’IA ha mostrato i suoi limiti etici e umani: la ratio militare si nasconde dietro la presunta precisione chirurgica degli attacchi e oggettività disumanizzata delle identificazioni degli obiettivi, per giustificare un rapporto obiettivo/ danni collaterali che include uccisioni di massa.
GAZA: LABORATORIO MONDIALE DELL’I.A. MILITARE
Israele sembra essere, di fatto, l’unico Paese al mondo ad aver sperimentato l’intelligenza artificiale in un contesto bellico reale, in cui Gaza svolge il ruolo di cavia e il campo di operazioni quello di laboratorio.
L’israeliana Hadas Lorber, fondatrice dell’Institute for Applied Research in Responsible AI, ha ammesso che la crisi israeliano-palestinese innescata il 7 ottobre ha intensificato la collaborazione tra l’Unità 8200 e i riservisti esperti di tecnologie, e accelerato l’innovazione, portando a “tecnologie rivoluzionarie rivelatesi cruciali sul campo di battaglia (di Gaza)”. Ha, però, anche ricordato che l’IA solleva “serie questioni etiche”, ribadendo che “le decisioni finali devono restare in mano umana”.
Ma la retorica non regge l’urto dei fatti:
- la portavoce dell’esercito israeliano ribadisce l’“uso lecito e responsabile” delle tecnologie, ma – per ragioni di sicurezza nazionale – non può commentare nulla di specifico,
- il CEO di Startup Nation Central[3], ha confermato il nodo: i riservisti delle big tech sono ingranaggi chiave dell’innovazione militare. Un esercito che da solo non avrebbe mai raggiunto tali capacità ora punta all’invisibilità del dominio algoritmico.
- le multinazionali della tecnologia dalle cui fila provengono molti artefici degli strumenti israeliani, tacciono o – discretamente – prendono le distanze da quello che sembra essere un tessuto di conflitti e intrecci di interessi tra l’industria bellica e l’innovazione tecnologica che permea il nostro presente e modella il nostro futuro;
- Silicon Valley, cybersecurity, intelligenza artificiale, piattaforme cloud sembrano essere strumenti di facilitazione e, nello stesso tempo, di controllo di massa mutato in arma[4].
CIBO IN CAMBIO DI IMPRONTE DELLA RÈTINA
Se l’intelligenza artificiale può decidere chi uccidere, può anche decidere chi sopravvive?
La domanda non è più speculativa.
A Gaza l’ultima frontiera è “umanitaria”: l’IA governa la carità. Secondo una recente proposta fatta da Washington in accordo con Israele — rigettata il 15 maggio 2025 dalle Nazioni Unite — per accedere agli aiuti alimentari sarà necessario il riconoscimento facciale.
Il piano, ideato dalla Gaza Humanitarian Foundation (GHF) [5], sembra prevedere la privatizzazione della distribuzione del cibo attraverso contractor statunitensi ed ex agenti dell’intelligence e la creazione di hub biometrici, presidiati da forze armate private, dove il pane si baratta col volto, le razioni e la vita con le impronte digitali e retiniche. Con la giustificazione di evitare infiltrazioni di Hamas, l’accesso agli aiuti sarà regolato da algoritmi e sistemi di riconoscimento facciale.
Dietro l’apparenza umanitaria, la struttura e la governance sembrano rivelare un’operazione affidata ad un attore para-militare che rischia di trasformare il soccorso in un ulteriore strumento di dominio.
Lo scenario è quello di una carità condizionata, tracciata, selettiva: una “umanità filtrata”, dove l’identità digitale rischia di precedere il bisogno, e l’accesso al pane dipendere dall’accettazione della sorveglianza.
Gaza sembra confermarsi come un laboratorio d’avanguardia: non solo per testare armi, ma per sperimentare nuovi modelli di apartheid tecnologico, di ostaggi biometrici, in cui sembra valere il principio che l’aiuto debba essere concesso solo a persone “note per nome e volto”, violando i principi di neutralità umanitaria e trasformando la fame in strumento di controllo identitario.
L’INDIGNAZIONE (SOLITARIA) DELLE ONG
UNICEF, Norwegian Refugee Council e altri attori umanitari hanno denunciato il piano GHF come un ulteriore controllo forzato della popolazione, destinato a produrre nuovi spostamenti, disgregazioni, traumi. È – secondo le ONG che vi si oppongono – il passaggio finale di un processo già in corso: i tagli ai fondi ONU, la delegittimazione dell’UNRWA, che ha giudicato i piani di controllo totale degli aiuti umanitari «una distrazione dalle atrocità compiute e uno spreco di risorse», la sostituzione della diplomazia con le piattaforme, della compassione con l’identificazione biometrica[6].
ETICA E IA: ULTIMA CHIAMATA
Questo intreccio tossico tra business, guerra, aiuti umanitari e sorveglianza apre un precedente pericolosissimo. Non solo per i palestinesi, ma per ogni società che oggi è costretta a negoziare tra sicurezza e diritti fondamentali. Dove la privacy è già fragile, nelle mani di chi governa col terrore tecnologico si riduce a nulla. L’Unione Europea e gli Stati Uniti devono scegliere da che parte stare: restare in silenzio significa legittimare pratiche tecnologiche sterminatrici e diventare complici di un genocidio.
Una volta di più si profila l’occasione per l’Unione Europea di ritagliarsi un ruolo per riportare al centro del dibattito i suoi valori e i principi fondativi, denunciando l’abuso, pretendendo trasparenza sui legami tra eserciti e industrie tech, imponendo una regolamentazione internazionale stringente sull’uso dell’intelligenza artificiale in contesti di guerra[7].
Favorendo, soprattutto, una presa di coscienza collettiva che rimetta al centro la dignità umana e i diritti inalienabili, prima che queste macchine diventino i complici silenziosi e apparentemente oggettivi di dominio e di sterminio.
NOTE
[1] L’Unità 8200 è una unità militare delle forze armate israeliane incaricata dello spionaggio di segnali elettromagnetici (SIGINT, comprendente lo spionaggio di segnali elettronici, ELINT), OSINT, decrittazione di informazioni e codici cifrati e guerra cibernetica. (Wikipedia, Unità 8200)
[2] Airwars è una organizzazione non-profit di trasparenza e di controllo che investiga, traccia, documenta e verifica le segnalazioni di danni ai civili nelle nazioni teatro di confitti armati.
[3] Startup Nation Central è un’azienda israeliana, che si autodefinisce “filantropica”, dedicata a valorizzare «l’unicità dell’ecosistema tecnologico di Israele e le soluzioni che questo offre per affrontare alcune delle sfide più pressanti che si presentano al mondo»
[4] Alberto Negri, giornalista de Il Manifesto, ha definito questo intreccio il “complesso militare-industriale israelo-americano”
[5] Sostenuta dall’amministrazione Trump e dal governo israeliano, la Gaza Humanitarian Foundation (GHF) nasce con l’obiettivo dichiarato di aggirare le agenzie umanitarie delle Nazioni Unite – in particolare l’UNRWA, già delegittimata e accusata da Israele di favorire indirettamente Hamas – per gestire direttamente una delle più vaste operazioni di soccorso nella Striscia: oltre 300 milioni di pasti in 90 giorni. Il piano, ufficialmente bloccato dall’ONU, non è stato archiviato. Anzi, alcuni test pilota sono già in corso nel sud della Striscia.
Fondata nel febbraio 2025, la GHF si presenta come una non-profit, ma la sua composizione solleva più di un sospetto per la presenza di ex ufficiali militari statunitensi, contractor della sicurezza privata e funzionari provenienti dalle ONG. Il piano della GHF prevede la creazione di quattro “Secure Distribution Sites” (SDS) nel sud della Striscia, ognuno destinato a servire 300.000 persone, con l’obiettivo di coprire progressivamente l’intera popolazione di Gaza. Se dovesse assumere il controllo totale della distribuzione, la fondazione arriverebbe a gestire risorse paragonabili – se non superiori – a quelle delle agenzie ONU. Il solo Flash Appeal 2025 prevede un fabbisogno minimo di 4,07 miliardi di dollari, con una stima ideale di 6,6 miliardi.
Il budget iniziale della GHF si aggira attorno ai 390 milioni di dollari, provenienti in larga parte dagli Stati Uniti. Ma sono proprio la mancanza di trasparenza sulle fonti di finanziamento e le criticità operative a sollevare allarmi..
[6] Il modello, del resto, era già stato testato: l’app israeliana Blue Wolf, in Cisgiordania, cataloga da tempo ogni volto palestinese in un enorme database per facilitare i controlli militari. Ora, lo stesso meccanismo si replica a Gaza sotto la forma di “aiuto”.
[7] Invece di promuovere una regolamentazione stringente, l’Unione Europea continua a favorire — direttamente o indirettamente — lo sviluppo di armi basate sull’I.A., collaborando con i fautori dell’innovazione bellica israeliana– e, chissà, di altri Paesi; rapporti del Parlamento Europeo (2024) e analisi di EDRi (European Digital Rights, 2025) mostrano come numerose imprese europee – tra cui startup e colossi del tech – intrattengano rapporti con l’Israel Innovation Authority, l’agenzia governativa che finanzia queste “innovazioni” in nome di una cooperazione tecnologica presentata come neutra, ma che di neutro non ha più nulla.
Autore
-
Storica, ricercatrice e scrittrice, indaga le fratture della storia e le rimozioni dell’Occidente, dal conflitto israelo-palestinese alle manipolazioni linguistiche. Non allineata per scelta, esplora mondi, discipline e le sfide dell’intelligenza artificiale. Viaggiatrice e pellegrina, ha percorso 3.000 km a piedi in solitaria, 450 dei quali in Terra Santa. Camminare è il suo modo di pensare, un’indagine radicale dello spazio e del tempo. L’incontro e l’ascolto sono il fulcro del suo approccio: custodisce storie e testimonianze che continuano a formarla e ad ampliare il suo sguardo sul mondo
Leggi tutti gli articoli