Intelligenza artificiale al servizio di Israele

Gli algoritmi killer sono sistemi che si affidano all‘intelligenza artificiale per analizzare enormi quantità di dati e identificare obiettivi umani da eliminare. Questi algoritmi non si autodistruggono, ma selezionano obiettivi e indirizzano le decisioni militari verso di essi, sia attraverso droni, attacchi missilistici o operazioni speciali.
La base di questi sistemi è la raccolta e l’analisi di informazioni provenienti da molteplici fonti: telefonate, immagini aeree, movimenti del cellulare, attività su Internet e persino modelli comportamentali appresi nel tempo dall’intelligenza artificiale. Questi dati vengono inseriti in un sistema di apprendimento automatico addestrato a identificare “comportamenti sospetti” o a collegare le persone all’interno di una rete.
I più importanti sistemi di intelligenza artificiale
Il sistema Lavender viene utilizzato per identificare in modo semiautomatico le attività della Resistenza. Classifica gli obiettivi in base al loro livello di “minaccia”, in base alla loro attività online o ai loro rapporti con altri individui classificati. L’esercito israeliano vi ha fatto ampio affidamento durante la guerra nella Striscia di Gaza.
Il sistema “Dov’è papà?” viene utilizzato per determinare quando i combattenti della Resistenza sono a casa, in modo da poterli prendere di mira quando sono con le loro famiglie. Questo mette a nudo la natura immorale dell’uso di questi algoritmi per dirigere operazioni di assassinio, privando loro e i loro operatori di qualsiasi dimensione umana.
Sistema Hapsora: utilizzato per identificare i luoghi più appropriati in cui effettuare attacchi sulla base di un’analisi delle variabili sul campo, rendendo l’azione militare più “efficace” dal punto di vista dell’occupazione.
Utilizzo in Iran
Durante la recente aggressione contro l’Iran, alcuni rapporti hanno indicato che strumenti analitici simili sono stati utilizzati per localizzare le sedi del Corpo delle Guardie della Rivoluzione Islamica e di centri di comando e comunicazione sensibili. Sebbene attualmente non vi siano sufficienti informazioni pubbliche per confermare l’uso di questi sistemi, sussistono dubbi sul loro utilizzo nell’assassinio dello scienziato nucleare iraniano Mohsen Fakhrizadeh.
Israele considera questi sistemi uno strumento per compensare la mancanza di risorse umane, soprattutto alla luce dell’esaurimento del suo esercito nei vari campi di battaglia e della crisi di reclutamento. Questo spinge Tel Aviv a ricorrere a questi metodi invece che a soldati veri e propri, ottenendo “uccisioni rapide” senza la necessità di decisioni umane. Tuttavia, questo apre la porta a gravi violazioni dei diritti umani, poiché gli individui sono esposti a questi sistemi, costantemente monitorati e vulnerabili a bersagli in qualsiasi momento, come nel caso del Libano con il sistematico attacco ai quadri di Hezbollah.
Perché Israele ricorre all’intelligenza artificiale?
Il nemico ricorre all’uso di algoritmi letali e di intelligenza artificiale nelle sue operazioni militari, non solo per aumentare la precisione di mira o ridurre il costo dell’impegno umano, ma anche per fornire una falsa copertura legale e morale per giustificare i suoi attacchi. Queste tecnologie gli consentono di affermare che la decisione di assassinare non è stata presa da un elemento umano, ma piuttosto da un “sistema intelligente” o da una “raccomandazione algoritmica”, offrendogli l’opportunità di eludere la responsabilità diretta delle conseguenze catastrofiche, che si tratti dell’attacco ai civili o di un targeting errato. In questo modo, il nemico si nasconde dietro questa maschera per evitare di essere etichettato come il vero autore dei crimini.
Gli sviluppatori più importanti dietro questi sistemi
L’Unità 8200 del Servizio di Intelligence Militare Israeliano, un’unità specializzata in sorveglianza e controllo elettronico, è considerata una delle più grandi unità di spionaggio al mondo. Ogni anno, decine di esperti si diplomano presso questa unità e fondano aziende tecnologiche private, molte delle quali sono coinvolte nello sviluppo di strumenti di sorveglianza e di attacco informatico.
Il pericolo maggiore di questi algoritmi risiede nel conferire alla “macchina” il potere di classificare un essere umano come “bersaglio legittimo”, sulla base di indicatori incomprensibili persino per l’agente che esegue l’ordine. In questo modo, l’intelligenza artificiale si trasforma da strumento che dovrebbe semplificare la vita delle persone in strumento di morte che il nemico può manipolare per compiere omicidi.
di Redazione