Gaza: come Israele ha architettato il genocidio
Israele ha approfittato della sua guerra nella Striscia di Gaza per sperimentare vari tipi di armi che fino a poco tempo fa erano in fase di test, o quelle le cui carenze dovevano essere identificate e valutate. Questa è una delle ragioni più importanti che ha prodotto centinaia di migliaia di morti e feriti a Gaza. Mentre l’intelligenza artificiale, che si è assunta il compito di individuare obiettivi militari e di sicurezza, è considerata lo strumento più facilitante per commettere il genocidio contro i palestinesi.
Fin dalle prime settimane di guerra, gli obiettivi raccolti dall’esercito israeliano, che riteneva fossero legati all’ubicazione di membri del movimento Hamas o di depositi di armi, erano esauriti. Per questo motivo era necessario un aggiornamento costante per riempire il suo obiettivo banca, che ha assegnato a uno strumento di intelligenza artificiale chiamato Habsura – o “Bibbia” – che può generare rapidamente centinaia di obiettivi aggiuntivi e sta integrando l’intelligenza artificiale nelle operazioni di intelligence dell’esercito.
Qualità delle informazioni di intelligence raccolte dall’intelligenza artificiale
Un’indagine condotta dal quotidiano americano The Washington Post rivela un intenso dibattito tra i più alti livelli dell’esercito israeliano, iniziato anni prima del 7 ottobre, sulla qualità delle informazioni di intelligence raccolte dall’intelligenza artificiale, se le raccomandazioni tecnologiche abbiano ricevuto un controllo sufficiente e se l’attenzione è rivolta all’intelligence. L’intelligenza artificiale ha indebolito le capacità di intelligence dell’esercito israeliano.
Questa tecnologia ha abilitato molti programmi, inclusa la raccolta di algoritmi predittivi, che consente ai soldati israeliani di interrogare rapidamente un enorme insieme di dati noto all’interno dell’esercito come “il pool”. Il giornale aggiunge che esaminando i pacchetti di dati provenienti da comunicazioni intercettate, riprese satellitari e social network, gli algoritmi determinano le coordinate di tunnel, missili e altri obiettivi militari. Usando il riconoscimento delle immagini del software, i soldati possono individuare sottili schemi, inclusi sottili cambiamenti in anni di riprese satellitari di Gaza che indicano che Hamas ha sepolto un lanciarazzi o scavato un nuovo tunnel su terreni agricoli.
Preoccupazioni per le prestazioni delle tecnologie di intelligenza artificiale
L’uso di queste tecnologie ha scatenato forti divisioni tra i servizi di sicurezza, l’esercito e il livello dirigente, dopo che nei corridoi sono circolate critiche sul loro lavoro e sul grado di precisione con cui cercano di identificare gli obiettivi, soprattutto per quanto riguarda i civili. Ad esempio, i rapporti consegnati agli alti dirigenti non indicavano come l’intelligence fosse stata ricavata – se da analisti umani o da sistemi di intelligenza artificiale – rendendo difficile per i funzionari valutare il risultato. Un audit interno ha rilevato che alcuni sistemi di intelligenza artificiale di elaborazione della lingua araba presentavano errori, non riuscendo a comprendere le parole e le frasi colloquiali chiave.
Sotto l’ex comandante dell’unità di intelligence, Yossi Sariel, l’8200 è stata ricostituita per dare risalto agli ingegneri, ridurre il numero di specialisti della lingua araba, licenziare diversi leader ritenuti resistenti all’intelligenza artificiale e sciogliere alcuni gruppi non focalizzati sulla tecnologia di data mining.
Dopo un fallimento delle comunicazioni durante la guerra del 2006 contro Hezbollah in Libano, l’Idf ha ricalcolato la propria strategia per lo scambio di informazioni e dati. All’epoca, le unità di intelligence non condividevano informazioni con i soldati sul campo di battaglia, ha dichiarato Ben Caspit, editorialista israeliano per Al-Monitor, che sta scrivendo un libro sull’Unità 8200. Per prevenire tali silos, il Mossad, l’agenzia di spionaggio israeliana, ha sviluppato il sistema Database 8200 – “Al-Baraka” – per ospitare tutta l’intelligence militare in un unico magazzino. Il giornale spiega che con l’inizio del boom dei “big data” nella Silicon Valley, gli ingegneri israeliani hanno iniziato a sperimentare strumenti di data mining già pronti in grado di tradurre e analizzare le lingue araba e persiana.
Le “angurie” di Gaza
Ma le tecnologie non sono state all’altezza delle aspettative e hanno dovuto affrontare sfide diverse. Ad esempio, i membri di Hamas usano spesso la parola “anguria” come simbolo di una bomba. Ma il sistema non era abbastanza intelligente da comprendere la differenza tra una conversazione su angurie vere e una conversazione crittografata tra combattenti.
Gli algoritmi sono programmati per cercare tra migliaia di immagini satellitari per identificare un tipo specifico di tessuto che i combattenti di Hamas hanno utilizzato per nascondere i buchi alla ricerca di un missile sepolto. Tuttavia, non è possibile determinare il numero di civili presenti nel luogo prima che fosse preso di mira e se fossero bambini o uomini. Per analizzarlo, prima di ogni presunto attacco, si è basato sull’analisi della rete cellulare in base alla torre di comunicazione vicina al luogo, senza prendere in considerazione se all’interno dell’edificio o del campo si trovassero bambini, donne senza telefono o uomini anziani che non sono stati in grado di caricare i loro telefoni. Questo è ciò che ha portato Israele a considerare i massacri commessi contro centinaia di migliaia di persone come semplici “danni collaterali”, che l’intelligenza artificiale ha analizzato come tali.
di Redazione