Diritti UmaniMedio Oriente

Libano, come gli algoritmi legittimano la presa di mira dei civili

Libano L’intelligenza artificiale (IA) non è semplicemente uno strumento a supporto della battaglia, ma piuttosto una componente essenziale della dottrina di combattimento.

Il campo di battaglia è stato trasformato in un sistema integrato di raccolta dati, classificazione umana e strutturale e generazione di attacchi quasi industriale, in cui velocità e quantità sono state considerate criteri di successo prioritari rispetto alla verifica umana e alla discriminazione legale. Questa trasformazione minaccia la sicurezza regionale e solleva gravi questioni etiche e legali che devono essere affrontate sia a livello strategico che operativo. Ancora più importante, è necessario comprendere i rischi per la sicurezza dell’IA e affrontarli individualmente e collettivamente attraverso la sensibilizzazione alla sicurezza per la protezione civile.

Come hanno funzionato i sistemi di intelligenza artificiale nella guerra in Libano?

La spina dorsale di questa trasformazione è l’integrazione di più piattaforme:

  • Sistemi di Valutazione Individuale Lavender: un sistema di raccomandazione che assegna a ogni persona un punteggio di probabilità (da 1 a 100) di essere un militante, convertendo il punteggio soglia in una raccomandazione di targeting. Durante una guerra precedente, è stato utilizzato per generare ampie liste di obiettivi. La stessa logica è stata applicata contro obiettivi in ​​Libano per identificare i responsabili e bombardare siti di valore per la sicurezza.
  • Piattaforme strutturali “Habsora/The Gospel”: analizzano immagini satellitari e di droni per generare obiettivi strutturali, dai magazzini alle torri residenziali, e proporli come obiettivi operativi. Questa analisi ha ampliato il concetto di “obiettivo militare” includendo anche le strutture civili.
  • Tempistica dell’attacco “Dov’è mio padre?”: combina i dati di tracciamento telefonico con i database degli indirizzi per avvisare quando un bersaglio entra in casa, facilitando l’attacco alle abitazioni di notte, quando il rischio che intere famiglie vengano uccise è elevato.
  • Reti di sorveglianza biometrica – Sistemi “Wolf”: telecamere e sistemi di caricamento delle immagini che alimentano enormi database, trasformando ogni individuo in una “impronta digitale” ricercabile e collegabile tramite algoritmi di intelligenza sociale.
  • Bombardieri – “fabbrica di fuoco” e sistemi di pianificazione automatizzati: le raccomandazioni di puntamento vengono trasformate in piani tattici (quantità di munizioni, programmazione degli aerei, metodo di esecuzione) in pochi minuti anziché in ore. Questa riduzione di tempo elimina di fatto le revisioni di garanzia umane.

Implicazioni specifiche per la battaglia contro il Libano

  • La banca dati degli obiettivi si è ampliata e la discriminazione è diminuita: quelli che un tempo erano considerati elementi di leadership o obiettivi specifici sono stati ampliati a migliaia di nomi e strutture al di sotto della soglia di “probabilità”, portando a un aumento di attacchi preventivi e omicidi di precisione che non sempre tenevano conto delle condizioni dello spazio civile.
  • Indebolimento del ruolo della revisione umana: brevi revisioni (di pochi secondi) delle raccomandazioni dell’IA trasformano il “team uomo-macchina” in un timbro di gomma, eliminando la responsabilità per l’errore collettivo e riducendo la responsabilità etica.
  • Guerra psicologica e cognitiva: oltre agli attacchi fisici, gli strumenti di intelligenza artificiale vengono utilizzati per deepfake, analisi dei sentimenti e messaggi mirati volti a indebolire il morale o a creare divisioni interne, trasformando l’arena dei media in un secondo fronte di battaglia.
  • L’aumento degli errori statistici: l’adozione di criteri per accettare un “margine di errore” statistico (ad esempio, accettare un tasso di errore di circa il 10% come spesa accettabile) rende le vittime civili un “costo” accettabile all’interno del bilancio operativo, un pericoloso cambiamento etico e legale.

Raccomandazioni per la consapevolezza della sicurezza e la riduzione dei rischi

Protezione digitale

  • Riduci la tua impronta digitale: evita di condividere informazioni personali, foto o posizioni geografiche online o con applicazioni non affidabili.
  • Gestione dei dispositivi intelligenti: disattivare la funzione GPS, tranne quando assolutamente necessario, ed evitare di portare i telefoni in luoghi o assembramenti sensibili.
  • Applicazioni sospette: evitare di scaricare applicazioni sconosciute che potrebbero raccogliere dati e inviarli a server ostili.
  • Cambia la tua routine digitale: usa reti sicure, cambia regolarmente le tue password e non usare account pubblici per la corrispondenza privata.

Protezione del campo

  • Consapevolezza della telecamera: prevedere una sorveglianza costante tramite droni e telecamere intelligenti ed evitare movimenti o assembramenti che potrebbero essere interpretati militarmente.
  • Gestione del traffico: non seguire sempre percorsi fissi, poiché la ripetizione facilita il riconoscimento degli schemi da parte dei sistemi algoritmici.
  • Evitare assembramenti non necessari: minore è la densità umana in un luogo, più difficile è per gli algoritmi giustificarlo come un obiettivo “prezioso”.

La sicurezza delle informazioni nella società

  • Sensibilizzazione collettiva: diffondere una cultura della prudenza nell’uso degli smartphone e dei social media, soprattutto tra i giovani.
  • Evitare di rivelare relazioni personali o familiari: gli algoritmi collegano le relazioni per determinare i social network, il che può ampliare la cerchia di destinatari.
  • Combattere la disinformazione: verificare notizie e messaggi prima di diffonderli, poiché il nemico potrebbe utilizzare l’intelligenza artificiale per produrre contenuti falsi (deepfake) per minare la fiducia della comunità.

Gestire i messaggi psicologici e cognitivi

  • Consapevolezza della guerra mediatica: rendersi conto che immagini e video fabbricati possono essere prodotti algoritmicamente per indebolire il morale.
  • Verifica di gruppo: adottare l’abitudine di consultare la famiglia o la comunità prima di credere alle voci.

Rafforzamento psicologico: aderire a un discorso positivo e rafforzare lo spirito collettivo come strumento di difesa contro i tentativi di confusione.

Cooperazione con le autorità locali

  • Segnalazione immediata: quando si rilevano aeromobili sospetti, dispositivi elettronici sconosciuti o applicazioni sospette.
  • Partecipare a corsi di sensibilizzazione: partecipare a workshop o lezioni sulla sicurezza digitale e sul campo organizzati dalle autorità locali.
  • Scambio di esperienze: condivisione di esperienze e competenze in materia di sicurezza tra famiglie e quartieri.

Legislazione e governance internazionale

  • Chiedere accordi regionali e internazionali che limitino l’uso di sistemi di puntamento automatizzati contro le popolazioni civili o senza un’efficace verifica umana.
  • Imporre standard di classificazione etica per i sistemi militari, come regole per l’uso di ” IA letale ” e sanzioni per il loro utilizzo in palese violazione del diritto internazionale umanitario.

di Redazione

Mostra altro

Articoli correlati

Lascia un commento

Pulsante per tornare all'inizio

IlFaroSulMondo.it usa i cookies, anche di terze parti. Ti invitiamo a dare il consenso così da proseguire al meglio con una navigazione ottimizzata. maggiori informazioni

Le attuali impostazioni permettono l'utilizzo dei cookies al fine di fornire la migliore esperienza di navigazione possibile. Se continui ad utilizzare questo sito web senza cambiare le tue impostazioni dei cookies o cliccando "OK, accetto" nel banner in basso ne acconsenterai l'utilizzo.

Chiudi