Rivelato: Israele ha usato Palantir nella strage dei pager in Libano

Pubblicato: 11/12/2025, 07:56:375 min
Scritto da
Redazione
Categoria: Tecnologia
Condividi:
#palantir #uso #militari #tecnologie #sistemi #aziende #internazionale #sorveglianza
Rivelato: Israele ha usato Palantir nella strage dei pager in Libano
L'impiego della tecnologia di Palantir nel controverso attacco israeliano contro Hezbollah nel 2024

Un libro recente e rapporti investigativi rivelano che Israele ha utilizzato la tecnologia avanzata di Palantir Technologies durante l'attacco noto come 'Operation Grim Beeper' in Libano nel 2024, che ha causato decine di morti e migliaia di feriti. L'articolo analizza il ruolo di Palantir in questo episodio, le implicazioni etiche e legali, e il contesto più ampio dell'uso dell'intelligenza artificiale e della sorveglianza militare nelle operazioni israeliane.

L'attacco dei pager in Libano e il ruolo di Palantir

Nel 2024, Israele ha condotto un'operazione militare in Libano, denominata 'Operation Grim Beeper', che ha causato la morte di 42 persone e il ferimento di migliaia, molti dei quali con gravi danni agli occhi, al volto e alle mani. L'attacco ha coinvolto l'esplosione di pager e walkie-talkie usati dai combattenti di Hezbollah, dispositivi che erano stati trappolati dagli israeliani per causare danni massicci e mirati. Secondo il libro 'The Philosopher in the Valley' di Michael Steinberger, la tecnologia di Palantir è stata impiegata per coordinare e potenziare questa operazione, contribuendo a decimare la leadership di Hezbollah in Libano.

Palantir Technologies, azienda statunitense specializzata in analisi dati e sorveglianza, ha fornito strumenti di integrazione dati in tempo reale e sistemi di intelligenza artificiale per supportare le decisioni sul campo. La domanda israeliana per queste tecnologie è stata così elevata che Palantir ha inviato un team di ingegneri da Londra per assistere gli utenti israeliani nel mettere in funzione i sistemi. Questi strumenti hanno permesso di elaborare grandi quantità di dati militari per identificare e colpire obiettivi con precisione, come evidenziato da Middle East Eye.

L'uso di queste tecnologie ha sollevato preoccupazioni significative riguardo all'etica e alla legalità dell'operazione, poiché l'attacco ha causato danni indiscriminati e sofferenze umane estese. La capacità di Palantir di integrare dati in tempo reale e di automatizzare decisioni militari ha contribuito a un'escalation di violenza che ha colpito anche civili, alimentando il dibattito internazionale sul ruolo delle aziende tecnologiche nelle guerre moderne.

Tecnologia, AI e sorveglianza: il contesto militare israeliano

L'impiego di sistemi di intelligenza artificiale e sorveglianza avanzata da parte delle forze israeliane è parte di una strategia più ampia che coinvolge diverse aziende tecnologiche globali. Palantir si inserisce in questo contesto come fornitore chiave di piattaforme di analisi dati e AI che permettono di integrare informazioni da satelliti, droni, fonti aperte e rapporti sul campo per supportare operazioni militari complesse.

Oltre a Palantir, altre società come Google, Amazon e Microsoft sono state coinvolte in progetti come Project Nimbus, che fornisce infrastrutture cloud e capacità di machine learning all'esercito israeliano. Questi sistemi alimentano software di targeting come 'Lavender' e 'The Gospel', utilizzati per identificare e colpire presunti combattenti di Hamas e altri gruppi armati, spesso con conseguenze devastanti per la popolazione civile, come documentato da Al-Shabaka.

L'integrazione di AI nelle operazioni militari israeliane ha sollevato interrogativi sul doppio uso di queste tecnologie, che possono essere impiegate sia per la sicurezza che per violazioni dei diritti umani. L'uso di sistemi automatizzati di identificazione e targeting ha aumentato il rischio di errori e di danni collaterali, alimentando accuse di complicità da parte delle aziende tecnologiche coinvolte.

Le controversie e le risposte di Palantir

Le accuse contro Palantir riguardano il presunto coinvolgimento diretto nella facilitazione di attacchi che hanno causato vittime civili e violazioni del diritto internazionale umanitario. Alcuni rapporti suggeriscono che Palantir abbia fornito tecnologie di polizia predittiva automatizzata e piattaforme AI per decisioni in tempo reale sul campo di battaglia, contribuendo così a operazioni militari contro popolazioni palestinesi e libanesi.

Palantir ha risposto negando di essere coinvolta nello sviluppo o nell'uso di software specifici di targeting come 'Lavender' o 'The Gospel', e ha dichiarato che le accuse di complicità in crimini di guerra sono infondate. Tuttavia, la trasparenza dell'azienda è stata messa in discussione, soprattutto alla luce della crescente domanda di tecnologie militari da parte di Israele dopo l'inizio del conflitto a Gaza nell'ottobre 2023, come riportato da Business & Human Rights Resource Centre.

Il dibattito pubblico e legale si è intensificato, con richieste da parte di organismi internazionali di sospendere accordi commerciali e di avviare indagini su dirigenti e aziende coinvolte. La questione solleva importanti riflessioni sul ruolo delle imprese tecnologiche nella guerra moderna e sulla necessità di regolamentazioni più stringenti per prevenire abusi e violazioni dei diritti umani.

Implicazioni legali ed etiche dell'uso di Palantir in conflitti armati

L'uso di tecnologie avanzate come quelle di Palantir in operazioni militari solleva questioni cruciali di diritto internazionale, in particolare riguardo alla responsabilità per crimini di guerra e violazioni dei diritti umani. Secondo il rapporto della Relatrice Speciale delle Nazioni Unite Francesca Albanese, esistono motivi fondati per ritenere che Palantir abbia fornito infrastrutture critiche e sistemi di intelligenza artificiale che facilitano decisioni automatizzate sul campo di battaglia, contribuendo così a violazioni sistematiche contro i palestinesi.

Le richieste internazionali includono la sospensione di accordi commerciali con aziende coinvolte e l'apertura di indagini da parte della Corte Penale Internazionale e di altre giurisdizioni nazionali per accertare la responsabilità penale di dirigenti e società. Questo scenario evidenzia la crescente necessità di un quadro normativo che regoli l'uso militare delle tecnologie AI e di sorveglianza, per evitare che vengano impiegate in modo illecito o disumano.

L'articolo 51 del diritto internazionale umanitario impone il principio di distinzione e proporzionalità negli attacchi militari, principi messi a dura prova dall'uso di sistemi automatizzati di targeting. La collaborazione tra aziende tecnologiche e forze armate, come nel caso di Palantir, rappresenta una sfida per la responsabilità legale e morale, richiedendo un dibattito globale approfondito e misure concrete per garantire il rispetto dei diritti umani anche in contesti di conflitto.

Commenti

Caricamento commenti…