La diffusione delle immagini manipolate
Negli ultimi giorni, diverse piattaforme social – in particolare Facebook – hanno ospitato foto virali che ritrarrebbero Jeffrey Epstein, il finanziere deceduto nel 2019, ancora vivo in Israele. Le immagini lo mostrerebbero con barba e capelli bianchi, intento a camminare per le strade di Tel Aviv. Queste condivisioni (come questa, questa e questa) alimentano teorie complottiste sulla sua presunta fuga. Tuttavia, un’analisi tecnica conferma che si tratta di falsi generati dall’intelligenza artificiale. L’associazione Israel Advocacy Movement ha evidenziato su X.com come le foto presentino incongruenze lampanti, a partire dai dettagli contestuali. Epstein, noto per la calvizie avanzata, appare qui con una chioma folta e un aspetto fisico incongruente con i suoi ultimi anni di vita. La scelta di Israele come location, inoltre, sembra sfruttare narrative preesistenti sul paese come "rifugio" per personaggi controversi.
Analisi delle incongruenze tecniche
Le immagini contengono errori strutturali tipici dei deepfake. In una foto, un cartello stradale mostra scritte in ebraico e arabo illeggibili: "Chor Lon" (חור לון) e "Ch’ach Tiyok" (כעך טיות) invece di "Tel Aviv" (תל אביב in ebraico, تل أبيب in arabo). La grafia generata dall’AI combina caratteri reali in sequenze prive di significato, rivelando l’incapacità di replicare sistemi di scrittura complessi. Anche la resa dell’ambiente urbano è innaturale, con prospettive distorte e texture ripetitive. Secondo esperti di media digitali, questi elementi rispecchiano i limiti attuali degli algoritmi di generazione visiva, che spesso falliscono nel produrre testi coerenti o dettagli anatomici accurati (come le mani, assenti nelle foto in questione). L’uso di strumenti come Gemini di Google, identificabile dal watermark presente in alcune versioni non ritagliate, conferma l’origine artificiale.
Il ruolo dei watermark e delle piattaforme
La presenza di filigrane digitali, unita alla rapidità del fact-checking, ha permesso di smascherare l’operazione in poche ore. Tuttavia, la viralità dei post solleva interrogativi sulla moderazione dei contenuti. Meta, società madre di Facebook, non ha ancora rimosso tutti i post nonostante le segnalazioni, alimentando la diffusione di disinformazione. L’episodio rientra in una tendenza più ampia: secondo un rapporto del Reuters Institute, il 58% degli utenti non riconosce immagini sintetiche se non esplicitamente avvisato. Organizzazioni come Bellingcat sottolineano l’urgenza di strumenti automatizzati per identificare i deepfake, soprattutto in contesti geopolitici sensibili come il Medio Oriente. Facebook Post 1 Facebook Post 2 Israel Advocacy Movement su X.com
