di Giuseppe Gagliano –
Nel cuore della guerra a Gaza, l’apparato di sicurezza israeliano compie un salto tecnologico inquietante: lo sviluppo di un sistema di intelligenza artificiale generativa – modellato su ChatGPT – addestrato su milioni di conversazioni private in arabo raccolte nei Territori occupati. È un progetto avviato dall’Unità 8200, punta di diamante della cyber-guerra israeliana, con l’obiettivo dichiarato di automatizzare la sorveglianza, generare profili di sospetti e suggerire arresti.
Secondo un’inchiesta congiunta di +972mag, Guardian e Local Call, l’esercito ha trasformato la popolazione palestinese in un gigantesco laboratorio linguistico, alimentando algoritmi con dati raccolti da conversazioni quotidiane, spesso tra civili mai sospettati di crimini. «Quando hai tutti questi dati, puoi usarli per qualunque fine», ha dichiarato una fonte d’intelligence. Il fine è chiaro: arresti predittivi, controllo totale, annientamento della privacy come fondamento del diritto.
La nuova IA non si limita a trascrivere o tradurre: risponde a domande, collega individui, crea liste. È progettata per segnalare “potenziali minacce” basandosi su pattern linguistici e comportamentali. Un chatbot militare, allenato a riconoscere chi potrebbe, secondo il modello, tirare una pietra, condividere rabbia o pianificare un’azione. Non serve un crimine, basta una probabilità. E il sospetto, come già accade, può valere l’arresto.
Il precedente è già in uso: l’algoritmo “Lavender”, responsabile della generazione di kill list usate per colpire obiettivi umani a Gaza, spesso con margini di errore del 10%. L’intelligenza artificiale applicata alla guerra non è solo supporto, è giudice e giuria. E spesso lo è in assenza di qualunque verifica umana sostanziale, ridotta a semplice timbro formale.
Lo sviluppo del sistema coinvolge anche l’industria tech privata: ex dipendenti di Google, Meta e Microsoft richiamati come riservisti portano in dote competenze avanzate. Le piattaforme occidentali, seppure formalmente estranee, appaiono indirettamente coinvolte in un processo che militarizza il know-how civile. Israele, in questo, si pone all’avanguardia globale: un laboratorio in cui l’IA non è uno strumento di analisi, ma di repressione.
Cosa accade quando un sistema predittivo decide chi è colpevole? Quando un’intelligenza artificiale addestrata a riconoscere “odio” nei dialetti arabi diventa lo strumento principale di selezione carceraria? Il rischio di errore non è solo tecnico, è politico. È la traslazione di un sistema coloniale in codice binario, con i palestinesi ridotti a target statistici.
Gli analisti internazionali avvertono: questi strumenti non sono neutri. Sono prodotti in un contesto di occupazione, potenziati da una logica militare e impiegati senza garanzie. L’occupazione israeliana si aggiorna. Diventa predittiva, automatizzata, algoritmica. Ma resta un’occupazione.












