Sophia Goodfriend : Come l’Intelligenza Artificiale sta intensificando i bombardamenti israeliani su Gaza
- La salute mentale dei bambini di Gaza va di male in peggio
- Riduzione del numero di permessi di costruzione concessi dallo Stato di Israele ai palestinesi
- Adam, Fuad, Abdullah, Omar: i 28 ragazzini palestinesi uccisi quest’anno dalle forze armate israeliane
- Il Programma Alimentare Mondiale dell’ONU sospende gli aiuti alimentari a 8.000 famiglie di Gaza per carenza di fondi
- L’industria dell’hasbara: decostruire la macchina propagandistica israeliana
Sophia Goodfriend
6 giugno 2023 – +972 Magazine fonte : ebraica israeliana
Con gli algoritmi che rendono più facile sostenere una guerra, le armi automatizzate hanno trasformato gli assalti israeliani contro i palestinesi assediati in un evento annuale.
“I cieli sopra Gaza sono pieni di bombe israeliane”, mi ha detto Anas Baba quando abbiamo discusso su WhatsApp qualche settimana fa, subito dopo che l’esercito israeliano e la Jihad islamica avevano raggiunto un labile cessate il fuoco successivamente all’ultima offensiva israeliana sulla Striscia bloccata, che ha ucciso 33 persone e ne ha ferite altre decine. Nonostante gli attacchi dei droni fossero cessati, persisteva il ronzio incessante degli UAV [droni, ndt.]. Il loro suono ricordava – come ha detto Baba, un giornalista di Gaza – che la guerra costituisce ormai un evento con cadenza annuale.
Nel corso dei 16 anni dall’inizio dell’assedio così tante famiglie palestinesi hanno perso la casa nei ripetuti bombardamenti della Striscia che la ricostruzione non ha mai fine ed è resa ancora più difficile dal coinvolgimento di numerose organizzazioni e governi che offrono una assistenza umanitaria limitata. E a causa dell’alto numero di persone interessate e della ingente quantità di fondi necessari per ricostruire, spiega Baba, le famiglie potrebbero trovarsi in lista d’attesa per anni.
I bombardamenti israeliani su Gaza stanno diventando più frequenti grazie alle innovazioni nell’intelligenza artificiale (AI) e a un esercito che si piega ai dettami di governi sempre più di destra. L’esercito si vanta che le unità di intelligence ora possono individuare obiettivi – un processo che richiedeva anni – in appena un mese. Anche se cresce il bilancio delle vittime nei territori occupati le evidenze di questa crisi umanitaria raramente fanno breccia nell’opinione pubblica ebraico-israeliana, barricata dietro censori militari, sistemi di difesa missilistica e semplice indifferenza. Invece, la violenza nella regione viene analizzata attraverso il linguaggio salvifico dell’innovazione tecnologica.
Sulla stampa israeliana queste guerre si svolgono secondo uno schema familiare. Nuove offensive militari su Gaza vengono annunciate come l’uscita di un tanto atteso videogioco della serie Call of Duty. L’esercito satura le pagine dei social media con immagini epiche di soldati armati, mentre nomi biblici evocano una potenza militare di proporzioni mitologiche. Poi i missili piovono su Gaza, spazzando via le infrastrutture, le case e le vite dei palestinesi, mentre le sirene d’allarme per i razzi invitano gli abitanti del sud di Israele a correre nei rifugi fortificati.
Nei giorni successivi all’accordo sul cessate il fuoco i generali fanno il loro giro dei media per parlare delle innovazioni nell’automazione, rivelate nel corso dell’ultimo assalto. Sciami di droni assassini diretti da algoritmi di supercalcolo, che possono sparare e uccidere con un minimo intervento umano, sono celebrati allo stesso modo in cui i CEO della Silicon Valley elogiano i chatbot [gli algoritmi alla base del funzionamento delle chat, ndt.]. Mentre il mondo fa i conti con gli sviluppi fuori controllo dell’AI, ogni guerra intrapresa contro Gaza dall’arsenale militare automatizzato di Israele illustra il costo umano di questi sistemi.
“Un moltiplicatore di forza”
La guerra è sempre stata un’occasione per i militari per il commercio di armi. Ma poiché i bombardamenti asimmetrici di Israele su Gaza sono diventati eventi con cadenza annuale l’esercito ha iniziato a definirsi una sorta di pioniere che esplora il territorio sconosciuto della guerra automatizzata. Le IDF [esercito israeliano,ndt.] hanno proclamato di aver condotto la “prima guerra AI al mondo” nel 2021 – l’offensiva di 11 giorni su Gaza denominata in codice “Operation Guardian of the Walls” [Operazione Guardiano delle Mura, ndr.] che, secondo B’tselem, ha ucciso 261 palestinesi ferendone 2.200. I droni hanno spazzato via intere famiglie, danneggiato scuole e cliniche mediche e fatto esplodere grattacieli che ospitavano famiglie, aziende e uffici dei media lontani da qualsiasi obiettivo militare.
Mentre 72.000 palestinesi erano sfollati e altre migliaia piangevano i morti, i generali israeliani si vantavano di aver rivoluzionato la guerra. “L’intelligenza artificiale è stata un moltiplicatore di forza per le IDF”, si sono vantati gli ufficiali, descrivendo in dettaglio come sciami di droni robotici avessero accumulato dati di sorveglianza, individuato obiettivi e sganciato bombe con un intervento umano minimo.
Lo schema si è ripetuto poco più di un anno dopo. Nell’agosto 2022 le IDF hanno lanciato un’offensiva di cinque giorni contro Gaza, denominata “Operazione Breaking Dawn” [sorgere dell’alba, ndt.], che ha causato la morte di 49 palestinesi, inclusi 17 civili. Missili sono esplosi per le strade del campo profughi di Jabalia, uccidendo sette civili, fuori dalle loro case a causa delle interruzioni di corrente. I droni hanno colpito anche un vicino cimitero uccidendo dei bambini che giocavano in un raro lembo di spazio aperto.
Sulla scia della distruzione l’esercito ha lanciato un’altra curatissima campagna di pubbliche relazioni, infrangendo un divieto pluridecennale di discutere apertamente dell’uso nelle operazioni militari di droni basati sull’intelligenza artificiale. Il Brigadier Generale Omri Dor, comandante della base aerea di Palmachim, ha dichiarato al Times of Israel [quotidiano online israeliano, ndt.] che i droni dotati di intelligenza artificiale hanno conferito all’esercito una “precisione chirurgica” nell’assalto, consentendo alle truppe di ridurre al minimo “danni collaterali o danni a altre persone”.
Tuttavia, come tutte le autopromozioni, tali annunci sono un esercizio di autoesaltazione. Per cominciare, nel 2021 Israele non ha condotto la “prima guerra AI” al mondo. Droni, sistemi di difesa missilistica e guerra informatica sono stati usati per decenni in tutto il mondo e piuttosto che l’esercito israeliano sono gli Stati Uniti ad essere spesso considerati il vero pioniere.
Ad esempio in Vietnam sensori e centinaia di computer IBM hanno aiutato le truppe statunitensi a rintracciare, localizzare e uccidere i combattenti vietcong – e molti civili – in attacchi aerei letali. Quando i soldati statunitensi sono entrati in Iraq, lo stesso hanno fatto i robot armati di fucili e in grado di far saltare in aria esplosivi. Dalla fine degli anni 2000 la maggior parte dei governi ha incorporato nei propri arsenali militari e di sorveglianza sistemi di apprendimento automatico. Oggi sciami di droni automatizzati hanno ucciso militanti e civili nelle guerre in Libia e Ucraina.
È stato quindi un problema di saturazione del mercato a motivare l’esercito israeliano a trasformare gli attacchi contro Gaza in campagne pubblicitarie coordinate. Nel 2021 gli esperti di intelligenza artificiale hanno lanciato l’allarme sui droni assassini di fabbricazione turca che potrebbero sciamare e uccidere obiettivi senza intervento umano. La Cina è stata presa di mira per aver esportato sistemi d’arma automatizzati – da sottomarini robotici a droni invisibili – in Pakistan e Arabia Saudita.
Vedendo questo i trafficanti israeliani di armi hanno temuto che altri Paesi potessero eclissare il vantaggio competitivo della “nazione start-up” sulle esportazioni di armi a favore di regimi con sordidi primati a proposito di diritti umani. “E’ovvio che le cose sono cambiate e che Israele deve cambiare atteggiamento se non vuole perdere altri potenziali mercati”, ha detto un alto funzionario militare israeliano in una newsletter dell’industria della difesa dopo l’operazione dell’agosto 2022.
I loro sforzi sono stati ripagati: dopo Guardian of the Walls le esportazioni di armi di Israele hanno raggiunto nel 2021 il massimo storico. Tra i ripetuti bombardamenti su Gaza e con la guerra che infuria in Ucraina, quel numero probabilmente aumenterà.
Nuovi pericoli
L’ubiquità della guerra dell’IA non significa che questa tecnologia debba essere implementata senza salvaguardie e limitazioni. Gli algoritmi possono davvero rendere più efficienti molti aspetti della guerra, dalla guida dei missili all’esame delle informazioni al monitoraggio dei valichi di frontiera. Eppure gli esperti elencano una litania di pericoli posti da questi sistemi: dalla disumanizzazione digitale che riduce gli esseri umani a codici a barre per una macchina in grado di determinare chi dovrebbe vivere o morire, a un costo e una soglia ridotti per un sistema bellico che sostituisce le truppe di terra con algoritmi. Gran parte delle armi sul mercato sono piene di problemi tecnici, per cui si dice identifichino erroneamente gli obiettivi o siano pre-programmate per uccidere determinati gruppi demografici con maggiore frequenza. Anche se riducono il numero di civili uccisi in un singolo bombardamento, come affermano i loro sostenitori, i sistemi d’arma automatizzati rischiano di rendere le battaglie più frequenti e più facili da sostenere facendo sì che la guerra si trascini senza che se ne veda la fine.
Questo è il caso di Gaza. Come afferma Baba, il giornalista: “Con una popolazione di 2,3 milioni di persone in un’area di meno di 45 chilometri, Gaza è uno dei luoghi più densamente popolati del mondo”. Non importa quanto siano avanzate le tecnologie utilizzate, ogni bombardamento israeliano sulla Striscia uccide innumerevoli spettatori innocenti. “I civili sono spesso vittime del fuoco incrociato”, aggiunge.
Dal 2021, quando Israele ha iniziato a promuovere pubblicamente l’uso dell’intelligenza artificiale nelle operazioni militari, negli attacchi annuali di Israele oltre 300 palestinesi sono stati uccisi e altre migliaia sono stati feriti e sfollati; nei ripetuti assalti infrastrutture vitali come i sistemi fognari e le reti elettriche sono state irrimediabilmente danneggiate. L’automazione potrebbe aver consentito a Israele – se avesse potuto raccogliere le forze e il sostegno politico – di non inviare truppe di terra, impedendo perdite di vite umane dalla sua parte, ma soprattutto la tecnologia ha semplicemente reso più frequente la caduta delle bombe e l’uso di proiettili.
Gli esperti politici discutono spesso dei pericoli posti dai sistemi d’arma automatizzati nel futuro. Ma il costo umano è già evidente in tutta la Palestina. “Abbiamo assistito a lungo alle prove dell’uso da parte di Israele dei TPO [territori palestinesi occupati, ndt.], in particolare di Gaza, come laboratorio per testare e dispiegare tecnologie di armi sperimentali”, ha detto a +972 Omar Shakir, direttore per Israele e Palestina di Human Rights Watch.
Shakir sottolinea che tali armi utilizzate in Cisgiordania e a Gaza, dai droni alla biometria alle torrette potenziate dall’intelligenza artificiale, “servono ad automatizzare l’uso illegale della forza e dell’apartheid da parte di Israele contro i palestinesi”. Data la centralità di Israele nei mercati globali delle armi, Shakir ritiene che “è solo una questione di tempo prima che i sistemi d’arma schierati oggi da Israele finiscano negli angoli più remoti del globo”.
I sostenitori dei diritti digitali hanno anche avvertito che le armi sviluppate in Palestina causeranno il caos se esportate all’estero, sottolineando che questi sistemi provengono da contesti politici in cui il pregiudizio contro i palestinesi è fondamentale. Ad esempio, se l’esercito israeliano ha fornito agli operatori delle istruzioni secondo cui in attacchi con droni un certo numero di non combattenti potrebbe essere ucciso, come +972 ha riportato l’anno scorso, questo numero è replicato negli algoritmi che guidano i missili di precisione? Se i soldati israeliani che gestiscono posti di blocco hanno il compito di detenere temporaneamente uomini palestinesi di una certa età, i nuovi confini biometrici, come riportato di recente da Amnesty International, raccomanderanno la detenzione di tutti coloro che rientrano in questo gruppo demografico? Come ha spiegato Mona Shtaya, direttrice del sistema di patrocinio di 7amleh [associazione no profit che favorisce l’uso del digitale tra i palestinesi in particolare a sostegno dei loro diritti, ndt.]: “Se i dati sono distorti, il risultato finale del prodotto sarà sbilanciato contro i palestinesi”.
L’esercito israeliano non sembra preoccupato dal ritmo di tale sviluppo dell’IA. “Cosa fa ChatGPT? Distilla la conoscenza, l’intuizione di cui hai bisogno “, ha affermato il colonnello Uri, comandante della nuova unità di ricerca e informazione sull’IA delle IDF, durante una rara intervista a febbraio. “C’è un limite alle tue capacità come essere umano. Se stessi seduto una settimana per elaborare le informazioni potresti giungere alla stessa identica conclusione. Ma una macchina può fare in un minuto ciò che ti richiederebbe una settimana. “
Questo tecno-ottimismo si ritrova in tutti i ranghi militari di Israele e lo ha aiutato a giustificare la guerra in corso. I comandanti delle unità di intelligence d’élite hanno volantini auto-pubblicati che esaltano una “sinergia uomo-macchina”. Altri occupano posizioni chiave in aziende di armi come Elbit Systems, desiderose di esportare sistemi d’arma automatizzati in tutto il mondo. Quando a febbraio 60 paesi, tra cui Cina e Stati Uniti, hanno stilato un “invito ad agire” in gran parte simbolico a sostegno dell’uso responsabile dell’IA militare Israele ha rifiutato di firmare la dichiarazione. Invece, i comandanti di alto rango paragonano i robot assassini alle chatbot, scimmiottando i dirigenti tecnologici della Silicon Valley che affermano che l’intelligenza artificiale potrà solo migliorare la vita umana.
La vastità della distruzione in una Gaza assediata rende sempre più difficile credere a tali affermazioni. Se l’ultimo bombardamento rivela qualcosa è che anche le armi tecnologicamente più avanzate non possono compensare il costo umano della guerra, non importa quanto sofisticati siano gli algoritmi.
(traduzione dall’inglese di Aldo Lotta)
Commenti
Posta un commento