El laboratorio de la IA mortal: Lavender en Gaza

“La presencia judía en Palestina ha sido fundamental e indispensable desde siempre, pero el estado colonial sionista con un modelo europeo, como lo describió el propio Vladimir Jabotinsky, requiere para sobrevivir de su armamento y muy rara vez de su diplomacia.” Esta es la premisa en la que se basa nuestro colaborador Naief Yehya para hacer un recuento informativo de los programas de Inteligencia Artificial Lavender y Where’s Daddy, diseñados para eliminar tanto a militantes de Hamás, como a habitantes civiles en la Franja de Gaza

Un dron en el mirador del Monte de los Olivos,  cerca de la Ciudad Vieja de Jerusalén, 12 de julio de 2022.
Un dron en el mirador del Monte de los Olivos, cerca de la Ciudad Vieja de Jerusalén, 12 de julio de 2022. Foto: Nati Shohat

El primer ataque mortal con un dron tuvo lugar el 3 de noviembre de 2002 en Yemen. Fue posible imaginar a partir de entonces que estaba a punto de llegar el tiempo en que vehículos no tripulados y armados con misiles u otras armas podrían cazar sospechosos, enemigos, fugitivos y terroristas (término que sirve para estigmatizar a cualquiera) sin la necesidad de intervención humana. Quienes creían que el elemento humano en este proceso era “un cuello de botella”, imaginaban a la Inteligencia Artificial (IA) como una herramienta infalible, semidivina, capaz de eliminar errores y prejuicios. Era inevitable que tarde o temprano ocurrirían dos cosas: se desarrollarían tecnologías que darían a las máquinas la capacidad de elegir blancos, y los altos mandos aprobarían que los sistemas tuvieran la responsabilidad de matar con mínima o nula supervisión.

LAS FUERZAS ARMADAS y los servicios de inteligencia israelíes están a la vanguardia mundial tanto en el desarrollo de drones bélicos como en el campo de la vigilancia masiva y el espionaje (recordemos el controvertido y muy popular entre autócratas programa de hackeo telefónico Pegasus). Como bien lo ha mostrado Antony Loewenstein en su libro The Palestine Laboratory, Israel ha construido una poderosa industria armamentista enfocada principal, aunque no únicamente, en tecnologías para la represión de civiles, bajo la etiqueta de contraterrorismo. Estos recursos los ha venido experimentando desde hace 56 años en los territorios ocupados de Cisjordania y en los 16 años de bloqueo de Gaza, así como en el Líbano y Siria entre otros. Las campañas de publicidad de sus productos de exportación aseguran que son “probados en batalla”, de forma que la ocupación es un elemento importante en el negocio.1 La industria militar israelí juega un papel fundamental en la economía nacional, pero su verdadera importancia radica en la construcción del imaginario nacionalista, ya que las armas realmente valiosas para la defensa son las provistas por Estados Unidos y otros aliados. La presencia judía en Palestina ha sido fundamental e indispensable desde siempre, pero el estado colonial sionista con un modelo europeo, como lo describió el propio Vladimir Jabotinsky, requiere para sobrevivir de su armamento y muy rara vez de su diplomacia. El estado colonial vive en un estado permanente de miedo y necesita presentarse como la víctima del nativo despojado, quien es imaginado como un enemigo sanguinario que, de no ser exterminado, estará siempre al acecho. De ahí la imposición de un sistema de apartheid, limpieza étnica, vigilancia extrema y la imposición de castigos ejemplares a cualquier insubordinación.

EL EJÉRCITO ISRAELÍ ha experimentado con varios programas de IA que seleccionan blancos para ser capturados o asesinados de acuerdo con criterios específicos como “The Gospel” o “El Evangelio”, diseñado para señalar estructuras y edificios relacionados con Hamás y otros grupos armados. Eran sistemas auxiliares sin demasiada relevancia en las operaciones, pero esto cambió después del ataque palestino del 7 de octubre de 2023. La revista israelí-palestina +972 publicó el 3 de abril pasado el artículo de Yuval Abraham: “‘Lavender’: la máquina de Inteligencia Artificial que dirige los bombardeos israelíes en Gaza”, a raíz de una investigación realizada con la organización Local Call. A partir de las revelaciones de seis oficiales de inteligencia israelíes anónimos que han servido en la actual masacre de Gaza y han intervenido personalmente generando blancos para asesinatos mediante IA describen el uso de este programa.2

El estado colonial vive en un estado permanente de miedo y necesita presentarse como la víctima del nativo despojado

De acuerdo con las fuentes de +972, la autorización para adoptar la sistematización masiva de los blancos que permite Lavender se tomó cuando los mandos militares llegaron a la conclusión que debía de haber decenas de miles de operativos involucrados en las acciones del 7 de octubre, y que encontrarlos por vías convencionales de espionaje e inteligencia tomaría demasiado tiempo. Lavender podía reducir ese tiempo. El personal humano tan solo tenía que dar una aprobación final, de alrededor de “20 segundos” por cada blanco, que en esencia consistía en asegurarse de que era hombre ya que “no hay mujeres militantes en esas organizaciones”. Dos semanas después del ataque y del comienzo de la Operación Espadas de Hierro, todos los sospechosos que tuvieran cualquier relación con el brazo militar de Hamás, sin importar su rango o importancia en la organización, eran señalados como blancos legítimos a ser eliminados. A partir de ese momento, “Si Lavender decidía que un individuo era militante de Hamás, se consideraba a eso una orden de ejecución, sin necesidad de verificar de forma independiente por qué la máquina había tomado esa decisión y sin examinar los datos brutos de inteligencia en los que se basó”, escribe Abraham.

Aparentemente, Lavender jugó un papel determinante en los primeros días de esta operación. En cierto momento este programa encontró que alrededor de 37 mil palestinos eran sospechosos de pertenecer a organizaciones militantes armadas. El ejército confió completamente en estos resultados maquinales como si fueran fruto de una investigación humana y dio su autorización para lanzar una campaña amplia e indiscriminada de exterminio de esas personas. El error estadístico, que de acuerdo con los informantes era de cerca del diez por ciento, fue considerado aceptable.

LAVENDER ANALIZA LA INFORMACIÓN de prácticamente toda la población de Gaza, adquirida mediante sistemas de vigilancia masiva (comunicaciones, documentación oficial, reconocimiento facial, inteligencia de infiltrados y drones espías entre otros) y para cada persona da una calificación entre 1 y 100, expresión de la probabilidad de que esa persona sea miembro de Hamás. Los criterios usados son muchos pero incluyen: estar en un grupo de WhatsApp en el que también esté un militante conocido, cambiar teléfonos celulares regularmente y mudarse de dirección física con frecuencia. Cosas comunes para una población sitiada y bombardeada. Así se confundía a miembros de alto y de muy bajo nivel, y a gente que comparte el mismo nombre o apodo que un operativo y otras semejanzas que pueden confundir al programa. Otro informante declaró: “Normalmente, los operativos son mayores de 17 años, pero esa no era una condición”. De esa forma se creó y se mantiene actualizada una lista de asesinatos: Kill List.

Asimismo, utilizan otro programa llamado Where’s Daddy?, diseñado para conectar individuos con sus residencias, de forma que permite rastrear a los sospechosos cuando están en casa con la familia, por la noche. Esos momentos fueron elegidos como la primera opción para eliminarlos, rodeados de los suyos. El uso en conjunto de Lavender y Where’s Daddy? explica la inmensa cantidad de familias enteras que fueron aniquiladas especialmente en las primeras seis semanas de los ataques israelíes. En cuanto a los militantes de bajo nivel, predeterminaron que el nivel de daño colateral aceptable para cada blanco era que podían matar con él hasta 20 civiles; para los líderes y comandantes (de brigadas y divisiones) el número llegaba hasta 300 civiles (como en el caso del comandante Ayman Nofal, de la Brigada Central de Gaza y Mohammed Shabaneh, comandante de la Brigada de Rafah). Estos números son alarmantes y no tienen precedente histórico en Israel o en Estados Unidos. Además, para eliminar a los presuntos militantes de bajo nivel no utilizaban bombas de precisión, sino bombas no guiadas o “tontas”, ya que “no valía la pena gastar tanto en personas sin importancia”, dijo un informante. El año pasado se reveló que alrededor de la mitad de las bombas usadas por el ejército israelí son municiones “estúpidas”, capaces de destruir edificios enteros y matar a muchas más personas, en vez de bombas dirigidas o “inteligentes” que podrían eliminar un determinado departamento o casa.3 El nivel de destrucción y de domicidio, destrucción de hogares, no tiene precedente y es un crimen contra la humanidad.4 Hasta entonces, se consideraba un caso especial y extraordinario que el ejército israelí decidía matar a un operativo militar enemigo de alto rango junto con su familia. Según Abraham, si un blanco de poca importancia vivía en un edificio de pocos pisos, el ejército estaba autorizado a matar a todos los demás ocupantes del edificio. Esto pone en evidencia la falsedad de la propaganda israelí que asegura que Hamás utilizara a mujeres y niños como “escudos humanos”. Deliberadamente, civiles fueron y son eliminados junto con los sospechosos. Para el 20 de noviembre, de acuerdo con datos de la ONU, 6 mil 120 personas asesinadas en sus hogares pertenecían a mil 340 familias.5 A su vez +972 demostró que el programa no solamente calculaba erróneamente cuánta gente se encontraba en casa en el momento del ataque, sino que también se equivocaba al recomendar ataques cuando el combatiente buscado no estaba en casa.

VM tipo Heron-1 "Shuvel Yam", fabricado por la Industria de Aviación  de Israel, utilizado en la Rama de Patrullas Marinas dentro del Escuadrón 200.
VM tipo Heron-1 "Shuvel Yam", fabricado por la Industria de Aviación de Israel, utilizado en la Rama de Patrullas Marinas dentro del Escuadrón 200. ı Foto: Unidad del Portavoz de las Fuerzas Armadas de Israel

UNO DE LOS INFORMANTES, identificado como B declaró: “A las 5 de la mañana, [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado… Matamos a miles de personas. No revisamos los casos uno por uno: pusimos todo en sistemas automatizados, y tan pronto como uno de [los individuos marcados] estaba en casa, inmediatamente se convertía en un objetivo. Lo bombardeamos a él y a su casa”. Otro informante declaró: "Me sorprendió mucho que nos pidieran que bombardeáramos una casa para matar a un soldado cuya importancia en los combates era tan baja”, y continúa en la completa deshumanización de sus víctimas: “A esos objetivos los apodé ‘objetivos basura’”. “Aun así, esos me parecían más éticos que los objetivos que bombardeamos sólo por ‘disuasión’: edificios altos que son evacuados y derribados sólo para causar destrucción”. Esto pone en evidencia lo que numerosas organizaciones de derechos humanos han repetido: Israel no sabe ni le interesa a quién están matando sus bombas. La propaganda estatal asegura que han eliminado a 12 mil militantes de Hamás. Esto es absurdo e imposible de comprobar. De los 33 mil muertos en Gaza, alrededor de 14 mil eran niños y por lo menos 9 mil, mujeres, lo cual equivaldría a que todos los hombres ejecutados eran miembros de Hamás.6 Estas cifras que las fuentes israelíes y occidentales insisten en señalar como: “De acuerdo con el Ministerio de Salud Palestino de Hamás”, son las que ellos mismos emplean desde hace años y han sido confirmadas por organizaciones humanitarias internacionales. Los mili-tantes han muerto entre los civiles en una masacre indiscriminada y un castigo colectivo sin precedentes, que han llamado: “cacería amplia” y es el resultado de “copiar y pegar las listas que produce el sistema de producción de blancos”. La respuesta del ejército israelí fue repetir la acusación de los “escudos humanos”, reafirmar su “compromiso con la ley internacional” y declarar: “El ejército israelí no usa un sistema de IA que identifica operativos terroristas o trata de predecir si una persona es un terrorista, los sistemas de información son meramente herramientas para el análisis en el proceso de identificación de blancos”.7

Según Abraham, si un blanco de poca importancia vivía en un edificio de pocos pisos, el ejército estaba autorizado a matarlo junto con todos los demás ocupantes

Una vez que la mayoría de las casas y edificios en Gaza fueron destruidos y 1.7 millones de personas fueron obligadas a desplazarse, el uso de Where’s Daddy? se volvió inútil. El informante B dijo a Abraham que aceptó ser entrevistado porque pensaba que la política “desproporcionada” de asesinatos de palestinos eventualmente sería contraproducente para Israel. “A corto plazo estamos más seguros, porque le hicimos daño a Hamás. Pero pienso que a la larga tendremos menos seguridad. Las familias en duelo en Gaza —que son prácticamente todas— tendrán motivos para unirse a Hamás u otros movimientos en el futuro”.

Notas

1 https://asia.nikkei.com/Politics/Israel-Hamas-war/Israeli-startups-hope-to-export-battle-tested-AI-military-tech

2 Abraham, Yuval, ‘Lavender: The AI machine directing Israel’s bombing spree in Gaza, +972 Magazine, 3 de abril de 2024, https://www.972mag.com/lavender-ai-israeli-army-gaza/

3 https://edition.cnn.com/2023/12/13/politics/intelligence-assessment-dumb-bombs-israel-gaza/index.html

4 https://www.ohchr.org/en/press-releases/2024/04/gaza-un-experts-deplore-use-purported-ai-commit-domicide-gaza-call

5 https://www.ochaopt.org/content/hostilities-gaza-strip-and-israel-reported-impact-day-45

6 https://news.un.org/en/story/2024/03/1147167

7 https://www.theguardian.com/world/2024/apr/03/israel-defence-forces-response-to-claims-about-use-of-lavender-ai-database-in-gaza