Lavender: el poderoso sistema de Inteligencia Artificial del Ejército israelí que sugiere a quien matar en Gaza

El dispositivo identifica a posibles miembros de Hamás con datos muy cuestionables asesinando a sus objetivos y a quienes se encuentren cerca.

Por Canal26

Miércoles 17 de Abril de 2024 - 14:08

Destrucción en Gaza. Foto: Reuters. Destrucción en Gaza. Foto: Reuters.

El Ejército de Israel utiliza dentro la tecnología militar más avanzada del mundo, lo que incluye a las armas apoyadas en Inteligencia Artificial (IA). Uno de los más potentes es el Lavender (lavanda) que tiene la capacidad de reconocer a un objetivo para bombardearlo. Desde que inició la guerra contra Gaza el 7 de octubre de 2023, hasta el 24 de noviembre, el dispositivo identificó a 37.000 palestinos y asesinó a 15.000 de ellos, según informaron medios israelíes como +972 Magazine y Local Call.

El sistema está diseñado para atacar a las víctimas en su domicilio y especialmente de noche, por lo que puede cobrarse las muertes de quienes estén alrededor. En este sentido, la automatización de la selección de objetivos militares humanos es una completa novedad en el mundo bélico y un falso positivo puede significar el fallecimiento de inocentes, según recoge una nota del medio El País.

Encontrá más vídeos

Sin embargo, desde las Fuerzas de Defensa de Israel (FDI) rechazaron la idea de que la máquina defina “si alguien es un terrorista”. En este sentido, detallaron que estas tecnologías “son meras herramientas para los analistas en el proceso de identificación de objetivos”, aunque las fuentes citadas -pertenecientes al Ejército y a los servicios de inteligencia israelíes como la Unidad 8200- afirman que los oficiales siguen las recomendaciones de Lavender pero sin hacer chequeos. 

Algunos de los parámetros para reconocer a un miembro de Hamás o de la Yihad Islámica están relacionados con monitorear si un individuo cambia de teléfono frecuentemente -algo que pasa muy seguido en un contexto de conflicto- o el hecho de que sea varón, ya que las mujeres no tienen cargos de oficial dentro del grupo armado.

Destrucción del hospital Al Shifa, Franja de Gaza. Foto: Reuters. Destrucción del hospital Al Shifa, Franja de Gaza. Foto: Reuters.

Como todos los sistemas que funcionan según estadísticas, Lavender tiene márgenes de error: al menos el 10% de sus víctimas no eran milicianos de Hamás. Si se tiene en cuenta las mismas cifras admitidas por el Ejército israelí, cada objetivo señalado por el software implican numerosos asesinatos en un solo bombardeo.

Este sistema se combina con otro que tiene Israel como el Where is Daddy? (¿Dónde está papá?, en inglés) que rastrea a individuos marcados y los bombardea al llegar a sus casas, y con The Gospel (El evangelio) que identifica edificios en los que supuestamente opera Hamás. De esta manera, el Lavender procesa información de los más de 2,3 millones de gazatíes y da una puntuación del 1 al 100 para cada uno que depende de la menor o mayor probabilidad de que sean miembros del grupo armado. Los que sacan la calificación más alta son asesinados junto a quienes se encuentren alrededor de ellos. 

Gemini; Google; inteligencia artificial. Foto: Reuters.

Te puede interesar:

Los mejores trucos para usar correctamente Gemini, la inteligencia artificial de Google

¿Es legal utilizar armamentos como el Lavender en un conflicto bélico?

“El ejército de Israel usa la IA para aumentar los procesos de toma de decisiones de los operadores humanos. Ese uso es conforme al derecho internacional humanitario, tal y como lo aplican las Fuerzas Armadas modernas en muchas guerras asimétricas desde el 11 de septiembre de 2001”, indicó la jurista Magda Pacholska, investigadora del TMC Asser Institute y especialista en la combinación de tecnologías disruptivas y derecho militar.

Además, la profesional agregó que el Ejército israelí utilizó este sistema de IA en la Operación Guardián de los Muros de 2021. Otros países como Francia, Estados Unidos y Países Bajos también lo usaron aunque contra estructuras materiales. “La novedad es que, esta vez, emplea estos sistemas contra objetivos humanos”, subrayó la experta.

Destrucción del hospital Al Shifa, Franja de Gaza. Foto: Reuters. Destrucción del hospital Al Shifa, Franja de Gaza. Foto: Reuters.

Por otra parte, Arthur Holland Michel, encargado de hacer informes sobre el empleo de armas autónomas en conflictos armados para la ONU afirmó que “lo que es diferente, y ciertamente sin precedentes, en el caso de Lavender en Gaza es la escala y la velocidad a la que se está utilizando el sistema. El número de personas que se ha identificado en tan solo unos meses es asombroso”. “Otra diferencia crucial es que el tiempo transcurrido entre la identificación de un objetivo por parte del algoritmo y el ataque contra este parece haber sido a menudo muy corto. Eso indica que no hay demasiada investigación humana en el proceso. Desde un punto de vista jurídico, esto podría ser problemático”, aseguró.

Luis Arroyo Zapatero, rector honorario de la Universidad de Castilla-La Mancha y especialista en Derecho Penal Internacional, planteó que asesinar civiles e infraestructura civil en una guerra es un crimen "contra la humanidad”. “Las muertes producidas como daños colaterales son puros asesinatos. El sistema Lavender es directamente una máquina de asesinar civiles, pues admite muertes colaterales de civiles de entre 10 y 100 personas más allá de objetivo preciso”, añadió el experto.

Situación en Gaza por el conflicto entre Israel y Hamas. Foto: REUTERS. Situación en Gaza por el conflicto entre Israel y Hamas. Foto: Reuters.

Además de bombardear sin discriminación, el Ejército israelí mantiene vigilada a la población palestina hace tiempo, recopilando todo tipo de datos. Según el Washington Post, hay un programa -Blue Wolf- que registra los rostros de los residentes de Cisjordania, ya sean niños, adultos o ancianos y los asocia a un nivel de "peligrosidad". De esta manera, cuando los soldados ven personas en la calle, pueden observar un código que indica si hay que arrestarlos o no. En Gaza se utiliza un sistema parecido, según The New York Times.

“Reconocimiento facial en todas partes, drones, tecnología de espionaje… Este Estado es realmente una incubadora de tecnologías de vigilancia. Si vendes un producto, tienes que mostrar lo efectivo que es en escenarios reales y en tiempo real. Eso es lo que está haciendo Israel”, comentó Cody O’Rourke, de la ONG Good Shepherd Collective, desde Beit Sahour, una ciudad palestino al este de Belén. Además, el estadounidense voluntario que vive hace dos décadas en Palestina contó que se encuentra en una lista negra por lo que siempre lo retardan en los controles militares israelíes. 

“Israel lleva décadas deslegitimando el proceso de paz con los palestinos, aunque nunca ha estado interesado en alcanzar la paz. Necesita que el mundo legitime su ocupación y usa la tecnología para mantener esa ocupación como tarjeta de visita”, escribió Antony Loewenstein en su libro El laboratorio palestino (Capitán Swing, 2024). 

Notas relacionadas