Luego se permitió matar a 20 civiles durante ataques aéreos contra militantes de bajo rango, destruyendo casas enteras y asesinando a todos sus ocupantes
Fuentes de inteligencia israelíes revelan el uso del sistema Lavender en la agresión militar contra Gaza y afirman que se les dio permiso para matar civiles en persecución de militantes de bajo rango, informó en un amplio reportaje el diario británico The Guardian.
La campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por Inteligencia Artificial (IA) no revelada anteriormente que en un momento identificó 37,000 objetivos potenciales en función de sus aparentes vínculos con Hamas, según fuentes de inteligencia involucradas en la guerra.
Además de hablar sobre el uso del sistema de inteligencia artificial, llamado Lavender, las fuentes de inteligencia afirman que los oficiales militares israelíes permitieron que un gran número de civiles palestinos murieran, particularmente durante las primeras semanas y meses del conflicto.
El uso por parte de Israel de potentes sistemas de IA en su guerra contra Hamás ha entrado en territorio inexplorado para la guerra avanzada, planteando una serie de cuestiones jurídicas y morales y transformando la relación entre el personal militar y las máquinas.
The Guardian documentó que Lavender había desempeñado un papel central en la guerra, procesando grandes cantidades de datos para identificar rápidamente a posibles agentes “jóvenes” a los que atacar.
Lavender enumeró hasta 37,000 hombres palestinos que habían sido vinculados por el sistema de inteligencia artificial con Hamás o la Jihad Islámica.
Lavender fue desarrollado por la división de inteligencia de élite del ejército de Israel, la Unidad 8200, que es comparable a la Agencia de Seguridad Nacional de Estados Unidos o GCHQ en el Reino Unido.
Varias de las fuentes describieron cómo, para ciertas categorías de objetivos, Israel aplicó asignaciones preautorizadas para el número estimado de civiles que podrían morir antes de que se autorizara un ataque.
Dos fuentes dijeron que durante las primeras semanas de la guerra se les permitió matar a 15 o 20 civiles durante ataques aéreos contra militantes de bajo rango, destruyendo con las llamadas “bombas tontas” casas enteras y matando a todos sus ocupantes.
“No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez de esas bombas”, dijo un oficial de inteligencia.
Según los expertos en conflictos, si Israel ha estado utilizando bombas tontas para arrasar las casas de miles de palestinos que estaban vinculados, con la ayuda de AI, a grupos militantes en Gaza, eso podría ayudar a explicar el sorprendentemente alto número de muertos en la guerra.
“Nos presionaban constantemente: ‘Traigan más objetivos’. Realmente nos gritaban”, dijo un oficial de inteligencia. “Nos dijeron: ahora tenemos que arruinar a Hamás, cueste lo que cueste. Todo lo que puedas, lo bombardeas”.
Lavender creó una base de datos de decenas de miles de personas que fueron marcadas como miembros predominantemente de bajo rango del ala militar de Hamas, aañadieron. Eso se utilizó junto con otro sistema de apoyo a la toma de decisiones basado en inteligencia artificial, llamado Evangelio, que recomendaba edificios y estructuras como objetivos en lugar de individuos.
“En su punto máximo, el sistema logró generar 37.000 personas como posibles objetivos humanos”, dijo una de las fuentes. “Pero las cifras cambiaban todo el tiempo, porque depende de dónde se establezca el listón de lo que es un agente de Hamás”.
“Hubo momentos –afirmaron- en que un operativo de Hamás se definió de manera más amplia, y luego la máquina comenzó a traernos todo tipo de personal de defensa civil, oficiales de policía, sobre quienes sería una vergüenza desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados”.
Antes de la guerra, Estados Unidos e Israel estimaban que el ala militar de Hamás contaba con entre 25,000 y 30,000 miembros aproximadamente.
“Había una política completamente permisiva con respecto a las víctimas de las operaciones de bombardeo”, dijo una fuente. “Una política tan permisiva que en mi opinión tenía un elemento de venganza”.
Otra fuente, que justificó el uso de Lavender para ayudar a identificar objetivos de bajo rango, dijo que “cuando se trata de un militante joven, no conviene invertir mano de obra ni tiempo en él”. Dijeron que en tiempos de guerra no había tiempo suficiente para “incriminar cuidadosamente a cada objetivo”.
“Así que estás dispuesto a tomar el margen de error que implica el uso de inteligencia artificial, arriesgándote a sufrir daños colaterales y a la muerte de civiles, y a arriesgarte a atacar por error, y a vivir con ello”, añadieron.
Cualquiera que sea la justificación legal o moral de la estrategia de bombardeos de Israel, algunos de sus oficiales de inteligencia parecen ahora cuestionar el enfoque establecido por sus comandantes. “Nadie pensó en qué hacer después, cuando termine la guerra, o cómo será posible vivir en Gaza”, reconoció uno de los oficiales.