El Uso de la IA por Israel Genera Alarmas: Buscando Equilibrio entre Precisión y Bajas Civiles

En una reciente revelación, se ha descubierto que las fuerzas israelíes están utilizando una avanzada herramienta de IA llamada ‘Lavender’ para identificar decenas de miles de palestinos en Gaza como posibles blancos de asesinato. El uso de esta nueva tecnología ha suscitado preocupaciones serias sobre la precisión de los objetivos, a la vez que plantea interrogantes sobre las bajas civiles.

Según un informe elaborado por el periodista israelí Yuval Abraham, quien ha hablado con varios oficiales de inteligencia israelíes bajo condición de anonimato, Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos durante el conflicto en curso. Lo alarmante es que el ejército ha tratado la información generada por la máquina de IA como si fuera una decisión humana, lo que ha llevado a una rápida selección de objetivos sin una verificación exhaustiva.

El sistema Lavender está principalmente diseñado para identificar posibles objetivos de bombardeo dentro de las facciones militares de Hamás y la Yihad Islámica Palestina (PIJ, por sus siglas en inglés). Durante las primeras semanas del conflicto, el ejército israelí confió en gran medida en Lavender, marcando aproximadamente a 37,000 individuos como presuntos militantes y sus hogares como posibles objetivos. No obstante, se debe tener en cuenta que el sistema tiene un margen de error de alrededor del 10 por ciento, a menudo marcando individuos con conexiones débiles o ninguna conexión en absoluto con grupos militantes.

Además, un aspecto preocupante es el enfoque del ejército en los objetivos. La fuerza militar israelí atacó principalmente a individuos mientras estaban en sus hogares, a menudo durante la noche cuando sus familias estaban presentes. Esta estrategia permitía localizar más fácilmente a los objetivos en sus residencias privadas. Otro sistema automatizado, conocido como «¿Dónde está Papá?», también se utilizó para rastrear a los individuos objetivos e iniciar bombardeos cuando ingresaban a sus hogares familiares.

A pesar de los errores conocidos en el sistema, el ejército decidió flexibilizar el número permitido de civiles que podrían ser asesinados durante el bombardeo de un blanco. Además, el software automatizado calculó incorrectamente la cantidad de no combatientes en cada hogar, empeorando aún más los riesgos de bajas civiles.

A medida que el conflicto continúa, crecen las preocupaciones sobre el equilibrio entre apuntar efectivamente a amenazas legítimas y minimizar el daño civil. El uso de la tecnología de IA en la guerra plantea complejas cuestiones éticas que requieren una consideración cuidadosa. Encontrar el equilibrio adecuado entre precisión y evitando bajas civiles es crucial y exige la supervisión humana para prevenir la pérdida innecesaria de vidas inocentes.

Preguntas Frecuentes (FAQ)

¿Qué es Lavender y cómo funciona?
Lavender es una avanzada herramienta de IA empleada por las fuerzas israelíes para marcar a presuntos operativos dentro de las facciones militares de Hamás y la Yihad Islámica Palestina (PIJ) como posibles blancos de bombardeo. Utiliza algoritmos para identificar y rastrear individuos basándose en diversos datos de inteligencia.

¿Por qué existen preocupaciones sobre las bajas civiles?
El uso de Lavender ha suscitado inquietudes porque, a pesar de su alta precisión en la identificación de operativos de bajo nivel de Hamás, el sistema tiene un margen de error de aproximadamente el 10 por ciento. Esto ha resultado en muertes de civiles y en individuos marcados que tienen conexiones débiles o ninguna conexión en absoluto con grupos militantes.

¿Por qué el ejército israelí principalmente atacó a individuos en sus hogares?
Atacar a individuos en sus hogares, a menudo durante la noche cuando sus familias estaban presentes, se consideraba ventajoso tácticamente desde el punto de vista de inteligencia. Permitía localizar más fácilmente a los objetivos y minimizar el daño colateral a la infraestructura circundante.

¿Cuál es el papel del sistema «¿Dónde está Papá?»
El sistema «¿Dónde está Papá?» es otra herramienta automatizada utilizada para rastrear a los individuos objetivos e iniciar bombardeos cuando ingresaban a sus hogares familiares. Trabajaba en conjunto con Lavender para garantizar la precisión en el momento y la ejecución de los ataques.

¿Qué medidas se están tomando para abordar las preocupaciones?
Conforme las implicaciones éticas y los riesgos de usar tecnología de IA en la guerra se hacen evidentes, hay un llamado creciente para aumentar la supervisión humana y aplicar procesos de verificación más estrictos. Encontrar un equilibrio entre apuntar efectivamente a amenazas legítimas y minimizar el daño civil sigue siendo un desafío que requiere una mayor examinación.

Las revelaciones sobre las fuerzas israelíes utilizando la herramienta de IA ‘Lavender’ para identificar palestinos en Gaza como blanco de asesinato han puesto de manifiesto la ética y la precisión en el uso de la tecnología de IA en la guerra. Esto genera preocupaciones sobre las bajas civiles y la necesidad de supervisión humana en dichas operaciones.

The source of the article is from the blog portaldoriograndense.com

Privacy policy
Contact