Inteligencia Artificial en la Guerra: Un Nuevo Enfoque en la Realidad del Conflicto

La Inteligencia Artificial (IA) en la guerra es un tema de intensa preocupación, ya que plantea interrogantes sobre el desplazamiento de la voluntad humana y la agencia por máquinas asesinas de IA. Sin embargo, los sistemas automatizados impulsados por la IA en la guerra convencional, operados por humanos, ya están siendo desplegados. La creencia de que los sistemas autónomos harán obsoleta la agencia humana es engañosa, ya que la promesa de precisión en la guerra moderna sugiere una reducción en las bajas civiles pero un aumento en la letalidad contra combatientes.

Un estudio de caso reciente se centra en el uso de la IA por parte de Israel en la guerra, específicamente en Gaza. Las Fuerzas de Defensa de Israel incorporaron la IA a sus operaciones para identificar y eliminar objetivos. Sin embargo, el resultado no ha sido preciso ni moralmente informado. En lugar de limitar el daño a civiles, el uso de la IA por parte de Israel parece haber ampliado los conjuntos de objetivos y potencialmente haber resultado en daños máximos.

La investigación sobre este problema hace referencia a una publicación titulada «The Human-Machine Team: How to Create Human and Artificial Intelligence That Will Revolutionize Our World,» escrita por el General de Brigada Y.S., comandante de la unidad de inteligencia israelí 8200. La publicación aboga por un sistema que genere rápidamente miles de objetivos potenciales durante el conflicto, eliminando la necesidad de aprobación y verificación humanas.

La investigación conjunta de +972 y Local Call descubrió la etapa avanzada de desarrollo de este sistema, conocido como Lavender para las fuerzas israelíes. Lavender va más allá de los sistemas de IA anteriores al identificar edificios y estructuras militares utilizadas por combatientes. Sin embargo, incluso esta forma de identificación no logró reducir el número de muertes, lo que resultó en lo que algunos describen como una «fábrica de asesinatos en masa».

Seis oficiales de inteligencia israelíes, que sirvieron durante la reciente guerra en Gaza, revelaron el papel central de Lavender en los bombardeos sin precedentes de palestinos, especialmente en las primeras etapas del conflicto. La máquina de IA eliminó efectivamente el elemento humano mientras prestaba un sentido ficticio de credibilidad humana a los resultados de los objetivos.

En las primeras semanas de la guerra, las IDF confiaron en gran medida en Lavender, identificando aproximadamente 37,000 palestinos como potenciales combatientes para posibles ataques aéreos. Esto marcó un cambio respecto a la doctrina anterior de atacar a operativos militares senior específicos. Bajo la nueva política, todos los operativos de Hamas en su ala militar, independientemente de su rango, fueron designados como objetivos humanos.

Se otorgó a los oficiales una autoridad de amplio alcance para aceptar listas de asesinatos sin escrutinio, con tan solo 20 segundos asignados por objetivo antes de autorizar bombardeos. La autorización se concedió a pesar de la conciencia de que aproximadamente el 10% de los casos implicaban errores en los objetivos, marcando ocasionalmente a individuos con una conexión débil o nula con grupos militant.

Además, el sistema Lavender trabajó en conjunto con otra plataforma automatizada llamada «Where’s Daddy?» Esta plataforma rastreaba a los individuos objetivo hasta sus residencias familiares, las cuales fueron posteriormente demolidas. El resultado fue un gran número de bajas civiles, con miles de palestinos, incluyendo mujeres, niños y no combatientes, muertos por los bombardeos israelíes durante las primeras etapas del conflicto.

Un oficial de inteligencia expresó la sombría realidad de que matar a los operativos de Hamas en instalaciones militares o durante actividades militares era de poco interés. En cambio, el foco estaba principalmente en bombardear sus hogares, ya que resultaba ser una tarea más sencilla. El sistema Lavender fue diseñado específicamente para tales situaciones.

El uso de este sistema involucraba cálculos escalofriantes y macabros. Dos fuentes revelaron que, durante las primeras semanas de la guerra, las IDF autorizaron la muerte de hasta 15 o 20 civiles por cada operativo junior de Hamas marcado por Lavender. Para funcionarios de Hamas más senior, las muertes autorizadas podrían llegar hasta 100 civiles.

Frente a estas revelaciones, las IDF continúan afirmando que no utilizan un sistema de IA para identificar terroristas o predecir el estatus de un individuo como terrorista. En cambio, se afirma que una base de datos cruza referencias fuentes de inteligencia sobre los operativos militares de organizaciones terroristas.

El Secretario General de la ONU, António Guterres, expresó su profunda preocupación por los informes del uso de la IA por parte de Israel para identificar objetivos, especialmente en áreas residenciales densamente pobladas. El uso de la IA de esta manera ha resultado en un alto número de bajas civiles, planteando preguntas éticas y morales sobre el impacto de la guerra impulsada por la IA.

Preguntas Frecuentes:

P: ¿Qué es el sistema Lavender?
R: El sistema Lavender es una creación de IA utilizada por las Fuerzas de Defensa de Israel para identificar objetivos en la guerra.

P: ¿Qué tan precisa es Lavender en el objetivo?
R: Se ha descubierto que el sistema Lavender tiene inexactitudes en los objetivos, marcando a individuos con conexiones débiles o nulas con grupos militantes.

P: ¿Cómo se vieron afectadas las bajas civiles por el uso de Lavender?
R: El uso de Lavender, junto con otras plataformas de IA, resultó en un gran número de bajas civiles, especialmente en Gaza, durante las primeras etapas del conflicto.

Fuentes:
– +972: [URL]
– Local Call: [URL]
– Times of Israel: [URL]

The source of the article is from the blog foodnext.nl

Privacy policy
Contact