El Uso de IA por Israel en la Selección de Objetivos Genera Preocupaciones

Un reciente informe ha sacado a la luz el presunto uso de una base de datos impulsada por inteligencia artificial por parte de Israel para seleccionar objetivos en la Franja de Gaza. Según el informe publicado por la revista +972 y Local Call, la herramienta, conocida como «Lavender», fue entrenada por científicos de datos militares israelíes y filtró vastas cantidades de datos de vigilancia y otra información para generar objetivos para asesinatos selectivos.

De acuerdo con el informe, Lavender pudo haber tenido un papel significativo en las etapas iniciales del reciente conflicto entre Israel y Hamas, ya que Israel llevó a cabo numerosas oleadas de ataques aéreos contra la Franja de Gaza. Se dice que la herramienta identificó hasta 37,000 palestinos y sus hogares como objetivos para asesinato. Sin embargo, las Fuerzas de Defensa de Israel (IDF) niegan la existencia de una «lista de muerte» y describen a Lavender como una base de datos destinada a la interrelación de fuentes de inteligencia.

El uso de IA en estrategias de selección de objetivos plantea preocupaciones sobre la escala de destrucción y el alto recuento de víctimas en Gaza. Conflictos anteriores entre Israel y Hamas involucraron un proceso más impulsado por humanos en la selección de objetivos basada en inteligencia y otros datos. Sin embargo, la introducción de Lavender durante un periodo de enojo y trauma israelíes intensificados después de un atentado terrorista de Hamas podría haber contribuido a un programa rápido y amplio de represalias.

Testimonios de oficiales de inteligencia israelíes, obtenidos por la revista +972 y Local Call, sugieren que las decisiones de la máquina eran a menudo tratadas como un «sello de goma» por personal humano, a pesar de saber que el sistema ocasionalmente marcaba a individuos con conexiones débiles a grupos militantes o ninguna conexión en absoluto. Esto podría explicar por qué Israel utilizó bombas «tontas», armas pesadas y no guiadas, en supuestos objetivos seleccionados por Lavender, resultando en daños significativos y pérdida de vidas civiles. Oficiales de la IDF reportadamente no querían desperdiciar municiones más costosas y de precisión en operativos de nivel inferior de Hamas identificados por el programa.

El uso de Lavender y las estrategias de selección de objetivos de Israel han generado amplias preocupaciones, con críticos argumentando que es complicado diferenciar entre objetivos militares válidos y civiles en la densamente poblada Franja de Gaza. Organizaciones de derechos humanos, incluida Amnistía Internacional, han instado a Israel a utilizar las armas más precisas disponibles y a minimizar las bajas civiles.

En respuesta al informe, la IDF ha declarado que algunas de las afirmaciones son infundadas. Argumentan que Lavender no es un sistema de inteligencia artificial, sino una base de datos utilizada para la correlación de fuentes de inteligencia que asiste a analistas en el proceso de identificación de objetivos.

El reciente incidente que involucra un ataque de dron israelí a un convoy de World Central Kitchen, resultando en la muerte de siete trabajadores de ayuda, ha llamado aún más la atención sobre la conducta de Israel durante el conflicto. En respuesta, el presidente Biden ha instado a Israel a cambiar de rumbo y tomar medidas para proteger mejor a los civiles y facilitar la entrega de ayuda. Además, cientos de abogados y jueces británicos han instado a su gobierno a suspender la venta de armas a Israel para evitar la complicidad en posibles violaciones del derecho internacional.

El uso presunto de la base de datos impulsada por IA conocida como «Lavender» por parte de Israel en la selección de objetivos ha generado preocupaciones sobre la escala de destrucción y las altas bajas civiles en la Franja de Gaza. El informe sugiere que Lavender tuvo un papel significativo en las etapas iniciales del reciente conflicto entre Israel y Hamas, identificando hasta 37,000 palestinos y sus hogares como objetivos para asesinato. Sin embargo, las Fuerzas de Defensa de Israel (IDF) niegan la existencia de una «lista de muerte» y describen a Lavender como una base de datos para la interrelación de fuentes de inteligencia.

El uso de IA en estrategias de selección de objetivos ha generado debates sobre la precisión en la selección de objetivos y el potencial de bajas civiles. En conflictos anteriores entre Israel y Hamas, la selección de objetivos era impulsada principalmente por inteligencia humana. Sin embargo, la introducción de Lavender durante un periodo de enojo y trauma israelíes intensificados después de un atentado terrorista de Hamas pudo haber contribuido a un programa de represalias rápido y extenso.

Los testimonios de oficiales de inteligencia israelíes sugieren que las decisiones tomadas por Lavender a menudo eran tratadas como un «sello de goma» por personal humano, a pesar de que el sistema ocasionalmente marcaba a individuos con conexiones débiles a grupos militantes o ninguna conexión en absoluto. Esto podría explicar por qué Israel utilizó bombas «tontas» menos precisas en supuestos objetivos identificados por Lavender, resultando en daños significativos y pérdida de vidas civiles.

El uso de Lavender y las estrategias de selección de objetivos de Israel han generado amplias preocupaciones sobre la dificultad para diferenciar entre objetivos militares válidos y civiles en la densamente poblada Franja de Gaza. Amnistía Internacional y otras organizaciones de derechos humanos han instado a Israel a utilizar las armas más precisas disponibles y a minimizar las bajas civiles.

En respuesta al informe, la IDF ha declarado que algunas de las afirmaciones son infundadas. Argumentan que Lavender no es un sistema de inteligencia artificial, sino una base de datos utilizada para la correlación de fuentes de inteligencia que asiste a analistas en el proceso de identificación de objetivos.

El reciente incidente que involucra un ataque de dron israelí a un convoy de trabajadores de ayuda ha llamado aún más la atención sobre la conducta de Israel durante el conflicto. En respuesta, el presidente Biden ha instado a Israel a cambiar de rumbo y tomar medidas para proteger mejor a los civiles y facilitar la entrega de ayuda. Además, cientos de abogados y jueces británicos han instado a su gobierno a suspender la venta de armas a Israel para evitar la complicidad en posibles violaciones del derecho internacional.

Mientras que el uso de IA en operaciones militares ofrece ventajas potenciales, también plantea cuestiones éticas sobre la precisión en la selección de objetivos y el potencial de bajas civiles. A medida que los conflictos continúan evolucionando, es crucial que las naciones aseguren que el uso de tecnología de IA en la guerra se adhiera al derecho internacional humanitario y minimice el daño a los civiles.

The source of the article is from the blog bitperfect.pe

Privacy policy
Contact