La controversia de «Lavender»: Operaciones impulsadas por IA de Israel en Gaza.

Con el respaldo de Estados Unidos, las Fuerzas de Defensa de Israel (IDF) han estado utilizando un sistema de inteligencia artificial llamado «Lavender» para llevar a cabo operaciones dentro de la Franja de Gaza, avanzando de manera dramática en el alcance de sus prácticas de vigilancia y selección de objetivos. Aprovechando algoritmos de aprendizaje automático, Lavender procesa un volumen tremendo de datos sobre los aproximadamente 2.3 millones de habitantes en Gaza, asignando a cada persona una puntuación del 1 al 100 que finalmente influye en su priorización como objetivo.

La funcionalidad de Lavender está en el centro de un debate controvertido, ya que su algoritmo ha identificado erróneamente a miles de civiles no afiliados, según operativos de las IDF. Estas personas ahora son categorizadas involuntariamente junto a combatientes armados. Lavender clasifica además a los posibles objetivos en dos grupos principales: ‘objetivos humanos’, generalmente aquellos de rango de comando, y ‘objetivos despreciables’, que se refieren a soldados de rango inferior. Este último grupo es comúnmente atacado con misiles no guiados capaces de causar daños materiales substanciales y víctimas civiles inevitables.

El sistema opera sin supervisión humana presente, lo que lleva a un patrón de ataques masivos automatizados contra palestinos en Gaza. Este enfoque ha suscitado preocupaciones éticas significativas, ya que los objetivos designados son atacados a menudo en sus hogares, durante la noche, junto con sus familias. Como consecuencia, esta práctica puede resultar en numerosas muertes no intencionadas, también conocidas como «daños colaterales».

El periodista israelí y activista por la paz Yuval Abraham ha llevado a cabo exhaustivas investigaciones sobre Lavender, destacando las graves ramificaciones de estas estrategias impulsadas por la inteligencia artificial. Abraham descubrió que los funcionarios de alto rango a menudo omiten exámenes detallados de las personas seleccionadas como objetivo, prefiriendo las sugerencias del sistema y dejando el proceso de verificación en manos de un algoritmo, que podría estar plagado de un margen de error.

Los informes redactados por Abraham abogan por que las acciones facilitadas por Lavender sean examinadas por la Corte Internacional de Justicia, argumentando su clasificación como potencial terrorismo de estado y crímenes contra la humanidad. A medida que la línea entre la guerra automatizada y la acción militar responsable se difumina, la ética de la inteligencia artificial en zonas de conflicto como Gaza sigue generando un debate internacional crítico.

Preguntas y respuestas importantes:

1. ¿Cuáles son las implicaciones de utilizar inteligencia artificial como «Lavender» en operaciones militares?
El uso de inteligencia artificial en operaciones militares plantea importantes interrogantes éticos, legales y de responsabilidad. Los sistemas de IA como Lavender pueden procesar vastas cantidades de datos para identificar y priorizar objetivos, pero también pueden cometer errores, lo que podría provocar víctimas civiles o violaciones de la ley internacional.

2. ¿Cómo diferencia «Lavender» entre combatientes y civiles?
Se dice que Lavender asigna una puntuación a los individuos, clasificándolos potencialmente como ‘objetivos humanos’ o ‘objetivos despreciables’. No obstante, esta clasificación ha generado errores, donde civiles supuestamente han sido identificados como combatientes, planteando dudas sobre la precisión y discriminación del algoritmo.

3. ¿Cuáles son los principales desafíos o controversias asociados con «Lavender»?
Los principales desafíos incluyen el riesgo de identificación errónea, la falta de supervisión humana que lleva a ataques automatizados sin una verificación suficiente y las implicaciones morales de delegar decisiones vida o muerte a máquinas. Además, el uso de tales sistemas puede ser considerado una forma de violencia respaldada por el Estado si provoca víctimas civiles, lo que plantea preguntas sobre el cumplimiento del derecho internacional humanitario.

Ventajas y desventajas:

Ventajas:
– Mayor eficiencia en el procesamiento de datos e identificación de posibles objetivos.
– Capacidad de operar continuamente sin fatiga, a diferencia de los operadores humanos.
– Podría ofrecer una ventaja estratégica al adaptarse rápidamente a situaciones cambiantes en el terreno.

Desventajas:
– Riesgo de identificar erróneamente civiles como combatientes, lo que podría llevar a lesiones o muertes injustas.
– Falta de responsabilidad y transparencia en el proceso de toma de decisiones.
– Preocupaciones éticas sobre la deshumanización de la guerra y posibles violaciones del derecho internacional.
– Posible erosión de la supervisión humana y la responsabilidad moral en operaciones militares.

Para obtener más información sobre la ética y regulaciones de la inteligencia artificial en contextos militares, puedes visitar los siguientes dominios oficiales:

Naciones Unidas
Comité Internacional de la Cruz Roja
Amnistía Internacional
Departamento de Defensa de los Estados Unidos

Ten en cuenta que si bien estos enlaces llevan a los dominios principales de organizaciones que pueden proporcionar información relacionada con el uso de IA en operaciones militares, es posible que la información específica sobre «Lavender» y su utilización por las Fuerzas de Defensa de Israel no esté disponible directamente en estos sitios.

Privacy policy
Contact