以色列人工智能目标系统在伦理关切中引发争议

在快速发展的军事技术领域,一个引起特别关注和争议的话题是军事行动中人工智能(AI)的使用,特别是涉及以色列国防军(IDF)的情况。最近的一份报告声称,IDF使用了一个名为Lavender的AI系统来自动化加沙地带空袭的目标选择过程。据多方消息来源称,该系统促成了生成包括成千上万名人类目标(包括疑似激进分子)的名单。

尽管以色列军队否认使用AI系统来识别恐怖分子,但包括972杂志和卫报在内的多家媒体的调查报道呈现了截然不同的画面。这些报道不仅指出了Lavender的使用,还提到了其他系统,如Habsora和Where’s Daddy?这些系统被描述为自动化目标生成和监控。

据称这些AI目标系统的利用标志着向高速、机器驱动的战争转变,引发了关于精准度和保护平民的重大担忧。根据报道中提到的一名情报官员,很多决策都是在极少人类监督下做出的,人类分析人员每个目标的作用被降低到几秒钟,实质上只是“一纸认可”。

随着包括美国和中国在内的世界各国军队加速将AI集成到各种军事领域,围绕伦理、道德和法律问题的争论不断加剧。IDF声称他们的程序符合国际法,需要分析人员的独立验证。然而,这些报道声称目标选择标准可能已经放宽,引发了错误和潜在的对平民的伤害。

尽管像联合国大会的决议和美国领导的关于负责任军事AI使用的宣言等国际努力是规范自主武装的步骤,但达成全球共识和实施具体的法律框架的挑战仍然存在。军队对AI的日益依赖凸显了对这种技术在战争中伦理维度进行彻底审查的迫切需要。

总之,有关IDF基于AI的目标生成的指控引发了重大争议,凸显了将先进技术融入军事战略中的道德和法律挑战。确保问责和遵守国际标准仍然是一个紧迫问题,因为AI继续塑造武装冲突的未来。

军事技术领域的快速发展中,人工智能正在引起创新和争议

Privacy policy
Contact