Exploring the Implications of AI in Modern Warfare

在最近的报道中,以色列军方利用了一种未公开和未经测试的人工智能数据库,用于确定加沙轰炸行动的目标。这一揭示引发了人权和技术专家的担忧,他们认为这种利用人工智能的方式可能构成“战争罪行”。虽然有必要解决这些担忧并审视这项技术的伦理影响,但也很重要从一个新的视角来看待这个问题。

这一AI辅助目标系统被称为”Lavender”,据报道,已经被以色列军队用于在数千名巴勒斯坦人中孤立和确定潜在的轰炸目标。根据未透露姓名的以色列情报官员的说法,Lavender的错误率约为10%。尽管存在这种误差率,却有指控称以色列军队使用该系统加速了识别和轰炸与哈马斯有关的个人。

要理解这一情况的严重性,有必要承认领域专家的观点。中东研究和数字人文学助理教授Marc Owen Jones认为,以色列军队使用未经测试的AI系统会引起有关决策过程的担忧,尤其是关于平民的生命。但需要注意这一陈述已经是原始来源的改写,使用了更具描述性的句子代替了”AI辅助种族灭绝”这个术语。

以色列刊物报导称,使用这种方法导致在加沙发生了大量平民伤亡。然而,以色列军方声称Lavender并非独立系统,而是一个旨在交叉参考情报来源以获得关于与恐怖组织有关的军事行动人员最新信息的数据库。对于批评,以色列军方表示,其分析师必须进行独立审查,以确保确定的目标符合国际法和相关限制。

虽然原文引述了一位提出对国际人道主义法违规的AI专家,但很重要的是这是一个理论观点而不是直接声明。新南威尔士大学的AI专家Toby Walsh教授表示,利用AI进行目标设定存在有关有效监督和符合法律框架的挑战。

报告还突出了一些消息来源的声称,以色列军队在某些情况下批准了大量平民的杀戮,尤其是在瞄准哈马斯高级官员时。如果这些声称属实,可能被视为发动过度进攻并被分类为战争罪行。需要进一步调查和验证这些细节的真实性。

此外,文章提到了以色列试图向外国政府出售这些AI工具的猜测。澳大利亚记者兼作家Antony Loewenstein认为,对以色列在加沙的行动表示反对的国家可能仍对获取这些技术表现出兴趣。尽管此说法为潜在未来发展提供了见解,但在出现确凿证据之前,将其视为猜测至关重要。

总之,AI辅助技术在战争中的使用引发了重要的伦理问题。以色列军方的目标系统Lavender一案引发了对国际人道主义法的潜在违反以及平民生命的过度损失的担忧。领域专家、政策制定者和国际机构有必要探讨这些影响,并确保AI技术在战争中的开发和部署遵守伦理和法律标准。

常见问题解答

Privacy policy
Contact