新时代战争中的AI:发现和思考人工智能的替代作用

人工智能(AI)在战争中的使用引发了数位数字领域成员之间的剧烈关注。AI杀伤机器对人类意志和行动的取代可能性是一个令人不安的前景。然而,在常规战争中由人类操作员部署的AI驱动的自动系统已经成为了一个令人不安的现实。

误解主要在于认为,自主系统将会使人类的行为变得多余,因为它们变得越来越算法复杂。现代战争中的精确性承诺表明,平民伤亡将会减少,而对战斗人员和不受欢迎者的杀伤力将会显著增加。

最近的一个案例研究突显了这一愿景的缺陷,描绘了以色列在加沙地带发动的摧毁性战役。为了识别和消灭目标,以色列国防军将人工智能纳入了他们的作战行动中。然而,结果远非准确或道德上得到指导。以色列的AI使用似乎并没有将对平民的危害限制在一个范围内,反而似乎增强了对目标集的识别、定位和扩展的能力,可能导致最大的破坏。

对这个问题的调查参考了一份名为《人机团队:如何创造将彻底改变我们世界的人工和人工智能》的出版物,该出版物由以色列情报部8200部队当前指挥官Brigadier General Y.S.所著。这份出版物提倡建立一个系统,能够在冲突时迅速生成数千个潜在目标。这种机器的阴暗目的是消除人类批准的需要,规避验证每个目标的可行性的必要性。

+972和Local Call的联合调查揭示了这一系统的高度开发阶段,以色列军队称之为“Lavender”。Lavender通过确定激进分子使用的军事建筑和结构,超越了以往的AI系统。然而,即便这种识别形式都无法遏制死亡人数,导致了一些人描述为“大规模暗杀工厂”。

六名在最近一场加沙战争中服役的以色列情报官员透露,Lavender在打击巴勒斯坦人中发挥着核心作用,特别是在冲突初期。该AI系统有效地减少了人的元素,同时加强了对打击结果虚构人类可信度的印象。

在战争的最初几周,以色列国防军大量依赖Lavender,确认了大约37,000名巴勒斯坦人是潜在的激进分子,可以被可能的空袭打击。这标志着从之前专门针对高级军事机构成员的方针转变。在新的政策下,哈马斯的所有军事翼的工作人员,无论职位如何,都被指定为人类目标。

军官们被授权接受无需审核的名单,每个目标只有20秒的审批时间,然后才能授权空袭。尽管意识到大约10%的情况涉及错误的目标,有时把与激进组织联系松散或没有联系的人员标记为潜在目标。

此外,Lavender系统与另一个名为“爸爸在哪里?”的自动平台配合使用。该平台跟踪被瞄准的个人到他们的家庭住所,随后将其拆除。结果是大量平民伤亡,包括妇女,儿童和非战斗人员,在冲突的早期阶段被以色列空袭打死。

一位情报官员表达了一个残酷的现实,即对哈马斯在军事设施或军事活动中的工作人员发动袭击几乎没有兴趣。相反,主要集中在轰炸他们的家庭,因为这被证明是一个较为简单的任务。Lavender系统就是为这类情况而设计的。

使用这一系统需要进行令人毛骨悚然和可怕的计算。两位消息人士透露,在战争最初几周,以色列国防军授权每打死一名小级别哈马斯工作人员,就会杀死多达15或20名平民。对于更高级别的哈马斯官员,授权死亡人数可能高达100名平民。

在对这些揭示做出回应时,以色列国防军继续坚称,他们并未使用AI系统来识别恐怖分子或预测个体恐怖分子身份的状态。相反,声称使用一个数据库交叉参考恐怖组织军事工作者的情报来源。

联合国秘书长安东尼奥·古特雷斯对以色列使用AI来确定目标,特别是在人口密集的居住区,表示深切关切。AI在这种方式的使用导致了大量的平民伤亡,引发了有关AI驱动战争影响的伦理和道德问题。

**FAQ:**

**Q: 什么是Lavender系统?**
A: Lavender系统是以色列国防军用于在战争中识别目标的一个AI系统。

**Q: Lavender在目标识别上有多准确?**
A: Lavender系统在目标识别方面发现了一些错误,标记出与激进分子松散或没有联系的个人。

**Q: Lavender的使用对平民伤亡产生了怎样的影响?**
A: Lavender系统,连同其他AI平台一起,在冲突的初期阶段导致了巨大的平民伤亡,特别是在加沙地带。

**来源:**
– +972: [URL]
– Local Call: [URL]
– Times of Israel: [URL]

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact