以色列利用人工智能进行军事行动引发法律问题

人工智能彻底改变中东战争

在以色列在加沙地带作战期间使用“薰衣草”(Lavender)人工智能软件后,战场发生了变革。“薰衣草”由以色列国防军(IDF)内的一支精英情报部门开发,旨在筛选海量数据,并精准指定成千上万个可能的军事目标。

“薰衣草”利用大量监控数据,利用机器学习算法来识别与激进分子个人档案相关的模式和行为,例如加入特定WhatsApp群组或不规则移动模式。“薰衣草”有助于快速定位这些个体,显著改变了军事回应的决策速度。

自投入使用以来,“薰衣草”已确定了与巴勒斯坦伊斯兰主义组织哈马斯和伊斯兰圣战有联系的令人震惊的37,000个目标,以色列、美国和欧盟视为恐怖主义组织。在冲突的早期阶段,“薰衣草”的有效性尤为引人注目,快速目标识别至关重要。

与“愚蠢炸弹”(成本较低但精度较低的武器)一起使用“薰衣草”由于造成附带损害而受到批评。联合国统计数据指向与以往冲突的伤亡率令人担忧的相似性。

然而,并非一切都没有错误。以色列消息来源估计“薰衣草”的错误率为10%,有时会错误地标记与极少或没有激进分子纽带关系的无辜人员。但在哈马斯实施高调袭击之后,以色列国防军大幅批准了“薰衣草”的使用,导致了截然不同的态度。

“薰衣草”的伦理和法律问题正在酝酿,因为它在将人工智能与战斗行动相结合时在未知领域中行进。争论集中在这样一个问题上:此类系统是否违背了国际人道法标准,因为人工智能在确定军事目标方面的影响力不断增强。

像“薰衣草”这样的人工智能(AI)系统代表了军事战略和技术的重大转变。以下是一些相关事实以及对关键问题、挑战和争议的讨论:

法律和伦理问题:
– 最紧迫的法律问题之一涉及像“薰衣草”这样的AI系统是否遵守国际人道法,尤其是区别和比例原则。区别原则要求能够区分作战人员和非作战人员,而比例原则限制了相对于预期军事优势的允许附带损害。
– 另一个关注点是人类对人工智能决策的监督和控制水平,即所谓的“人在环路”概念,这对于防止非法自主定位至关重要。

挑战和争议:
– 一个重大挑战在于算法可能存在偏见,数据不准确或输入数据出现偏斜可能导致错误的定位决定。
– 透明度是一个有争议的问题,因为军事应用的人工智能通常由于安全考虑而缺乏必要的透明度,这使得难以评估其使用的合法性和伦理性。
– 在人工智能军事技术领域,存在竞争性带来的军备竞赛,各国开发类似于“薰衣草”的系统,从而提高全球紧张气氛和竞争性。

优势和劣势:

优势:
– 人工智能系统可以以超出人类能力的速度和效率处理大量数据,从而在军事操作中实现更快速和明智的决策。
– 使用人工智能可以通过识别威胁并减少对敌对环境的地面存在需求,潜在地减少对军事人员的风险。

劣势:
– 对人工智能的依赖可能导致战场的非人性化以及由于交战速度加快和人类深思熟虑的时间减少,可能出现暴力升级。
– 由于算法错误或不够健壮的人工智能判断,可能导致故障或错误的定位,进而可能导致非法袭击和平民生命的丧失。
– 在军事行动中使用人工智能可能导致一种责任缺口,难以确定错误或非法行为的责任归属。

有关人工智能在军事应用中的更广泛背景和国际法律框架管理武装冲突的更多信息,可以访问联合国网站www.un.org以及国际红十字会(ICRC)网站www.icrc.org。请注意,尽管这些链接指向这些组织的中央域名并应保持有效,但关于人工智能和冲突法律的具体信息可能在这些网站的专门部分中找到。

The source of the article is from the blog klikeri.rs

Privacy policy
Contact