以色列军队在加沙冲突中利用人工智能进行目标获取

自2023年10月以来,以色列军方在战争中利用人工智能(AI)引起了广泛关注。在持续进行的加沙冲突中,以色列国防军(IDF)正在利用AI驱动系统精确瞄准这一人口稠密地区内的威胁。一台由大量数据收集驱动的机器在这一过程中起着至关重要的作用,整合了诸如居民地址、运动模式、社交媒体活动甚至人际关系等信息,以建立潜在目标名单。

由以色列记者领导的一项揭露性报道,得到了以色列国防军精英网络情报部队六名成员的见解,揭示了被称为“Lavender”的具有争议性的行动。该行动涉及创建有效作为有针对性杀戮预测的名单。总编辑梅隆·拉波波特(Meron Rapoport)对那些被AI系统列入名单的人的前景进行了悲观展望,将其比作被标记为死亡。

AI并不会自主决定淘汰目标;但是,一旦系统确定了目标,IDF人员被指示立即采取行动。可以接受的“附带伤害”标准引人注目;对于普通目标,这个数字是15-20人,但对于高价值目标,这个数字可能飙升到200至300人之间。人权组织和联合国对这种方法表示关注,尤其是首次有军队大规模利用AI做出战斗决策。

关键问题:

1. 使用AI进行目标获取在冲突地区引发了哪些伦理问题? 军事应用中的AI,尤其是用于目标获取,引发了重大的伦理关切。可能导致生命损失的决策是极其敏感的,将这些决策授权给AI系统可能在人类操作人员和致命结果之间创造一种道德距离。错误的风险和由于AI系统被认为精确和高效而降低参与战斗的门槛的潜力也是紧迫的伦理问题。

2. AI在识别有效军事目标方面的准确性如何,以及有哪些防范措施可防止平民伤亡? 没有哪个AI系统是绝对可靠的。因此,在用于军事目的时,准确性是一个关键因素,尤其是在人口稠密地区,平民伤亡风险很高。通常的防范措施包括严格的交战规则和人类监督。但是,在IDF系统中,这些防范措施的具体性质和有效性在公共领域中并没有广泛详细介绍。

3. AI驱动的战争对国际法和战争法规的影响是什么? AI驱动的战争对国际法提出了挑战,尤其是对于战争法规中的区分、比例和必要性原则。这些原则要求作战人员区分军事目标和非战斗人员,确保预期攻击的军事优势不被对平民造成的伤害所抵消,并且只在必要时使用武力。整合AI在遵守这些原则方面存在困难。

主要挑战与争议:

问责: 当平民伤亡或错误的目标定位发生时,AI系统在确定目标方面发挥着重要作用,因此要建立清晰的问责制可能会具有挑战性。
伦理决策: 机器学习的广泛应用引发了如何将道德考量编程到AI系统中(如果有的话),以及这些系统是否能够理解人类生活的复杂性以及目标决策的道德重量的问题。
数据隐私: 通过社交媒体活动和人际关系等个人数据的收集和使用,用于AI系统的目标定位,可能引发对隐私侵犯的担忧。

优点和缺点:

优点:
效率: AI能够比人类更快地处理大量数据,可能在庞大的数据集中快速而准确地识别威胁。
精确性: 经过正确校准的AI系统在定位上更具精确性,可能减少无差别攻击的发生率。

缺点:
平民风险: 在加沙等人口密集地区依赖AI进行目标定位增加了平民伤亡的风险,尤其是如果AI错误分类目标的情况下。
非人性化: 在战争中使用AI可能导致冲突的非人性化,决策严重具有道德和法律意义的情况由算法而非人类判断做出。
错误传播: 如果AI的基础数据或算法有误,这些错误可能在大规模传播,可能导致错误的目标定位和无辜生命的损失。

要进一步阅读有关此主题的内容并确保获得可靠和最新信息,您可以访问以色列国防军联合国的官方网站,这些网站通常处理有关国际冲突和新兴技术在战争中的使用的问题。

Privacy policy
Contact