新一代AI武器:重新定义军事演变

人工智能(AI)在军事行动中的应用已成为趋势,各国纷纷将AI工具纳入其军事战略中。以色列军方所使用的Lavender系统就是其中的一个例子,用于识别和定位加沙地区疑似哈马斯激进分子。然而,对该系统对平民伤亡的影响引发了关注。

Lavender系统是作为对哈马斯袭击的回应而开发的,旨在识别并授权对疑似激进分子进行暗杀。它利用了已知哈马斯和巴勒斯坦伊斯兰圣战组织成员的数据,以及那些与哈马斯有所关联的个人的数据。该系统经过训练,能够识别与哈马斯分子相关的特征,比如他们与特定WhatsApp群组的关联或频繁更换手机和地址的模式。根据这些特征,加沙地区的巴勒斯坦人被评分,评分在一定阈值以上的人被标记为袭击目标。

尽管Lavender系统声称精度率达到了90%左右,仍然导致非哈马斯军事翼成员被错误识别。这引发了有关由于识别过程存在缺陷而可能导致无辜平民被攻击和伤害的担忧。

Lavender系统最令人不安的一点是其对平民伤亡的漠视。情报人员在处理附带伤害时拥有很大的自由度,授权针对每个较低级别的哈马斯激进分子最多杀死15至20名平民。对于高级哈马斯官员,据报道,甚至会批准“数百”名平民伤亡。此外,使用“爸爸在哪里?”系统瞄准疑似哈马斯分子家属的行动,通常会导致整个家庭被轰炸,甚至未经核实目标是否真实存在。这种对平民生命的漠视凸显了在战争中使用AI所带来的显著伦理关切。

此外,有报道称以色列国防初创公司正在寻求将其基于AI的技术出口到其他国家。这引发了有关这些AI工具对冲突地区以外的平民群体的影响,以及这些技术可能被滥用的担忧。在战争中依赖机器作出生死决定的伦理问题是重要的,需要认真考虑。

总之,正如Lavender系统所展示的,AI在军事行动中的应用对平民伤亡的影响和依赖AI技术所带来的伦理问题引发了严重关切。政府和军事组织有责任认真考虑潜在风险,并确保这些技术以负责任和道德的方式使用。

欲了解更多信息,请参考:

FAQ

什么是Lavender系统?
Lavender系统是以色列军方用于协助识别和瞄准加沙地区疑似哈马斯激进分子的人工智能工具。

Lavender系统是如何训练的?
Lavender系统使用已知的哈马斯和巴勒斯坦伊斯兰圣战组织成员的数据,以及那些与哈马斯有所关联的个人的数据进行训练。它经过训练,以识别与哈马斯分子相关的特征,比如他们与特定WhatsApp群组的关联或手机和地址更换的模式。

Lavender系统的精度率是多少?
Lavender系统宣称的精度率约为90%,意味着大约10%被确定为哈马斯激进分子的人并非实际哈马斯军事翼成员。

Lavender系统的使用带来了什么后果?
Lavender系统的使用导致加沙地区数千名平民死亡,由于通常忽视了附带伤害而瞄准疑似哈马斯激进分子。

战争中使用AI所面临的担忧有哪些?
战争中使用AI所面临的担忧包括目标的误识别、对平民伤亡的忽视,以及依赖机器做出生死决定的道德问题。

The source of the article is from the blog rugbynews.at

Privacy policy
Contact