人工智能战争的现实:揭示意外后果

最近以色列军队利用人工智能(AI)系统为加沙潜在空袭目标生成名单的做法引起了对军事AI影响的关注。根据非营利机构+972 Magazine发布的一份报告,名为Lavender的系统与其他AI系统一起被用于定位和暗杀疑似激进分子,导致大量平民伤亡。

虽然以色列国防军否认了报告中的许多指控,声称Lavender不是一个AI系统而是一个交叉参考情报来源的数据库,但其他消息来源证实了AI在以色列军事行动中的使用。根据2021年《耶路撒冷邮报》的报道,以色列在与哈马斯的冲突中使用了机器学习系统来识别目标。此外,前一篇+972的报道提到了一个名为Habsora的AI系统,它自动识别潜在的激进分子建筑和设施以供轰炸。

军队中的AI潜力并不仅局限于以色列。像美国和中国等国家也在军事目的上投资AI系统。支持者们认为AI可以带来更快的决策、更高的准确性和减少伤亡。然而,人们担心AI生成目标的缺乏人类监督和潜在的错误。

最近的+972报告称,Lavender自动化了目标识别过程,但可能具有较宽松的标准和较低的证据标准,导致大约10%的情况出现错误。该报告还指出,目标在其家中被作为第一选择轰炸,导致平民伤亡。

围绕军事AI的伦理和法律关切在很大程度上被忽视。目前,没有普遍接受或具有法律约束力的规则来管理其使用。但是,在解决这些问题上已经有一些进展。联合国已经讨论了超过十年有关使用“有致命自主武器系统”的问题,联合国大会最近投票赞同一项草案决议,规定算法不应全面控制涉及杀戮决定。美国还发布了有关负责任使用AI和自主权的军事声明,得到了许多国家的支持。

尽管有这些努力,国际对于军事AI使用的规定难以跟上技术的快速发展。随着世界各地的军队接受AI系统用于战争,意外后果和潜在的人道主义危害变得更加明显。

AI带来的精密战争的承诺尚未完全实现。有关在加沙使用AI系统的报告显示了仅依赖算法做出目标决策的局限性和意外后果。重要的是解决与军事AI相关的伦理和道德困境,确保建立人类监督和国际规定,以防止滥用这一强大技术。

常见问题解答

1. 什么是Lavender?

Lavender是以色列军队用于在加沙生成潜在空袭目标名单的人工智能(AI)系统。

2. 军方中的AI使用是否仅限于以色列?

否,像美国和中国等国家也在军事目的上投资AI系统。

3. 军事AI周围存在哪些担忧?

人们关心AI生成目标的缺乏人类监督、潜在的错误以及在战争中使用AI系统所涉及的伦理和道德问题。

4. 是否存在国际规定管理军事AI的使用?

目前,对于军事AI没有明确的、普遍接受或具有法律约束力的规则。联合国和一些国家正在努力解决这些问题。

5. 仅依赖AI进行目标决策的意外后果是什么?

报告显示,仅依赖AI系统做出目标决策可能会导致错误、标准较宽松、证据标准较低,进而导致平民伤亡和人道主义危害。

在军事行动中使用AI并不限于以色列。像美国和中国等国家也在军事目的上投资AI系统。人们相信这些AI系统可以带来更快的决策、更高的准确性和减少伤亡。然而,人们对AI生成目标的潜在错误和缺乏人类监督表示担忧。

根据+972 Magazine的报告,以色列军队使用的名为Lavender的AI系统自动化了目标识别过程,但可能具有较宽松的标准和较低的证据标准,导致大约10%的情况出现错误。报告指出,目标被作为第一选择轰炸,导致平民伤亡。这凸显出在战争中使用AI系统的伦理和道德问题。

目前没有普遍接受或具有法律约束力的规则来管理军事AI的使用。但是,一些努力正在解决这些问题。联合国已经讨论了超过十年有关使用“有致命自主武器系统”的问题,联合国大会最近投票赞同一项草案决议,规定算法不应全面控制涉及杀戮决定。美国还发布了有关负责任使用AI和自主权的军事声明,得到了许多国家的支持。

尽管有这些努力,国际对于军事AI使用的规定难以跟上技术的快速发展。随着世界各地的军队接受AI系统用于战争,意外后果和潜在的人道主义危害变得更加明显。有关在加沙使用AI系统的报告显示了仅依赖算法做出目标决策的局限性和意外后果。

重要的是解决与军事AI相关的伦理和道德困境。必须建立人类监督和国际规定,以防止滥用这种强大技术,并确保其被用于维护人权并减少平民伤亡。

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact