国际规则紧急寻求随着人工智能进步,自主武器

面对道德和法律困境

随着人工智能(AI)技术取得重大进展,能够在没有人类干预的情况下实施杀戮的自主武器系统越来越接近现实,引发了重要的道德和法律问题。为了解决这些问题,奥地利主办了一场关注武器系统中人工智能的会议,通常被称为“杀人机器人”,旨在重新将这个问题引入辩论。

奥地利外交部长在未直接引述的情况下强调了当下的紧迫性和国际行动的必要性。他呼吁全球社区至少确保人类保持生杀大权。

在联合国的讨论停滞不前

联合国有关自主武器的讨论已经进行多年,但没有带来明确的结果。这些会谈只带来了模糊的承诺。

AI在战场上的应用已经是现实,例如在乌克兰的无人机设计能够在信号干扰技术中断与操作人员的连接时自主导航。此外,以色列军队利用AI在加沙识别轰炸目标。

AI的失误和风险

AI做出错误决定的情况包括将裁判的秃头误认为球,以及由于不能识别人类形态而导致自动驾驶车辆造成行人死亡。这些事件突显了在军事或民用设置中依赖此类系统准确性时需要谨慎的必要性。追求精确性和谨慎的监督至关重要,以避免放大我们的道德失败,将暴力和其控制的责任转移给机器和算法。

国际规范努力和挑战

对自主武器制定国际规则的呼吁源于对AI技术发展速度的担忧。美国、俄罗斯和中国等国都在军事AI领域进行大量投资。值得注意的是,由于定义自主武器的复杂性以及对如何最佳管理或禁止它们的不同看法,联合国一直难以制定正式规定。

主要挑战和争议

一个核心挑战是将人类代表权从决定生死的行动中移除的道德困境。当算法做出决定时,责任问题浮出水面 – 当机器错误地夺走生命时,该怪罪谁?此外,AI军备竞赛可能破坏全球安全稳定,各国迅速开发和部署这些系统,以免被对手落后。

另一个重要的辩论是是否采取预先禁止是更有效的,还是规范是更好的。像“停止杀人机器人运动”这样的激进团体主张彻底禁止,而一些国家和军事专家则主张严格的规定,仍然允许在道德边界内发展。

优劣势

自主武器系统的优势包括提高效率,降低士兵风险,以及能够在人类士兵无法操作的环境中工作。人工智能可以比人类更快地处理大量数据,潜在地导致在战场上更快、更具战略性的决策。

然而,劣势也是显著的。自主武器可能缺乏处理复杂、充满道德困境的情况所需的人类判断。依赖AI还引发了有关网络安全的担忧;这些系统可能会被黑客攻击,重新利用或发生故障。战争的非人格化可能降低参与冲突的门槛,导致暴力升级。

有关AI及其对社会的影响的更多信息,请访问以下网站:联合国

Privacy policy
Contact