全球科技巨头就紧急人工智能停止策略达成协议

领先科技公司和政府共同建立AI保障措施。科技行业巨头,包括微软、OpenAI、Anthropic以及其他十三家公司,已就开创性政策框架达成共识。他们同意,在新AI模型开发过程中出现失控情况时,将停止进展,以防止潜在的类似于现实生活中的“终结者”事件的灾难性情景发生。

共同努力减轻AI风险。该协议是在首尔达成的,在那里,组织和政府代表齐聚一堂,确定了有关AI发展的轨迹。该协议的核心是“紧急开关”——一项承诺,如果他们最尖端的AI模型越过预定的风险阈值,他们将停止推进。

缺乏具体行动和清晰度仍然存在。尽管有协议,但“危险”阈值的确切定义尚不清晰,也没有建立的会触发关闭机制的“危险”阈值。这对政策的可执行性和有效性提出了质疑。

根据雅虎新闻收集的报告,在极端情况下,即使控制措施不足,组织也不会发布新的AI模型。亚马逊、谷歌和三星等主要参与者也表示支持该倡议,这表明产业已达成广泛一致。

与人工智能领域专家的讨论,比如《Unboxholics》报道的那些,强调了重大风险,促成了这个统一决定。这一举措反映了著名学者杰弗里·辛顿的预测,他曾警告AI有潜力在各种工作领域取代人类,预示着劳动力动态发生深刻变化。

围绕AI紧急停机策略的重要关注和挑战

1. 定义“危险”阈值:一个关键挑战是建立确定AI何时变得过于危险以至于不能继续发展的确切参数。没有清晰的定义,任何中止协议都可能是主观的并容易被解释。

2. 可执行性:确保所有当事方遵守停机协议是有问题的,特别是考虑到AI专门的全球监管框架的缺乏。

3. 技术能力:停机开关本身的可行性是一个技术问题,需要将可靠的机制嵌入到AI系统中,这是一个复杂的任务。

4. 竞争压力:如果竞争对手没有减缓或停止研究,则各公司可能不愿意这样做,这可能会导致AI开发中的潜在军备竞赛。

5. 数据隐私和安全:高级AI系统可能处理大量数据,它们的突然关闭可能会带来数据隐私和安全风险。

AI停机协议的优势
增加安全性:它为精密AI系统的意外后果提供了一个安全网。
公众信任:这样的协议可以增加公众对AI技术和开发它们的实体的信心。
责任共享:它鼓励科技公司之间的责任和合作文化。

AI停机协议的劣势
创新抑制:过度谨慎或含糊不清的指南可能会扼杀创新。
竞争劣势:遵守协议的实体可能会落后于不遵守协议的实体,特别是在具有不同法规或执法水平的地区。
实施困难:实施和管理停机开关的实际方面可能具有挑战性,并需要耗费大量资源。

尽管存在提议的优势和显著挑战,但这一举措表明科技行业在塑造AI未来方面对其责任的看法出现了转变。先进AI的不可避免性迫使人们考虑采取保障措施以防止有害结果发生。继续在利益相关方之间进行研究和对话以有效完善和执行这些框架至关重要。

对于那些对该协议的更广泛背景感兴趣的人士,可以在类似于人工智能促进协会(AAAI)和生命未来研究所(Future of Life Institute)等组织主要网站上找到有关AI政策和安全的权威信息和讨论。查阅这些资源以了解有关新兴AI发展、政策和讨论的最新信息是至关重要的。

The source of the article is from the blog agogs.sk

Privacy policy
Contact