全球科技巨头就紧急人工智能停摆策略达成一致

领先的技术公司和政府联手确立AI安全措施。科技行业巨头,包括微软、OpenAI、Anthropic等另外十三家公司,已就一项开拓性政策框架达成共识。一旦在新AI模型开发过程中出现失控情况,它们已同意停止进展,以防止潜在的类似现实中“终结者”事件的灾难性场景发生。

共同努力减轻AI风险。这项协议是在首尔达成的,各组织和政府代表聚集在一起,确定了他们在AI发展方面的轨迹。该协议的核心在于“解决方案” – 承诺,如果他们最前沿的AI模型越过预定的风险阈值,就会终止其进展。

缺乏具体行动和明确性依然存在。尽管达成协议,但明显缺乏具体行动或设定“危险”阈值的明确定义,激活解决方案的情况仍不明确。这引发了对政策的可执行性和有效性的质疑。

根据雅虎新闻收集的报道,极端情况将促使组织不释放新的AI模型,如果控制措施不足够。亚马逊、谷歌和三星等主要参与者也承诺支持这一倡议,表明业内有广泛的共识。

与人工智能专家的讨论,正如Unboxholics报道的那样,强调了重大风险,促使这一统一决定。这一举措反映了著名学者杰弗里·辛顿的预测,他警告AI有潜力在各个工作领域取代人类,标志着劳动力动态发生了深刻变化。

围绕AI紧急中止策略的重要问题和挑战

1. 定义“危险”阈值:一个关键挑战是建立确定AI何时变得过于风险以继续发展的确切参数。在没有清晰定义的情况下,任何停止协议可能是主观的,并且可能会受到解释的影响。

2. 可执行性:确保所有方遵守停止协议是一个问题,特别是考虑到AI没有全球性的具体监管框架。

3. 技术能力:解决方案本身的可行性是一个技术问题,需要将可靠的机制构建到AI系统中,这是复杂的任务。

4. 竞争压力:如果竞争对手不这样做,公司可能不愿意停止或减慢研究的过程,这可能导致AI发展中的潜在军备竞赛。

5. 数据隐私和安全:先进的AI系统可能处理大量数据,它们的突然关闭可能会带来数据隐私和安全风险。

AI中止协议的优势
提高安全性:它为复杂AI系统的意外后果提供了一个安全网。
公众信任:这样一个协议可以增加公众对AI技术及其开发实体的信任。
责任共担:它鼓励科技公司之间培养责任感和合作文化。

AI中止协议的劣势
抑制创新:过分谨慎或模糊的指导方针可能会扼杀创新。
竞争劣势:遵守协议的实体可能会落后于那些不遵守的实体,尤其是在拥有不同法规或执法水平的地区。
难以实施:实施和管理解决方案的实际方面可能具有挑战性,而且可能需要投入大量资源。

尽管存在提议的优势和显著的挑战,这一发展表明了科技行业看待塑造AI未来责任的方式的转变。先进AI的必然性迫使考虑采取保护措施以防止有害后果。持续的研究和利益相关者之间的对话对于完善和有效执行这种框架至关重要。

对于那些对这项协议的更广泛背景感兴趣的人来说,可以在人工智能促进协会(AAAI)的主要网站AAAI和未来生命研究所(Future of Life Institute)的主要网站Future of Life Institute找到权威资源和关于AI政策与安全的讨论。及时查阅这些资源可以了解新兴的AI发展、政策和讨论。

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact