英国技术巨头呼吁进行AI安全测试

英国的技术巨头,包括OpenAI、Google DeepMind、微软和Meta,敦促英国政府加快进行人工智能(AI)系统的安全测试。尽管这些公司已承诺将最新的生成式AI模型提交给新成立的AI安全研究所(AI Safety Institute,AISI)进行评审,但他们仍希望了解相关测试、时间表和反馈过程的明确规定。

与法律约束不同,这些自愿承诺突显了在快速发展的AI领域依赖行业自我监管的挑战。作为回应,英国政府强调了未来的约束要求,以使AI开发人员对系统安全负责。

得到政府支持的AISI在英国首相里希·苏纳克(Rishi Sunak)关于英国成为AI潜在风险领域的领导者的愿景中扮演着关键角色,已经开始对现有AI模型进行测试。它还可以获取未发布的模型,例如Google的Gemini Ultra。这些测试的重点是降低与AI滥用相关的风险,特别是在网络安全方面。与政府通信总部的国家网络安全中心(National Cyber Security Centre within Government Communications Headquarters,GCHQ)的合作提供了该领域的专业知识。

最近的政府合同透露,AISI已拨款100万英镑用于获取测试AI聊天机器人易受越狱攻击和防范投镖攻击的能力。此外,AISI正在开发自动化系统,以促进源代码的逆向工程,从而对AI模型进行彻底评估。

Google DeepMind表示愿与AISI合作,旨在提升对AI模型的评估和安全实践。然而,OpenAI和Meta拒绝就此事发表评论。

总体而言,英国技术巨头对AI安全测试的推动反映出负责任的开发和监管的重要性,以有效应对与AI进步相关的潜在风险。政府在约束要求和行业合作方面的关注旨在确保快速增长的AI技术领域的安全和责任。

常见问题:英国技术巨头呼吁进行AI安全测试

1. 英国技术巨头敦促英国政府加快什么?
英国技术巨头,包括OpenAI、Google DeepMind、微软和Meta,敦促英国政府加快对人工智能(AI)系统进行安全测试。

2. 这些公司做出了什么承诺?
这些公司承诺将最新的生成式AI模型提交给新成立的AI安全研究所(AI Safety Institute,AISI)进行评审。

3. 在AI领域依赖行业自我监管的挑战是什么?
这些自愿承诺突显了在快速发展的AI领域依赖行业自我监管的挑战。

4. 英国政府对此有何回应?
英国政府强调了未来的约束要求,以使AI开发人员对系统安全负责。

5. AISI在英国政府的愿景中扮演什么角色?
AISI得到政府支持,在英国首相里希·苏纳克(Rishi Sunak)关于英国成为AI潜在风险领域的领导者的愿景中扮演着关键角色。

6. AISI已经开始测试什么?
AISI已经开始对现有的AI模型进行测试,包括获取未发布的模型,例如Google的Gemini Ultra。

7. AI安全测试的重点是什么风险?
这些测试的重点是降低与AI滥用相关的风险,特别是在网络安全方面。

8. AISI与谁合作提供网络安全方面的专业知识?
AISI与政府通信总部的国家网络安全中心(National Cyber Security Centre within Government Communications Headquarters,GCHQ)合作,提供网络安全方面的专业知识。

9. AISI用100万英镑采购了什么能力?
AISI已拨款100万英镑用于获取测试AI聊天机器人易受越狱攻击和防范投镖攻击的能力。

10. AISI正在开发什么自动化系统?
AISI正在开发自动化系统,以促进源代码的逆向工程,从而对AI模型进行彻底评估。

11. Google DeepMind如何表达对AISI的承诺?
Google DeepMind表示愿与AISI合作,旨在提升对AI模型的评估和安全实践。

12. 政府在AI技术领域的关注是什么?
政府的关注是在约束要求和行业合作方面,确保快速增长的AI技术领域的安全和责任。

定义:
– AI:人工智能
– AISI:AI安全研究所
– 生成式AI模型:能够根据现有模式或信息创建新内容或生成新数据的AI模型。
– 自我监管:一个行业或组织在没有政府外部干预的情况下进行自我管理的能力。

相关链接:
– OpenAI
– Google DeepMind
– 微软
– Meta
– 政府通信总部(Government Communications Headquarters,GCHQ)

The source of the article is from the blog macnifico.pt

Privacy policy
Contact