人工智能公司敦促英国政府改善安全测试

包括OpenAI、Google DeepMind、微软和Meta在内的几家领先人工智能公司呼吁英国政府加快对人工智能系统的安全测试程序。这些公司已同意通过新成立的人工智能安全研究所(AISI)对其人工智能模型进行评估,但他们对评估过程的当前速度和透明度表示担忧。虽然这些公司愿意解决AISI发现的任何缺陷,但他们并不必须根据评估结果延迟或修改其技术的发布。

人工智能供应商的一个主要争议点是测试协议的不明确性。他们希望获得关于进行的测试、评估持续时间和反馈机制的更详细信息。还存在对于每次对人工智能模型进行微小更新时是否需要重复测试的不确定性,这一要求可能会让人工智能开发者感到繁重。

考虑到评估过程的不确定性,这些公司表达的担忧是合理的。随着其他政府考虑进行类似的人工智能安全评估,英国程序的任何当前混乱只会随着更多的机构提出类似要求的加剧。

据《金融时报》报道,英国政府已经与相关开发者合作开始测试人工智能模型。这项测试包括对复杂的人工智能模型进行预部署测试,甚至包括尚未发布的模型,例如Google的Gemini Ultra。这项倡议是这些公司在英国于11月举行的人工智能安全峰会上签署的主要协议之一。

英国政府和其他管理机构与人工智能公司密切合作,制定明确、标准化的安全测试程序是至关重要的。透明高效的评估将不仅增强对人工智能技术的信任,还将确保这些系统在各个领域负责任地部署。

常见问题解答

1. 是哪些公司呼吁英国政府加快对人工智能系统的安全测试程序?
OpenAI、Google DeepMind、微软和Meta等几家领先的人工智能公司发出了这一呼吁。

2. 新成立的人工智能安全研究所(AISI)扮演什么角色?
这些公司已同意让AISI对其人工智能模型进行评估。

3. 这些公司会根据评估结果延迟或修改其技术的发布吗?
不会,这些公司没有义务根据评估结果延迟或修改其技术的发布。

4. 这些公司对于评估过程表达了什么担忧?
这些公司对评估过程的当前速度、透明度和测试协议的不明确性表示担忧。他们希望获得关于进行的测试、评估持续时间和反馈机制的更详细信息。

5. 对于人工智能模型的微小更新是否需要重复测试存在不确定性吗?
是的,目前存在对于每次对人工智能模型进行微小更新时是否需要重复测试的不确定性,这对于人工智能开发者来说可能是繁重的。

关键词/术语

– 人工智能(AI):指人工智能。
– 人工智能安全研究所(AISI):负责对人工智能模型进行安全评估的新设立的研究所。
– 人工智能模型:指公司开发的人工智能系统或算法。
– 测试协议:对人工智能模型进行评估和测试时所遵循的程序和准则。
– 预部署测试:人工智能模型正式部署或发布之前进行的测试。

相关链接

– OpenAI
– Google DeepMind
– 微软
– Meta
– 《金融时报》

The source of the article is from the blog crasel.tk

Privacy policy
Contact