谷歌人工智能模型Gemini:经验教训与人工智能安全的未来

谷歌的联合创始人谢尔盖·布林最近就Gemini的困扰启动发表讲话,承认了公司的错误。这一事件涉及Gemini的图像生成工具将历史人物,包括教皇和德国士兵,描绘成有色人种。这一争议引起了包括埃隆·马斯克和甚至谷歌首席执行官桑达尔·皮查伊在内的负面评论和批评。

问题的根源在于谷歌旨在制作一个无偏见的人工智能模型,解决其他人工智能系统中存在的偏见问题。然而,调整处理不当,导致不当和错误图像的产生。与OpenAI等竞争对手类似的系统Gemini结合了文本生成的“大语言模型”(LLM)和图像生成系统。LLM被给予重写用户请求以促使图像生成器的谨慎指导。不幸的是,这些指导暴露给用户有时会发生,被称为“提示注入”。

提示注入揭示了Gemini的指导包括要求平等地代表不同性别和种族。然而,这仅不能解释系统为何会产生如此偏颇和错误的结果。谢尔盖·布林表达了对为何模型偏向某些偏见的困惑,并承认测试不够彻底。

南安普敦大学的Wendy Hall爵士等领域专家认为,谷歌匆忙推出Gemini模型是为了回应OpenAI成功推出自己的人工智能模型。这种竞争的急迫性损害了技术的彻底评估和测试。Hall强调了以明智的方式训练模型的重要性,以避免产生像Gemini描绘的德国二战士兵那样毫无意义的图像。

尽管围绕Gemini的争议,这一事件可能有助于将人工智能安全辩论重新集中在更直接的关注点上,比如对抗深度伪造。这突出了在大规模发布之前对人工智能模型进行全面测试和评估的必要性。在创造性、准确性和反映社会规范方面,对生成型人工智能模型的期望很高。然而,正如来自萨里大学的Andrew Rogoyski所指出的那样,我们必须记住这项技术相对较新且仍在不断发展。

尽管有关桑达尔·皮查伊在谷歌的立场存在猜测,但仅将责任归咎于他会忽视工作文化和系统性重置的更大问题。在Gemini事件后,谷歌和其他技术公司优先考虑人工智能安全至关重要,不仅是为了未来技术一代,也是为了解决当前风险和社会挑战,比如深度伪造。

常见问题解答:

1. 谷歌人工智能模型Gemini近期面临的争议是什么?
谷歌人工智能模型Gemini因其图像生成工具将历史人物,包括教皇和德国士兵,描绘成有色人种而引发争议。这导致了埃隆·马斯克和谷歌首席执行官桑达尔·皮查伊等人的负面评论和批评。

2. 创建Gemini的初衷是什么?
谷歌旨在创建一个无偏见的人工智能模型,以解决其他人工智能系统存在的偏见问题。

3. Gemini是如何工作的?
Gemini结合了文本生成的“大语言模型”(LLM)和图像生成系统。LLM被指示重写用户请求以促使图像生成器。

4. 在Gemini的背景下,“提示注入”是什么?
“提示注入”是指Gemini的指导暴露给用户,导致产生不当或错误的图像。

5. 为什么Gemini会产生偏见和错误的结果?
虽然Gemini的指导包括要求平等地代表不同性别和种族,但目前尚不清楚系统为何产生偏见结果。谷歌联合创始人谢尔盖·布林表达了对偏见的困惑,并承认测试不够彻底。

6. 为什么匆忙发布Gemini受到批评?
专家认为,谷歌为了与OpenAI成功的人工智能模型竞争,匆忙发布了Gemini。这损害了技术的彻底评估和测试。

7. 围绕Gemini的争议突出了什么问题?
该争议强调了在大规模发布人工智能模型之前进行全面测试和评估的必要性。它也强调了对生成型人工智能模型在创造性、准确性和反映社会规范方面的高期望。

8. 人工智能安全辩论应关注哪些立即关注点?
涉及Gemini的事件可能会引起人工智能安全辩论关注更紧迫的问题,比如对抗深度伪造。它强调了解决与人工智能相关的当前风险和社会挑战的重要性。

9. 是否应该单独归咎于Gemini事件的桑达尔·皮查伊?
不,仅将责任归咎于桑达尔·皮查伊会忽视工作文化及系统性重置的更大问题。该事件突显了谷歌和其他技术公司优先考虑人工智能安全的必要性。

关键术语:
– Gemini:谷歌的人工智能模型。
– 无偏见人工智能模型:旨在消除决策或输出中的偏见的人工智能模型。
– 大语言模型(LLM):Gemini人工智能模型的一部分,是文本生成系统。
– 提示注入:指Gemini的指导透露给用户,导致产生有偏见或不正确的图片生成。

相关链接:
OpenAI – OpenAI的网站,本文提到的人工智能领域竞争对手。
南安普敦大学 – 南安普敦大学的网站,Wendy Hall爵士所属机构。
萨里大学 – 萨里大学的网站,Andrew Rogoyski所属机构。

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact