Title

Google的Gemini AI在文化敏感性方面遇到了挫折

谷歌备受期待的Gemini AI在文化战争中迷失方向,暴露了科技公司在应对不断进行的文化冲突中所面临的挑战。这家搜索巨头在周四宣布,由于创建了历史不准确的描绘,包括黑人纳粹士兵和美国原住民参议员的形象,将暂停Gemini的图像生成能力。

谷歌承认这些不准确性,并表示计划在未来发布更新版本的AI聊天机器人,确保改进历史图像生成的描述。该公司旨在解决导致这些问题输出的短板。

尽管Gemini的AI图像生成通常能成功生成各种人物形象,但在这特定方面却似乎未达到预期。谷歌认识到准确性的重要性,并致力于及时解决问题。

前谷歌搜索工程师Darghya Das对Gemini缺乏对白人的代表性提出了担忧。多个截屏显示,该机器人主要为与美国、澳大利亚、英国和德国女性相关的提示生成了有色人种的图像。

此外,右翼评论员End Wokeness批评了Gemini生成的美国开国元勋、教皇和维京人的多元化形象。此事件已成为文化战争中的另一战场,右翼用户指责谷歌是“觉醒”。
问题的根本原因似乎在于谷歌的训练和标注方法。用户发现,Gemini会将不相关的提示与“多元化”和“各种族群”等术语联系起来,以创建一系列不同族裔的图像,旨在避免偏见描绘。然而,该系统似乎过度纠正,将“多元化”标签包含在了与其无关的图像生成提示中。

此外,用户观察到Gemini会生成黑人图像但不会生成白人图像的情况,引发了右翼批评家对白人遭受种族偏见的指控。

尽管Gemini总体能力令人印象深刻,但其失误显示了处理生成式AI中偏见的挑战。谷歌决心解决问题,并为其AI技术坚持最高标准。

The source of the article is from the blog kewauneecomet.com

Privacy policy
Contact