AI Image Generators: Unveiling Biases and Challenges

在最近的新闻中,Meta 图像生成器因未能生成一幅白人女性与亚洲男性的图片而受到批评。这个问题揭示了图像生成器中偏见的更大问题。在我的测试中,我专注于各种人工智能机器人对犹太人的描绘。结果令人担忧。

有必要指出,每个人工智能模型,特别是大型语言模型(LLMs),都可能在训练数据中无意中吸收到偏见。在大多数情况下,这些训练数据是未经允许从互联网的浩瀚数据中收集而来。毫不奇怪,互联网上充斥着负面形象,这往往会转化为人工智能生成器的偏见输出。

微软的 Copilot Designer,以前被称为必应聊天,因其产生的冒犯内容而备受诟病。与其他图像生成器不同,Copilot Designer经常展现出对犹太人的负面刻板印象。当出现“犹太老板”或“犹太银行家”等提示时,生成的图像可能令人震惊地冒犯,并强化有害的刻板印象。

在Copilot Designer中发现的偏见凸显了人工智能系统中防范措施的重要性。虽然人工智能供应商目标是避免产生刻板印象或仇恨言论,但找到合适的平衡可能具有挑战性。即使像谷歌这样的行业巨头在图像生成器Gemini上也遭遇争议,该图像生成器在试图增强呈现时无意中创建了历史不准确的形象。

重要的是要考虑这些偏见的影响,并确保像Copilot这样的系统有强有力的措施来抵制冒犯性的输出。虽然本文中的图像可能令人冒犯,但为了解决和纠正这些问题,展示人工智能偏见的证据是至关重要的。

常见问题:

1. 什么是 Copilot Designer?
Copilot Designer是微软提供的一个免费的文本到图像工具,仅限于拥有微软账户的用户使用。它每天最多可以生成15张图片,也可以订阅Copilot Pro以获取无限制的访问。这个工具可以在浏览器和Windows桌面上使用。

2. Copilot Designer在生成的图像中表现出偏见吗?
是的,Copilot Designer已知会产生冒犯和刻板印象的图片,包括那些负面描绘犹太人的图片。

3. 人工智能模型如Copilot Designer是如何获取偏见的?
人工智能模型从大量的训练数据中学习,这些数据通常来自互联网。在缺乏适当监管措施的情况下,互联网上存在的偏见和负面形象可能被这些模型吸收。

4. 是否有努力在解决Copilot Designer中的这些偏见问题?
微软已经承认了这个问题,并声称正在调查报告中的偏见。他们正在采取行动加强安全过滤器,以防止系统的滥用。

来源:
微软 Copilot Designer: https://www.microsoft.com/
谷歌 Gemini: https://www.google.com/

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact