重新定义多元化:通过AI建立更多包容性形象

Meta的AI图像生成器因其据称难以准确描绘不同种族背景的情侣或朋友的形象而受到审查。这一工具于去年12月发布,因其无法生成准确代表跨种族关系的图像而遭受批评。

被CNN要求创造一张亚洲男子和白人妻子的图片时,AI图像生成器反复生成了东亚男子和东亚女子的图片。当被要求创造一张亚洲女性和白人丈夫的形象时,出现了同样的问题。此外,当被要求创造一张黑人女性和白人丈夫的形象时,生成器只生成了展示黑人情侣的图片。

当要求创建一张亚洲女性和她的高加索伙伴的形象时,这一工具的不准确性继续,结果是两个亚洲女性的图片。同样,当请求一张黑人女性和她的亚洲朋友的图片时,生成了两个黑人女性的照片。这些例子展示了AI图像生成器在生成图像时无法准确地代表多元化种族背景。

然而,在CNN的几次尝试之后,该工具最终在要求创造跨种族情侣的图片时生成了白人男子和黑人女子以及白人男子和亚洲女子的形象。

有关该工具种族偏见的担忧首次是由科技新闻媒体 The Verge 报道的。该报道强调了AI图像生成器如何在设想一位亚洲男子和白人女子时遇到困难。此外,当要求简单生成一张跨种族情侣的图片时,该工具会回复一条信息,说明无法生成所请求的图像。

美国的异性异族结合情侣占人口的很大比例。根据2022年的美国人口普查数据,大约有19%的异性异族结婚夫妇,近29%的异性未婚夫妇家庭是异族的。此外,2022年,有31%的同性异族结婚夫妇是异族的。这些数据强调了AI生成图像中准确代表性的重要性。

对于CNN的置评请求,Meta参考了公司9月份关于生成式AI功能负责任开发的博客文章。该博文承认了需要解决生成式AI系统中的潜在偏见,并提到用户反馈在改善方法方面至关重要。

AI图像生成器附带一份免责声明,指出其生成的图像可能不准确或不合适。尽管生成式AI的潜力很大,但像这样的事件突显出AI工具在处理种族概念和表现时面临的挑战。

这并不是生成式AI工具在这一领域遇到批评的首次。谷歌在今年早些时候暂停了其AI工具 Gemini 生成人物形象的能力,因其生成了历史上不准确的描绘,主要展示了黑人代替白人的形象。OpenAI的Dall-E图像生成器也被指责持续传播有害的种族和民族刻板印象。

包括Meta、谷歌和OpenAI在内的生成式AI工具从大量在线数据中学习。然而,研究人员警告称,这些工具可能会无意中放大这些数据中存在的种族偏见,有时规模更大。

尽管这些AI工具背后的初衷是积极的,但最近的事件表明它们可能还没有完全准备好进行广泛使用。在AI生成图像中准确代表多元化种族背景的挑战需要持续的研究和改进,以确保公平和准确的表现。

常见问题解答

The source of the article is from the blog crasel.tk

Web Story

Privacy policy
Contact