人工智能和偏见中的进展与挑战

近年来,人工智能应用的激增标志着科技领域,带来了创新,有时也带来问题。用户们越来越依赖人工智能来执行各种任务,展示出令人印象深刻的能力,但也引发了一些令人担忧的偏见。

近几周来,一些备受关注的案例突显了人工智能生成内容中的偏见问题,引起了相当大的关注。这些有争议的输出通常体现为种族主义或性别歧视的色彩。例如,通过图像生成服务请求对蒙娜丽莎进行现代演绎会产生一系列带有刻板印象的解释。

谷歌的聊天机器人Gemini引起争议,因为它生成了一些不可接受的图像,比如非洲裔人士身穿纳粹制服的演绎。谷歌不得不暂时停止该功能以做出更正。

很多人指责人工智能存在种族歧视,但这项技术本身并不具备意识。它尚未完全掌握人类历史、文化和日常生活的微妙细节。试图展示中立性忽略了某些历史上的敏感问题。而事实上,公司经常采取过滤器来阻止有问题的输出,这阻碍了人工智能从错误中学习的能力,甚至更糟糕,导致了缺陷伴随的学习过程。

考虑到全球信息技术公司所面临的风险,如股市压力、昂贵的投资和声誉,这种谨慎的态度是可以理解的。它们更愿意暂停功能或实施过滤器,与此同时努力完善技术。

用于训练算法的数据是另一个不容忽视的问题。主要来源于互联网的信息充斥着不准确性、偏见和有针对性的宣传,导致筛选正确信息的任务异常艰巨。这种清洗工作可能导致人工智能只能理解学术数据,从而阻碍其自然与大众之间的交流。

公司声称他们的专家会审核数据库,应用必要的过滤器、设置和更正。然而,就像一个从父母和老师那里学东西的孩子一样,人工智能学习的内容和方式最终取决于程序员和数据管理员,他们可能在不经意间传递偏见。

与人类不同的是,一旦树立起信仰,人类就可能变得难以改变,相比之下,人工智能可以相对容易地接受新的知识。人工智能生成的图像质量在一年内显著提高,从有前途但有缺陷到非常逼真。

然而,培养人工智能的道德和准确性的责任仍然在于人类,也许人工智能可能揭示出我们不愿承认的真相。斯坦福大学的一项著名研究引用了美国劳工统计局的数据,对比了人工智能模型对专业角色的描绘与人们自我认知之间的差异,暴露了人工智能强化刻板印象的倾向。

总而言之,虽然人工智能无法随心所欲地改变现实,但它确实反映了数字领域对我们世界的看法,这并不总是与我们的认知或愿望一致。挑战在于协调人工智能的呈现与当代社会标准。

Privacy policy
Contact