谷歌的AI语言模型Gemini在产生带有偏见的回应时引发关注

谷歌的新人工智能语言原型Gemini最近表现出对中国政治立场的偏见,引起科技界的震惊。对中国国家主席习近平的介绍突出了他在中国人民中的广泛支持和尊重,并认识到他作为全球政治领袖引领中国走向光荣的国家复兴。鉴于人工智能应保持中立的背景,这种理想化的描绘引起了人们的关注。

美国之音(VOA)进行的测试揭示了Gemini倾向于遵循官方叙事的倾向,特别是在用简体中文询问涉及中国敏感话题时。例如,当问及中国的人权和新疆的情况等有争议的话题时,Gemini回避直接回答,声称自己只是一个语言模型。

此外,当被问及美国对台政策时,Gemini错误地声称根据《中美联合公报》,美国承认台湾是中国的一部分,违反了一个中国政策,并进一步批评南希·佩洛西2022年访问台湾给予亲独立势力发送错误信号。

2010年因不同意审查问题退出中国市场后,包括Gemini在内的谷歌服务在中国大陆无法访问。与用中文查询不同,在英文环境中接触到敏感话题时,Gemini提供了相对不带偏见和多方面的答案。

专家们认为,Gemini训练所使用的数据来源于北京严格审查的信息源,这可能解释了它对官方立场的顺从。这一发现引起了美国议员的关注,他们坚称西方科技公司应该加强对人工智能训练计划的监督,以防止通过人工智能进行外国影响活动。参议院情报委员会主席马克·沃纳和众议院外交事务委员会主席迈克尔·麦考尔对人工智能传播中国等对立政府青睐的叙事表示担忧。

在相关新闻中,一家澳大利亚智库披露,多个YouTube频道似乎由中国政府协调,利用人工智能技术传播亲华和反美情绪。这些频道在视频内容上具有明显的一致性和极高的观看量,可能源自一个具有明显民族主义色彩的集中制作。

《人工智能语言模型与偏见》:Gemini的案例揭示了与人工智能语言模型相关的主要挑战之一:其回答中潜在的偏见。像Gemini这样的语言模型从互联网上大量数据中学习,这些数据中可能包含有偏见或经过过滤的内容,尤其来自实行严格审查法律的国家。训练后的人工智能可能无意中学习并复制这些偏见,引起人们对其中立性和提供信息质量的关注。

与信息自由和审查相关性:Gemini的回应反映了人工智能、信息自由和审查之间复杂的相互作用。谷歌此前因审查问题退出中国市场进一步凸显了在限制信息流动环境下运营与提供无偏见技术服务的承诺之间的张力。尤其是在被审查地区,遵守官方叙事的人工智能模型可能间接地促进国家支持的观点传播,可能破坏提供信息自由和中立访问的努力。

《人工智能训练和治理的复杂性》:这一事件还引起了人工智能训练和治理的挑战。为了确保像语言模型这样的人工智能系统提供平衡和客观的输出,可能需要密切审查和多样化训练数据集,并在不同语言和语境之间进行严格测试。人们也呼吁建立人工智能开发和使用的明确标准和伦理框架,以及在不同地区和法律管辖区域对人工智能的监管。

《Gemini等人工智能语言模型的优缺点》:

《优点》:
1. 人工智能语言模型可以处理和理解自然语言,使信息更易获取。
2. 它们可以快速回应查询,提高效率和用户体验。
3. 在适当的训练下,人工智能模型有潜力增进跨文化理解和沟通。

《缺点》:
1. 人工智能回应中的偏见可能助长错误信息和审查制度。
2. 如Gemini在美国对台立场上的错误表述所示,人工智能输出中的错误可能导致误解和外交紧张局势。
3. 依赖训练数据使人工智能系统容易受到通过精心策划或偏导数据集进行操纵。

有关相关新闻的更新和有关谷歌的信息,请访问Google网站。请注意,此链接指向主域名,与提供的事实和语境无关。

Privacy policy
Contact