合作抗击AI产生的虚假消息

印度政府近日与主要科技公司合作,旨在解决数字空间中AI产生的虚假信息日益严重的问题。据《Mint》报道,印度联合信息技术部长瓦什纳确认了政府官员与谷歌、Meta(前身为Facebook)等知名公司代表举行的会议。

为了采取预防措施,谷歌和Meta都发布了处理AI篡改内容和广告的指南,涉及平台如ChatGPT、Facebook、谷歌搜索、Instagram、WhatsApp和YouTube。这些指南强调标记AI生成内容的重要性,并限制使用AI生成与2024年大选相关的政治人物、政党和观点的搜索结果。

Adobe,Photoshop的开发者,对其名为Firefly的生成工具也采取了慎重态度。Adobe的内容真实性计划资深总监安迪·帕森斯强调了公司防止为政治活动操纵或创建影像的承诺。

此外,讨论还涉及中介责任,除了Adobe在《信息技术(中介指南和数字传媒伦理准则)规则,2021》下,这些中介可能面临被起诉的风险,如果他们未能遏制AI辅助虚假信息的传播。这一问题源自AI在在线内容中的广泛传播,促使科技公司采用水印和元数据标记等技术。

印度政府主张对特定关键词实施审查的能力体现了对AI对公共话语影响的日益认识。全球各国政府正在意识到,没有单一解决方案可以对抗虚假信息,特别是在AI影响下。这种认识可以引导印度等民主社会政府在保持警惕防范AI驱动虚假信息方面做出决策。

在今年二月的慕尼黑安全会议上,签署了《2024年选举中打击AI欺骗性使用的技术协议》。此协议涉及Adobe、谷歌、Meta、微软、OpenAI和X(前身为Twitter)等20家公司。该技术协议提出了各种措施,比如实施技术来减缓AI相关风险、评估AI模型,并在行业间培养韧性。

谷歌和Meta在随后的披露中概述了解决与选举相关问题的具体策略。谷歌承诺披露政治广告中的AI使用,并在YouTube上标记AI生成内容,并对Gemini平台上与选举相关的搜索查询实施限制。另一方面,Meta宣布设立了12个事实核查团队,独立核实AI生成的内容。修改过的政治内容在Meta平台上被视作禁止,以减少其影响力。

尽管《Mint》向谷歌和Meta就其与政府官员和部长会晤的询问并未得到回应,他们仍然在进一步请求信息。

法律和政策专家指出,根据《信息技术规则,2021》和印度刑法中的现有条款,大型科技企业和用户也可能因在其平台上传播AI驱动的虚假信息而承担责任。如果他们未能积极打击这类内容,可能会根据《信息技术规则,2021》第7条承担责任。中介和平台没有明确的定义会对有效应对AI威胁和确定责任与责任造成困难。

常见问题解答

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact