防止黑暗面:维护政治中人工智能的负责任使用

随着人工智能(AI)的进步不断进行,创新者越来越担心其在政治领域的潜在滥用。认识到与AI技术在大型选举期间相关的风险,像Anthropic、OpenAI、Google和Meta等行业领袖正在采取果断行动来建立其应用的边界。

OpenAI以其对话型AI ChatGPT而闻名,最近做出了坚定承诺,阻止其AI工具在选举中被滥用。为此,OpenAI禁止创建能够模仿真实个人或机构的聊天机器人。Google也加入了此行动,承诺限制其AI聊天机器人Bard的使用,以防止某些与选举相关的提示导致的不准确性。

Meta,社交媒体巨头Facebook和Instagram的母公司,认识到在其平台上应对由AI生成的内容的透明度和清晰度的重要性。因此,Meta将实施清晰的标签,帮助用户区分真实信息和虚假信息,帮助选民做出知情决定。

Anthropic,一个有影响力的AI初创公司,也在抵制AI在政治中的滥用。该公司明确禁止通过其聊天机器人Claude进行政治竞选和游说。为了保持合规性,Anthropic实施了机制来发出警告或暂停违反规则的用户。此外,该公司使用先进的工具,经过培训,可以自动识别和阻止错误信息和影响行为。

Anthropic的开发人员承认AI部署的不可预测性,表示:“我们预计2024年将看到AI系统的惊人用途——这些用途并不是由其开发人员预期的。”这种看法反映了行业专业人士的担忧,他们努力控制他们的技术,因为全球数十亿人参与选举。

虽然限制AI工具的滥用的这些努力是可赞扬的,但在技术迅速发展的形势下,这些限制的有效性仍然是不确定的。OpenAI最近推出的AI技术Sora能够即时生成逼真视频,提出了新的挑战。这类工具可能使事实与虚构之间的界线变得模糊,引发人们对公众是否能辨别真实内容的重要问题。

今年全球至少有83场选举,有关在这些重要事件中应对负责任的AI使用的紧迫性前所未有。从台湾和巴基斯坦到印度尼西亚和印度,AI在政治中的负责任应用对维护民主进程的完整性至关重要。

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact