建立公平 AI 使用平台

美国政府最近发布了一系列新政策,旨在监管联邦政府对人工智能(AI)的使用。这些政策被视为全球行动的基准,旨在解决有关AI对美国劳动力、隐私、国家安全以及潜在歧视性决策影响的关切。

为了确保美国人的安全和权利,美国管理和预算办公室已经下令,要求联邦机构在使用AI时不会危害公民的“权利和安全”。此外,要求联邦机构在线上发布他们正在使用的AI系统清单,以及对这些系统相关风险的评估以及管理情况。

此外,白宫正在指示所有联邦机构任命一位在该领域具有坚实背景的首席AI官员。这位官员将负责监督机构内部AI技术的使用,确保其在伦理和有效性方面得到应用。

副总统卡玛拉·哈里斯是塑造政府AI政策的主要推动力量,她强调了这些监管在全球范围内的重要性。她认为所有领袖,无论所在的领域如何,都有责任确保负责任地采用和推进AI技术,以保护公众免受潜在危害,同时最大化其利益。

政府已经披露了700多起当前和计划中的各种机构使用AI的案例。示例范围从通过智能手机咳嗽分析检测COVID-19到识别疑似战争罪行和防止非法货品贩运。然而,为了减少潜在风险,联邦机构现在将被要求实施可靠评估、测试和监测AI对公众的影响的保障措施。这包括努力防止算法歧视,并确保政府在AI利用方面具有透明问责制。

哈里斯副总统提供的一个说明性例子涉及在退伍军人事务部门中使用AI进行患者诊断。在这种情况下,AI系统展示其诊断不带有人种偏见是至关重要。

拜登总统的关于AI的行政命令,利用了国防生产法案,要求开发高级AI平台的公司向政府通报并分享安全测试的结果。这些通过“红队”测试进行的测试涉及严格的风险评估。国家标准与技术研究所也正在制定红队测试的标准,以确保AI技术对公众的安全和负责任部署。

这些新政策标志着美国在AI监管和治理方面迈出了重要一步。通过优先考虑透明度、问责制和对公民的保护,联邦政府旨在建立一个可以作为全球AI监管模范的强有力框架。

常见问题:

新政策中拜登政府宣布的AI的主要目标是什么?

新AI政策的主要目标是确保美国公民的安全、权利和隐私,同时解决有关AI技术的潜在歧视和风险的关切。这些政策的目的在于建立一个在联邦政府内部负责任、透明和负责任使用AI的框架。

在新政策下,联邦机构需要采取哪些措施?

根据新政策,联邦机构将被要求公布他们正在使用的AI系统清单,以及对涉及风险以及其如何管理这些风险的评估。此外,每个机构都将任命一位首席AI官员,负责监督AI技术的实施,并确保其在伦理和有效性方面得到应用。

政府如何评估AI的安全风险?

为了评估AI的安全风险,联邦机构将被要求实施措施,使其能够可靠地评估、测试和监控AI对公众的影响。这包括采取措施防止算法性歧视以及公开详细信息,解释政府如何利用AI。

国家标准与技术研究所在监管AI方面将发挥什么作用?

国家标准与技术研究所将制定AI技术的红队测试标准。红队在发布AI平台之前进行严格的风险评估。这些标准将有助于建立AI监管和治理的整体框架。

The source of the article is from the blog enp.gr

Privacy policy
Contact