欧盟倡导负责任的人工智能使用,制定具有突破性意义的立法。

欧洲部长就开创性人工智能立法达成一致。 欧盟部长们一致同意了一项历史性的开创性立法,来规范人工智能(AI)。 这项新法律专门设计用于监管高风险情况,包括执法和招聘流程。

比利时数字事务国务秘书承认了这项突破性立法的重要性。 他强调了该法律在应对全球技术挑战和创造机会方面的作用,对于社会和经济都具有重要意义。

欧洲法律允许使用人工智能,但在技术对人类构成威胁时禁止使用。 它对高风险系统制定了严格的监管规定,只有在这些系统已被证明尊重基本权利时才允许使用。

新人工智能法禁止歧视性系统。 根据政治、宗教、哲学信仰、种族或性别进行生物特征分类的系统在新规定下被禁止。 此外,该法律禁止利用行为操纵和禁止基于行为或个人特征评估人员的系统。

此立法还旨在防止面部数据库的无限制扩展或创建,这些数据库可通过互联网随机捕获或通过音频和视频录制获得。

尽管法律规定了这些限制,但也允许安全部队在必要时根据司法命令使用生物特征识别摄像头以防范恐怖主义威胁。

义务内容标记和人工智能市场认证。 人工智能创建的内容,如文本、图像或视频,必须分类,以保护观众免受误导的深加工内容。 高风险系统必须在进入欧盟市场之前获得经认可的机构认证,由新设立的人工智能办公室监督。

不遵守法律规定可能导致高达3500万欧元或公司年营业额的7%的罚款,具体取决于违规实体的性质。

此人工智能立法倡议最初是欧洲委员会在2021年4月欧盟理事会葡萄牙轮值主席期间提出的。

事实:
– 欧盟在治理新技术方面具有历史基础,并先前颁布过《通用数据保护条例》(GDPR),该条例也产生了全球影响。
– 人工智能系统引发了各种伦理关切,包括偏见、隐私问题以及与自动化和就业相关的挑战。
– 欧洲委员会对人工智能监管的方法基于“值得信赖的人工智能”愿景,包括合法、道德和强健的人工智能。

重要问题与答案:
什么类型的人工智能系统被视为“高风险”?
高风险人工智能系统包括用于关键基础设施(例如交通)、教育或职业培训、就业和员工管理、重要的私人和公共服务(例如信用评分)、执法、移民、庇护和边境管理、司法和民主程序。

为何欧盟对人工智能采取监管态度?
欧盟旨在确保人工智能系统透明、可追溯,并恪守基本权利。 此外,他们希望建立法律确定性,以便促进对人工智能的投资和创新。

人工智能法如何对低风险人工智能系统进行分类和监管?
低风险人工智能应用需符合最低要求。 它们可能包括视频游戏或垃圾邮件过滤器等人工智能系统。 低风险人工智能的提供方或被鼓励遵循自愿性行为准则。

关键挑战与争议:
– 在创新与监管之间寻找平衡: 过于严格的法规可能抑制人工智能的创新,而过于宽松可能导致滥用和基本权利的侵蚀。
– 国际影响与对齐: 欧盟的立法可能影响国际公司并树立全球监管趋势,这可能引发有关辖区和非欧盟公司需符合的合规标准的争议。
– 隐私问题与安全措施: 允许进行安全的生物特征识别可能引发争议,人们担忧大规模监控对公民隐私和自由的影响。

优势:
– 促进道德和可信赖的人工智能发展。
– 为投资人工智能的企业提供法律明晰性和可预见性。
– 有潜力成为全球监管标准,影响人工智能领域的国际规范。

劣势:
– 由于监管负担,可能会降低欧盟内人工智能创新速度。
– 与其他监管体制可能发生冲突,特别是对于跨国界的人工智能系统。
– 人们担忧这些监管在多样化的欧盟成员国间的有效执行。

如需更多信息,请访问欧盟官方网站:欧洲联盟。 请注意,由于我是在2023年进行的最后更新,故外部链接应核实其当前有效性和相关性。

Privacy policy
Contact