欧盟倡导负责任的人工智能使用,通过开创性立法

欧洲部长就开创性人工智能立法达成共识。 欧盟部长们一致同意了一项历史性和开创性的关于人工智能(AI)的立法。这项新法律专门旨在监管高风险情况,包括执法和招聘流程。

比利时数字事务国务秘书承认了这项具有开创性的立法的重要性。他强调了该立法在应对全球技术挑战和为社会与经济创造机会方面的作用。

欧洲法律允许使用人工智能,但禁止该技术对人们构成威胁时的使用。它对高风险系统制定了严格的监管规定,只允许这些系统在已被证明尊重基本权利的情况下使用。

新的AI法律禁止歧视性系统。 基于政治、宗教、哲学信仰、种族或性别的生物特征分类系统在这项新规定下被禁止。此外,该法律防止了行为操纵的滥用,并禁止基于行为或个人特质评估人群的系统。

这项立法还针对了防止非受监管扩展或创建面部数据数据库,这些数据是通过互联网随机捕捉或通过音频和视觉录制而来。

尽管该法律实施了这些限制,但执法部门可以在法官裁定的情况下使用生物识别摄像头以防范恐怖主义威胁。

强制性内容标记和AI市场认证。 由人工智能创建的内容,如文本、图像或视频,必须进行分类,以保护观众免受具有误导性的深度伪造内容的影响。高风险系统必须在进入欧盟市场之前获得认证,这些认证由新的AI办公室监督。

不遵守法律可能会导致高达3500万欧元或公司年度营业额的7%的罚款,具体取决于违规实体的性质。

这项人工智能立法倡议最初是由欧洲委员会在2021年4月,即欧盟理事会葡萄牙轮值主席期间提出的。

事实:
– 欧盟在治理新技术方面具有历史基础,先前就实施了《通用数据保护条例》(GDPR),这也产生了全球影响。
– 人工智能系统引发了各种伦理关切,包括偏见、隐私问题和与自动化与就业相关的挑战。
– 欧洲委员会对人工智能监管的方法基于“值得信赖的人工智能”愿景,其中包括合法、道德和稳健的人工智能。

重要问题和答案:
哪些类型的人工智能系统被视为“高风险”?
高风险AI系统包括用于关键基础设施(例如交通)、教育或职业培训、就业和员工管理、基本私人和公共服务(例如信用评分)、执法、移民、庇护和边境管理、司法管理和民主程序的系统。

为什么欧盟对人工智能采取监管的方式?
欧盟旨在确保人工智能系统透明、可追溯且维护基本权利。此外,他们希望建立法律确定性,以促进对人工智能的投资和创新。

AI法案如何对低风险人工智能系统进行分类和监管?
低风险人工智能应用受到最低要求。这可能包括用于视频游戏或垃圾邮件过滤器的人工智能系统。低风险人工智能的提供者可能会被鼓励遵守自愿行为准则。

关键挑战和争议:
– 平衡创新与监管:过于严格的法规可能会扼杀人工智能创新,而过于宽松则可能导致滥用和基本权利的侵蚀。
– 国际影响和一致性:欧盟的立法可能会影响国际公司并开启全球监管趋势,这可能会引发有关司法管辖权和非欧盟公司需要遵守的合规标准的争议。
– 隐私关注与安全措施:为了安全目的允许生物识别可能具有争议,人们担心大规模监视对公民隐私和自由的影响。

优势:
– 促进道德和值得信赖的人工智能发展。
– 为在人工智能领域投资的企业提供法律明确性和可预测性。
– 有可能成为全球规范标准,影响人工智能领域的国际规范。

劣势:
– 可能由于法规负担的增加而减缓欧盟内人工智能创新的速度。
– 可能与其他监管体制发生冲突,特别是当人工智能系统具有全球性质时。
– 有关如何有效执法这类规定在不同欧盟成员国之间的担忧。

欲了解更多信息,请访问欧盟官方网站:European Union。请注意,由于我截至2023年的最新更新,外部链接应验证其当前有效性和相关性。

The source of the article is from the blog kewauneecomet.com

Privacy policy
Contact