글로벌 리더들, 신뢰할 수 있는 인공지능을 진전시키는 새로운 지침 수용

급속히 성장하는 AI 분야를 위한 새로운 표준

파리에서 경제 협력 및 개발 기구(Organisation for Economic Co-operation and Development, OECD) 본부에서 중요한 모임이 열리면서 회원국과 추가 국가들이 인공 지능(AI)의 발전을 안내하는 일련의 개정 원칙을 지지하기 위해 함께 모였습니다. 유럽 연합의 지지도 받은 이 신선한 가이드라인은 2023년에 AI 투자 전체의 18%를 차지한 생성적 AI 부문의 성장을 반영하고 있습니다.

생성적 AI의 급부상이 규제 개선을 촉발

2019년의 전임자를 능가하는 OECD의 최신 원칙은 2019년 이후 9배 증가한 생성적 AI 기술의 신속한 발전에 대응합니다. 조직은 AI 관련 기술 수요가 130% 증가했다고 강조하며 이 분야의 성장을 강조합니다.

딥페이크 딜레마와 보안 문제 다루기

가이드라인에 대한 주요 수정 사항 중 하나는 ‘딥페이크’의 확산으로 더 진지하게 취해진 정보 변조 대응과 정보 무결성을 보호하는 것에 집중하는 것입니다. 이러한 위협의 심각성을 인식하며 가이드라인은 일관된 해결책을 권장하지 않고 이러한 정교한 정보 변조 캠페인에 대한 인식을 높이는 긴급성을 강조합니다.

신뢰와 책임 있는 AI 행동 확립하기

OECD는 이제 AI 기업들이 AI 시스템의 수명 주기 중에 책임을 강조하는 신뢰 구축 방법론에 가치를 두고 있습니다. 부당한 피해를 입히거나 원치 않는 행동을 보일 수 있는 AI 시스템을 교정하고 비활성화하기 위해 강화된 보안 조치가 강조되고 있습니다.

AI 투명성과 국제 협력 보장

최신 개정판에서 투명성이 주요 역할을 담당하여 AI 시스템에 대한 책임 있는 공개를 요구합니다. 국가들 간 일관된 지배 체계의 필요성을 강조하며 OECD 사무총장 Mathias Cormann은 이러한 새로운 원칙을 정책 수립의 세계적인 기준으로 인식하며 인간 중심의 혁신과 세계적으로 상호 운용 가능한 행동 틀로 충첩합니다.

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact