정부가 기술 회사에게 AI로 생성된 콘텐츠에 워터마킹을 도입하도록 촉구

호주 정부는 인공지능(AI) 제품의 급속한 진화로 인해 발생하는 도전에 대처하기 위한 조치를 취하고 있습니다. 산업과 과학 장관인 에드 휴식(Husic)은 “안전하고 책임있는 AI”에 대한 협의 과정에 대한 정부의 대응책을 공개하며 “고위험” AI 응용 프로그램을 위한 새로운 규제의 필요성을 인식하고 있습니다. 정부는 AI의 성장을 지원하기 위함이지만, 대중의 우려를 해결하고 안전장치를 도입하는 중요성도 강조하고 있습니다.

휴식은 대중이 AI의 안전하고 책임있는 사용에 대한 불신을 표명하는 바 있다고 밝혔습니다. 정부의 대응책에는 AI 정책과 보호방법을 개발하기 위한 전문 자문 그룹 설립과 기업을 위한 자발적인 “AI 안전 표준”의 제정을 포함하고 있습니다. AI 모델을 훈련시키는 데 사용되는 데이터에 대한 공개 보고와 같은 투명성 조치도 고려 중에 있습니다.

뿐만 아니라 정부는 기술 회사에게 AI로 생성된 콘텐츠에 워터마크나 라벨을 적용하는 것이 가능한지도 탐색하고 있습니다. 이러한 조치는 기존 자료를 사용하여 신속하게 새로운 콘텐츠를 생성하는 생성적 AI 모델의 사용으로 제기된 우려에 대응하기 위한 것입니다. 정부는 입법이 AI 개발 속도에 뒤처질 수 있다고 인식하며, AI 시스템이 책임을 지고 설계, 개발 및 배포될 수 있도록 보장하려고 합니다.

이러한 정부의 대응책은 호주에서 AI에 대한 규제를 위한 다른 노력들과 함께 이루어지고 있습니다. 통신 장관인 미셸 롤랜드(Michelle Rowland)는 딥 페이크와 혐오 발언과 같은 AI로 생성된 해로운 자료에 대응하기 위해 온라인 안전 법률을 개정할 것을 약속했습니다. 학교에서의 AI 사용과 AI in Government Taskforce를 통한 사용에 대한 검토도 진행 중입니다.

호주 정부는 기술 회사에게 AI로 생성된 콘텐츠에 워터마크나 라벨을 도입함으로써 AI의 사용에 대한 명확성과 책임성을 제공하고자 합니다. 이 접근 방식은 고위험 AI 응용프로그램과 관련된 위험에 대응하며, 일반 대중의 신뢰를 보호하고 혁신을 촉진하기 위한 정부의 약속과 일치합니다.

The source of the article is from the blog crasel.tk

Privacy policy
Contact