AI 모델 안전 평가를 위해 영국과 미국 정부가 협력합니다

인공지능 기술의 생성 모델이 계속 발전함에 따라 OpenAI, Google 및 기타 기업들은 대형 언어 모델을 꾸준히 개선하고 있습니다. 이러한 모델의 안전을 평가하는 중요성을 인지한 영국과 미국 정부는 독립적인 평가를 위한 공통 접근 방식을 수립하기 위해 양국 간 합의서를 체결했습니다.

이 새롭게 형성된 파트너십 아래 영국의 AI 안전 연구소와 곧 설립될 미국의 대응기관이 가장 첨단 AI 모델과 관련된 위험을 평가하기 위한 시험계획을 개발하기 위해 협력할 것입니다. 종합적인 평가를 보장하기 위해 두 기관은 기술 지식, 정보 및 인력을 공유할 것입니다.

이 파트너십의 초기 목표 중 하나는 공개 모델에 대한 공동 테스트를 실시하는 것입니다. 신속히 대처할 필요성은 내년에 나올 것으로 예상되는 새로운 세대 AI 모델로부터 예상되는 산업 및 분야에 혁신적인 영향을 미칠 수 있기 때문입니다.

영국과 미국 간의 협력은 AI 안전에 관한 최초의 양자간 협정으로서 중요합니다. 그러나 양국 모두 미래에 다른 국가들과의 협력을 확대할 의향이 있습니다. 미 상무부 장관 지나 라이몬도는 “AI는 우리 세대의 정의 기술입니다.”라고 말하며 AI의 변혁적 잠재력을 인식했습니다. 이 협약은 국가 안보 위험을 완화하는 것뿐만 아니라 사회 전체의 복지를 보장하기 위한 노력을 목표로 합니다.

이 특정 협력의 초점이 평가와 평가에 있음에도 불구하고 전세계 정부는 AI의 책임있는 사용을 보장하기 위한 규정에 노력하고 있습니다. 지난 3월, 백악관은 국민의 권리와 안전을 보호하기 위해 연방 기관 내에서 AI 도구의 사용을 제한하는 대통령령을 발표했습니다. 마찬가지로, 유럽 의회는 인간 행동 조작, 취약점 이용, 비표적 데이터 수집 등의 행동을 금지하는 인공지능을 규제하는 포괄적인 법률을 승인했습니다.

AI가 계속 발전함에 따라 강력한 평가, 정부 간 협력, 및 사회를 보호하기 위한 규정의 중요성을 과소평가 할 수 없습니다.

자주 묻는 질문:

1. 생성적 AI란 무엇인가요?
생성적 AI는 학습한 패턴과 예제를 기반으로 원본 콘텐츠를 생성할 수 있는 인공지능 기술의 한 유형을 말합니다.

2. 영국과 미국 정부가 체결한 합의서의 목적은 무엇인가요?
합의서의 목적은 첨단 AI 모델의 안전에 대한 독립적 평가의 공통 접근 방식을 수립하는 것입니다. 이 합의를 통해 영국의 AI 안전 연구소와 미국의 대응기관이 이러한 모델과 관련된 위험을 평가하기 위해 테스트를 개발하고 그 결과를 평가합니다.

3. 영국과 미국의 협력이 중요한 이유는 무엇인가요?
영국과 미국 간의 협력은 AI 안전에 관한 최초의 양자간 협정으로서 중요합니다. 이는 AI의 잠재적 위험을 대처하고, AI 시스템에 대한 더 나은 이해, 보다 견고한 평가, 엄격한 지침의 발행을 보장하는 의지를 보여줍니다.

4. 현재 AI 사용을 규제하기 위한 규정이 있나요?
세계 각국 정부는 AI 사용을 규제하기 위해 노력하고 있습니다. 미국에서는 백악관이 연방 기관 내에서 AI 도구의 책임 있는 사용을 보장하기 위해 대통령령을 발표했습니다. 마찬가지로, 유럽 의회는 인공지능의 여러 측면을 규제하는 법률을 승인했습니다.

5. 유럽 의회의 AI 법규에 의해 금지된 행위들은 어떤 것들이 있나요?
유럽 의회가 승인한 법률은 인간 행동 조작이나 취약점 이용 등을 금지합니다. 민감한 특성을 기반으로 한 생체 분류 시스템의 사용과 CCTV 영상 및 웹에서 얼굴을 비목표화한 스크래핑하는 것을 금지합니다. 또한, 그 법률은 딥페이크와 기타 AI 생성 콘텐츠의 명확한 레이블링을 요구합니다.

**관련 링크:**
– OpenAI
– Google
– Anthropic
– UK Government
– US Department of Commerce
– White House
– European Parliament

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact