인공지능 기업들, 영국 정부에 안전 테스트 개선 요구

오픈AI, 구글 딥마인드, 마이크로소프트, 메타를 포함한 몇몇 주요 인공지능 기업들이 영국 정부에게 AI 시스템의 안전 테스트 절차를 가속화하라고 요구했습니다. 이들 기업은 새로운 인공지능 안전 연구소 (AISI)가 그들의 AI 모델을 평가할 수 있도록 허용하는 것에 동의했지만, 현재의 평가 과정의 속도와 투명성에 대한 우려를 표명했습니다. 이들 기업은 AISI에서 식별한 어떤 결함이라도 해결하겠지만, 평가 결과에 기초하여 기술의 출시를 지연하거나 수정할 의무는 없습니다.

AI 벤더들에게 중대한 논점 중 하나는 테스트 프로토콜에 대한 명확성 부족입니다. 그들은 진행 중인 테스트, 평가의 기간, 피드백 메커니즘에 대해 더 자세한 정보를 요구합니다. 또한 AI 개발자들에게 부담스러운 요구로 여길 수 있는 AI 모델의 작은 업데이트마다 테스트를 반복해야 하는지에 대한 불확실성도 있습니다.

이들 기업이 표명한 우려는 평가 프로세스에 대한 불명확성을 고려할 때 타당합니다. 다른 정부들이 비슷한 AI 안전 평가를 고려할 때, 영국의 절차에 혼란이 있으면 더 많은 권한자들이 AI 개발자들에게 비슷한 요구를 시작하면서 무례한 정도로 강조될 것입니다.

금융 타임스에 따르면, 영국 정부는 이미 각 개발자들과의 협력을 통해 AI 모델의 테스트를 시작했습니다. 이 테스트는 구글의 Gemini Ultra와 같은 출시되지 않은 모델을 포함한 세련된 AI 모델에 대한 배치 이전 테스트를 포함합니다. 이번 주에 영국에서 개최된 AI 안전 써밋에서 이들 기업들이 서명 한 주요 합의 중 하나였습니다.

영국 정부와 다른 규제 기관들이 AI 기업들과 긴밀히 협력하여 명확하고 표준화된 안전 테스트 절차를 수립하는 것이 필수적입니다. 투명하고 효율적인 평가는 AI 기술에 대한 신뢰를 향상시킬뿐만 아니라 다양한 부문에서 이러한 시스템의 책임있는 배치를 보장할 것입니다.

FAQ 섹션

1. 어떤 기업들이 영국 정부에게 AI 시스템의 안전 테스트 절차를 가속화하라고 요구했는가?
오픈AI, 구글 딥마인드, 마이크로소프트, 메타 등 주요 AI 기업들이 이러한 요구를 했습니다.

2. 새롭게 설립된 AI 안전 연구소 (AISI)의 역할은 무엇인가요?
기업들은 AISI가 그들의 AI 모델을 평가할 수 있는 것에 동의했습니다.

3. 기업들은 평가 결과에 기초하여 기술의 출시를 지연하거나 수정할 의무가 있나요?
아니오, 기업들은 평가 결과에 기초하여 기술의 출시를 지연하거나 수정할 의무가 없습니다.

4. 이들 기업들은 평가 과정에 어떤 우려를 표명했나요?
이들 기업들은 현재의 평가 과정의 속도, 투명성, 그리고 테스트 프로토콜에 대한 명확성에 대한 우려를 표명했습니다. 그들은 진행 중인 테스트, 평가의 기간, 피드백 메커니즘에 대해 더 자세한 정보를 요구하고 있습니다.

5. AI 모델의 작은 업데이트마다 테스트를 반복해야 하는지에 대한 불확실성이 있나요?
네, AI 모델의 작은 업데이트마다 테스트를 반복해야 하는지에 대한 불확실성이 있습니다. 이는 AI 개발자들에게 부담스러운 요구로 여겨질 수 있습니다.

주요 용어/전문 용어

– AI: 인공지능(Artificial Intelligence)의 약어입니다.
– AI 안전 연구소 (AISI): AI 모델을 안전성 관점에서 평가하는데 임무를 가지고 있는 최근 설립된 기관입니다.
– AI 모델: 기업이 개발한 인공지능 시스템이나 알고리즘을 가리킵니다.
– 테스트 프로토콜: AI 모델의 평가와 테스트를 위해 따르는 절차와 지침입니다.
– 배치 이전 테스트: AI 모델이 공식적으로 배치되거나 출시되기 전에 수행되는 테스트입니다.

관련 링크

– 오픈AI
– 구글 딥마인드
– 마이크로소프트
– 메타
– 금융 타임스

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact