글로벌 테크 거물들, 긴급 AI 중단 전략에 합의

주요 기술 기업 및 정부들이 AI 안전 장치를 확립하기 위해 결합. 마이크로소프트, OpenAI, Anthropic 등 기술 산업의 거인들과 추가적으로 13개 기업이 선도적인 정책 프레임워크에 합의했습니다. 새로운 AI 모델 개발 중 발생할 수 있는 runaway 상황 방지를 위해 ‘터미네이터’와 비슷한 잠재적인 재앙 상황을 방지하기 위해 진행을 중단할 것을 합의했습니다.

AI 위험 완화를 위한 지속적인 노력. 이 합의는 서울에서 도달되었으며, 기관 및 정부 대표들이 AI 개발에 대한 방향을 결정하기 위해 회의를 갖었습니다. 이 합의는 “킬 스위치”에 중점을 두며, 가장 첨단 AI 모델들이 미리 정의된 위험 한계를 넘어설 경우 진행을 중단할 것에 동의했습니다.

구체적인 조치 및 명확성의 부재. 이러한 합의에도 불구하고, “위험한” 한계의 구체적인 정의나 킬 스위치를 활성화하는 요건이 부재하는 점에 유의해야 합니다. 이러한 문제로 인해 정책의 이행 가능성과 효과성에 대한 의문이 제기됩니다.

야후 뉴스가 수집한 보고서에 따르면, 극단적인 상황에서 조직들은 제어 수단이 부족한 경우 새로운 AI 모델을 출시하지 않을 것입니다. Amazon, Google, 삼성과 같은 주요 기업들 또한 해당 이니셔티브를 지원할 것임을 서약하여 산업 전반에 걸친 합의를 보여주고 있습니다.

Unboxholics에 보도된 전문가들과의 토론을 통해 인공지능에 대한 중대한 위험성이 강조되어 해당 통합 결정이 이루어졌습니다. 이러한 움직임은 AI가 다양한 직업 부문에서 인간을 대체할 수 있는 잠재력에 대해 경고한 유명한 학자 Geoffrey Hinton의 예측을 반영하고 있으며, 이는 노동력 역학의 근본적인 변화를 시사합니다.

AI 긴급 중단 전략을 둘러싼 중요한 우려와 도전:

1. “위험한” 한계 정의하기: AI가 계속 개발될 때 언제 위험한 수준에 도달하는지를 결정하는 정확한 매개변수를 설정하는 것이 주요 과제입니다. 명확한 정의가 없으면 중단에 대한 합의가 주관적이고 해석에 따라 다를 수 있습니다.

2. 이행 가능성: 특히 AI를 위한 전역적인 규제 프레임워크가 부족한 상황에서 모든 당사자가 중지 합의에 따르도록 하는 것이 문제가 될 수 있습니다.

3. 기술적 능력: 킬 스위치 자체의 실행 가능성은 복잡한 작업인 AI 시스템에 신뢰할 수 있는 메커니즘을 구축해야 하는 기술적 문제입니다.

4. 경쟁적 압력: 대항기가 그렇지 않을 경우 연구를 중지하거나 감퇴하길 꺼릴 수 있기 때문에 기업들이 AI 개발 경쟁에 투입할 수 있습니다.

5. 데이터 개인 정보 보호 및 보안: 고급 AI 시스템은 방대한 양의 데이터를 처리할 수 있으며, 그들의 급작스런 중지는 데이터 개인 정보 보호 및 보안 위험을 초래할 수 있습니다.

The source of the article is from the blog combopop.com.br

Privacy policy
Contact