고급 AI에 대한 안전장치에 대한 긴급 필요성

최근 발표된 정부 위탁 보고서는 인공지능(AI)의 발전에 대응하기 위해 신속한 조치가 필요하다는 절박함을 강조했습니다. “고급 AI의 안전과 보안 강화를 위한 행동 계획”이라는 제목의 이 보고서는 고급 AI와 AGI(인공 일반 지능)의 출현이 전세계 안보에 심각한 위협을 제기할 수 있으며 잠재적으로 인류 멸종으로 이어질 수도 있다고 경고했습니다.

이 보고서는 Egladstone AI Inc.의 연구원들이 13개월에 걸쳐 정부 관계자, 주요 클라우드 공급업체, AI 안전 단체, 보안 및 컴퓨팅 전문가들을 인터뷰하며 이러한 중요한 문제를 다루는 청사진을 제안했습니다. 그들의 연구 결과는 AI의 급부상과 역사적으로 핵무기의 등장 사이의 유사점을 강조하여 전세계 안보를 불안하게 만드는 길을 열었습니다.

이러한 위험에 대응하기 위해 보고서는 임시 고급 AI 안전장치의 설정을 제안하고 이후에 법률로 확정하는 것을 제안했습니다. 한 가지 가능한 조치는 AI가 작동하는 컴퓨팅 파워를 규제하는 역할을 맡을 전용 AI 기관을 설립하는 것입니다. 게다가 AI 기업들은 특정 임계값을 초과하는 새로운 모델을 배치할 때 정부 허가를 필요로 할 수 있습니다. 보고서에서 제안한 다른 해결책 중 하나는 AI 모델이 어떻게 작동하는지를 제한하고 이 정보를 공개시키는 오픈 소스 라이선싱을 금지하는 것입니다.

AI 기술의 오용을 방지하기 위해 보고서는 AI 칩의 제조 및 수출을 통제하는 중요성도 강조하고 있습니다. 더 엄격한 규정을 시행함으로써 정부는 AI 기술의 무기화와 고급 AI 제어의 잃어버림을 완화하려고 합니다.

기술적 환경이 빠르게 변화하고 있으며 보고서 결과는 AI와 관련된 잠재적 위험에 대응하기 위해 즉각적인 조치가 필요함을 강조합니다. 전세계 정부와 기관들이 이러한 문제에 대처하는 가운데 견고한 안전장치와 국제 협력을 시행하는 것이 고급 AI의 안전과 보안을 확보하는 데 중요할 것입니다.

The source of the article is from the blog zaman.co.at

Privacy policy
Contact