잠재적 위험에 대응하기 위한 AI 안전 규제 강화를 요구하는 호소

인공지능 안전 보장이 우선 사항이어야 합니다

인공지능 커뮤니티 내에서 탁월한 과학자이자 활동가인 맥스 테그마크가 최근에 이루어진 인공지능 정상회담에서 여전히 인류에게 존재론적 위험을 불러일으킬 수 있는 인공지능이 제기하는 중대한 위험에 대해 발언했습니다. 한국 서울에서 개최된 AI 정상회담에서, 그는 기술 기업들이 전 세계적인 초연속 수준의 위협으로의 초점을 옮기는 데에 대한 우려를 표현하며, 필요한 엄중한 규제를 시행함에 늦어진 것을 암시했습니다.

핵 기술과의 역사적 유사성

테그마크는 인공지능 안전을 요하는 시급성을 보여주기 위해 핵 기술에 대한 진보에 역사적 유사성을 드러냈습니다. 1942년 에니코 페르미가 최초로 자체 영속적인 핵 연쇄 반응을 시작했을 때의 역사적 순간을 상기시키며, 이러한 전환점을 핵무기 개발의 선행지로 인정했습니다. 테그마크는 이를 사용하여, 인공지능의 발전, 특히 튜링 테스트를 통과할 수 있는 모델들이 미래에 제어하기 어려울 수 있는 AI의 가능한 지그기를 암시하는 전조신호라고 강조했습니다.

인공지능 개발에 대한 유예 기간 옹호

작년, 테그마크의 비영리 단체인 Future of Life Institute은 이러한 두려움으로 인해 고급 인공지능 연구에 대한 6개월 유예를 요구하는 청원을 주도했습니다. 제프리 힌턴(Geoffrey Hinton)과 요슈아 벵지오(Yoshua Bengio)와 같은 전문가의 수천 개의 서명에도 불구하고 일시 중단에 합의되지 않았습니다. 대신, 테그마크는 산업의 로비활동이 기업의 이 리스크에 대한 논의를 약화시킨 것으로 주장했는데, 이는 담배 산업이 흡연의 건강 위험으로부터 주목을 돌려온 것과 유사합니다.

실행 가능한 규제의 필요성

서울에서 개최된 AI 정상회담에서, 세 개의 “고위” 그룹 중 단 하나만 전체 범위의 AI 위험에 직면하고 있는 것에 대응하는 실행 가능한 규제를 직접 다루었습니다. 테그마크는 이러한 위험 요소들의 완화에는 정부로부터의 실행 가능한 규제가 필요하다고 강조하며, 기술 지도자들이 산업압력으로 인해 묶여 있어서 행동하지 않는 것을 극복하기 위한 유일할 수 있는 길로 보고 있습니다.

인공지능 안전과 윤리적 함의

AI 커뮤니티가 점점 복잡하고 능력 있는 AI 시스템의 빠른 발전에 대처하는 가운데, AI 안전 보장 문제는 극히 중요해졌습니다. 주요 AI 연구자들과 윤리학자들은 AI 발전의 의도된 결과와 의도하지 않은 영향 사이의 양립을 예방하려면 사회에 부정적인 영향을 방지할 수 있도록 전적으로 다가가야 한다고 주장합니다.

기타 내용은 계속해서 진행하겠습니다.

The source of the article is from the blog krama.net

Privacy policy
Contact