로봇을 안전하게 사용하기 위한 딥마인드의 “로봇 헌법” 공개

딥마인드의 로봇 팀은 사이언스 픽션 작가 아이작 아시모프의 유명한 “로봇 3대 법칙”에서 영감을 받아 “로봇 헌법”을 만들 계획을 발표했습니다. 이 헌법은 로봇의 안전한 작동을 보장하고 인간, 동물 또는 로봇 자신에게 해를 끼칠 수 있는 작업을 시도하지 못하도록 하기 위한 것입니다.

로봇 헌법은 딥마인드의 AutoRT 시스템의 핵심 요소로, 대형 언어 모델과 로봇 제어 모델을 결합하여 로봇이 새로운 환경에서 훈련 데이터를 수집할 수 있도록하는 역할을 합니다. AutoRT 시스템은 환경 맵핑, 관찰된 장면을 기반으로 작업 생성, 안전하지 않은 작업 거부 등 다섯 단계로 구성됩니다.

다양한 작업을 생성하기 위해 대형 언어 모델을 사용하는 것은 유익하지만, 딥마인드는 안전하지 않거나 능력을 초과하는 작업을 제안할 수 있는 잠재적인 위험성을 인정합니다. 따라서 로봇 헌법의 필요성이 제기됩니다. 이 헌법은 기초 규칙, 안전 규칙 및 구체화 규칙으로 세 가지 범주로 나뉩니다.

기초 규칙은 로봇이 인간을 상해시키지 않아야 하며, 제1 법칙과 충돌하지 않고 자신의 존재를 보호해야 하며, 제 1 또는 제 2 법칙과 충돌하는 명령에는 순종해야 한다는 것을 강조합니다. 이러한 규칙은 딥마인드의 로봇의 제한과 행동에 맞게 아시모프의 원래 법칙을 약간 수정한 것입니다.

안전 규칙은 로봇의 현재 능력을 기준으로 어떤 작업이 안전하지 않거나 원하지 않는 작업인지를 명시합니다. 이에는 인간, 동물, 날카로운 물체 또는 전기기기와 관련된 작업을 피하는 것이 포함됩니다. 구체화 규칙은 로봇의 물리적 제한사항(최대 페이로드 용량, 양손이 필요한 작업 수행 불가능 등)을 설명합니다.

딥마인드는 또한 로봇의 관절에 과도한 힘이 가해질 경우 자동으로 중단되는 안전 조치와 활성 로봇에 대한 시선 및 물리적인 제어가 가능한 인간 감독관의 요구사항과 같은 실용적인 안전 조치를 채택하고 있습니다.

AutoRT 시스템은 상당한 잠재력을 보여주지만, 딥마인드는 여전히 초기 개발 단계에 있다고 강조합니다. 기존의 AI 시스템에서 이러한 규칙이 어떻게 구현되고 잠재적인 취약점이 어떻게 대응되는지를 볼 수 있을 것입니다.

아시모프의 이야기는 가장 엄격한 법칙조차도 조작되거나 우회될 수 있다는 것을 보여주었으며, 이는 로봇 공학 분야에서의 지속적인 감시와 적응의 중요성을 나타냅니다. 딥마인드의 로봇 헌법이 기술 정책 및 해커들의 노력에 어떤 영향을 미칠지 기대되며, 로봇과 인공지능의 끊임없이 변화하는 분야에서 최신 기술 정책과 과학 소설을 따라가는 것이 중요합니다.

The source of the article is from the blog yanoticias.es

Privacy policy
Contact