OpenAI, 인공지능 기술의 군사적 사용 금지 해제

OpenAI, ChatGPT를 개발한 회사가 최근 사용 정책을 변경하여 인공지능 기술의 군사적 목적으로의 사용을 금지하지 않게 되었습니다. 초기 정책은 “무기 개발”과 “군사 및 전쟁”을 포함한 물리적 손해가 발생하는 활동을 명시적으로 금지했습니다. 이로 인해 미국 국방부와 같은 주체는 해당 기술을 사용할 수 없었습니다.

하지만 이번 개정된 정책에서는 군사적 사용에 대한 금지에 대한 언어를 완화하였습니다. 인공지능을 자신이나 타인에게 해를 입히는 용도로 사용하는 것은 여전히 금지되어 있지만, 이전에 명시된 “군사 및 전쟁” 사용에 대한 전면 금지는 제거되었습니다. OpenAI는 이 업데이트가 정책 페이지를 보다 가독성 있게 재작성한 일환으로 이루어졌으며 해당 서비스에 대한 안내가 포함되었다고 주장합니다.

개정된 정책은 혁신과 창의성을 극대화하고, 법에 준수하며 해를 피하는 것의 중요성을 강조합니다. OpenAI는 사용자들이 이러한 원칙을 준수한다면 자유롭게 서비스를 활용할 수 있어야 한다고 믿습니다. 이 정책 변경의 영향은 아직 불확실합니다.

OpenAI는 과거에 기술의 군사적 응용에 따르는 위험성을 인정해왔습니다. 2022년에 OpenAI 연구자들과 공동 저술된 연구는 ChatGPT와 같은 대형 언어 모델의 군사적 사용이 잠재적인 피해를 일으킬 수 있다고 강조했습니다. 또한 ChatGPT와 같은 인공지능 도구는 조작에 민감하며 사이버 공격을 위한 악성 코드 생성 가능성이 있습니다.

OpenAI의 사용 정책에서 “군사 및 전쟁”이라는 용어의 제거는 기술이 군사적 상황에서 사용될 수 있는 윤리적 함의에 대한 우려를 불러일으킵니다. 비평가들은 이 결정이 이미 논란이 되고 있는 군사적 AI 시스템의 사용으로 인해 민간인에게 피해가 발생하는 시점에서 이루어진 것이라고 주장합니다. OpenAI는 아직 이 정책 변경에 대해 입장을 밝히지 않았습니다.

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact