이전 OpenAI 직원들이 더욱 윤리적인 AI 실천을 주장합니다.

OpenAI의 전직 직원들의 그룹은 저명한 인공지능 선구자 Jeffrey Hinton의 지지를 받아, 고급 인공지능 기업 내에서 비평 억압에 대한 우려를 제기했습니다. 13명의 서명자들은 6명의 익명을 선택한 사람들을 포함하여 공개 서한에서 산업 내에서 개방적 비판 원칙의 필요성을 강조했습니다. 이들은 해당 기업들이 폄향 금지 조항을 포기하고 익명, 검증 가능한 시스템을 촉구해야 한다고 주장했습니다.

서한의 저자들은 인공지능의 잠재적 사회적 이익을 믿지만, 그 위험요소에 대해 경계하고 있습니다. 그 위험은 불평등을 심화시키고, 잘못된 정보를 퍼뜨리며, 인류에 대한 존속적 위협까지 초래할 수 있는 것들을 포함합니다. 장기적 위험에 대한 우려가 있음에도 불구하고, 오늘날의 생성적 인공지능은 저작권 침해부터 문제가 되거나 불법 이미지가 무의도하게 유포되는 등의 실질적인 문제에 직면하며, 속일 가능성과 대중 혼란이 높아지고 있습니다.

서한은 현재의 고발자 보호가 불법 행위에 주로 초점을 맞추고 있는데, AI와 관련된 비윤리적 문제에 대한 부분을 감당하지 못하고 있다는 점에 의문을 제기합니다. 서명자들은 방어의 다양한 형태에 우려하고 있으며, 이는 비평자에 대해 차별 및 보복을 법적으로 막아주는 보호조항이 있음에도 불구하고, 이 산업 역사의 사례들을 고려할 때 정당한 두려움입니다.

OpenAI 자체가 부족한 안전 감독으로 비판 받아왔습니다. 한편 Google과 같은 기술 거물들은 때때로 위험한 결과가 있음에도 불구하고 연구에서 인공지능 개요의 사용을 옹호하며, Microsoft는 Copilot Designer로 불쾌한 콘텐츠를 만들어내는 데 대해 비판을 받고 있습니다.

뿐만 아니라, OpenAI의 전문 안전팀과 공동 창립자인 Ilya Sutskever의 사임은 회사 내 AI 안전 문화의 상태를 어둡게 묘사하고 있습니다. 전 연구원 Jan LeCun은 회사의 초점이 적절한 안전 프로토콜을 희생하고 화려한 제품으로 이동하려는 방향으로 바뀔 수 있다는 우려를 표현했습니다. 이에도 불구하고 OpenAI는 Sam Altman CEO가 이끄는 새로운 안전 팀을 설립하면서 생존하고 있습니다.

윤리적 AI 실천의 중요성
윤리적 AI 실천과 관련된 가장 중요한 질문 중 하나는 “왜 AI 기업이 윤리적 우려사항을 공개적으로 논의할 수 있는 환경을 육성하는 것이 중요한가?” 에 대한 대답이 사회에 미치는 AI 기술의 깊은 영향과 긍정적 발전 및 부정적 결과의 진정한 잠재력에 있다는 점입니다. AI 개발에서의 윤리적 실천은 이러한 기술이 사회에 이익을 줄 뿐만 아니라 사람들의 삶을 해치거나 기존 사회 문제를 악화시키지 않도록 보장합니다.

주요 도전과 논란
보다 윤리적인 AI 실천을 보장하는 데 관련된 도전에는 상업적 이익과 윤리적 고려 사항 간의 긴장 해소, 신속한 혁신과 철저한 안전 평가 사이의 균형 찾기, 윤리적 문제에 이르는 효과적인 고발자 보호를 구현하는 것이 포함됩니다. 주요 논란은 일부 AI 기업이 투명하고 책임 있는 AI 개발보다는 이윤과 성장을 우선시할 수 있다는 인식을 중심으로 하고 있습니다.

장단점
윤리적 AI 실천을 촉진하는 것은 공공 신뢰 증대, AI 기술로부터 공정한 혜택을 보장하고 피해를 방지함 등 여러 가지 이점이 있습니다. 그러나 단점 중 하나는 혁신 속도를 늦추고 기업들의 경쟁력을 저해할 수 있는 가능성이 있습니다.

윤리적 AI 실천을 위해 조직 및 윤리적 AI 실천을 추진하는 연구 그룹에 대한 자세한 내용을 알고 싶다면, 다음 링크를 조사해보십시오:
Partnership on AI: AI의 이점과 도전에 대해 대중 이해와 대화를 증진하기 위해 학계, 비영리 기관 및 기업들과 협력하는 다부문 기구
AI 윤리 컨퍼런스: 다양한 이해관계자들의 기여로 AI의 윤리적 함의에 집중하는 연례 컨퍼런스
OpenAI: 비판을 받았지만 여전히 윤리적 AI 실천 주제 주변의 대화에 중요한 영향을 미치는 선도적 AI 연구 및 전개 기업
DeepMind: AI 연구 선두주자인 동시에 AI 윤리와 안전 문제에 관한 논의를 진행하는 기업

The source of the article is from the blog oinegro.com.br

Privacy policy
Contact