주요 기업의 AI 전문가들, 강화된 감시와 내부고발자 보호 요구

산업 종사자들, AI 위험에 대한 경고

주목할만한 인공지능 기관인 OpenAI와 Google DeepMind의 직원 및 전 직원들이 고급 AI 기술의 급속한 발전과 관련된 잠재적인 위험을 강조하는 공개 편지를 공유했습니다. 그들은 사회적 격차의 악화, 잘못된 정보의 육성, 인류 멸종 가능성을 포함한 위험을 완화하기 위해 효과적인 규제와 감시의 시급함을 강조했습니다.

윤리적 AI 개발을 요구하는 호소

우려하는 사람들은 AI 기업이 보호 조치의 보급과 위험 평가를 미뤄서 공개적으로 비판하지 못하고 있으며, 이에 대한 감독이 부족하다고 주장했습니다. 이러한 AI 전문가들은 이러한 기업을 책임 있게 다루기 위한 책임감이 있으며, 제한적인 비밀유지 협약을 집행하면서도 이러한 문제를 간과할 수도 있는 기업에 주의를 불러일으키는 존재감을 유지하려고 노력했습니다.

투명성 및 보호를 옹호하는 해설

그들의 단합된 의견은 결국 AI 기업이 AI 위험에 대한 경고를 제기하는 사람들에 대한 더 나은 보호책을 마련할 것을 촉구했습니다. 이는 비판을 침묵시키는 제한적인 협약의 작성을 삼가고, 직원들이 위험을 규제 기구에 보고할 수 있는 확인 가능한 익명의 절차를 마련하고, 비밀을 지키면서 공개 비판을 지원하고 장사 비밀을 지키며, 위험과 관련된 기밀 정보를 공개하는 직원들이 보복에 처하지 않도록 보장하는 조치들을 포함합니다.

이 편지를 지지한 OpenAI와 Google DeepMind의 현재 및 이전 직원들과 Google DeepMind의 인원으로 구성된 13명의 직원은 Apple이 최근에 OpenAI와 협력하여 iOS 18에 AI 기반 기능을 도입한다고 발표한 시기에 이 편지를 지지한 것입니다. 이러한 중요한 이동은 기술 거물들이 신중한 봉쇄 협약을 가하며 실제로 공개 비판을 물리치고 산업의 투명성에 대한 우려를 제기하는 시기에 이뤄졌습니다.

강화된 감독 및 고발자 보호의 장점:
– AI 배치의 의도하지 않은 결과로 인한 해로운 결과의 방지
– 윤리적 AI 개발 관행의 촉진
– AI 기술 및 이를 개발하는 기업에 대한 대중 신뢰 증진

강화된 감독 및 고발자 보호의 단점:
– 규제의 부담으로 인한 신속한 혁신 방해 가능성
– 전 세계적인 AI 감독을 위한 표준의 정의와 시행 어려움
– 기존의 비밀유지 협약과 기업 정책과의 잠재적인 충돌

이러한 우려에 대한 대응으로 산업 종사자들은 대중과 AI 전문가들을 위한 더 안전한 환경을 조성하려는 개혁을 제안했습니다. 그들이 원하는 개혁은 AI 개발의 투명성을 가져오는 것뿐만 아니라 부적절하거나 위험한 AI 적용을 지적하는 사람들이 보복에 처하지 않도록 하는 보호장치를 마련할 것입니다.

AI 감독 및 고발자 보호 주제의 논의와 업데이트에 관심 있는 독자들은 책임 있는 AI 개발을 위해 전념하는 단체의 웹사이트를 방문하여 이 특정 문제에 대해 논의했는지 확인할 수 있습니다.

– OpenAI: OpenAI
– Google DeepMind: DeepMind

The source of the article is from the blog foodnext.nl

Privacy policy
Contact