AI産業の専門家らは内部告発者保護を求める

AI従業員と卒業生が告発者に関する懸念を表明
Anthropic、OpenAI、Google DeepMindなどの人工知能(AI)組織での経験を持つ一群の個人が、AI技術に関する安全上の懸念を提起する従業員の取り扱いに不安を表明しました。彼らはオープンレターで、業界が包括的な告発者保護とオープンな批評原則の支持を必要としていることを強調しています。

安全上の問題が増加する中でのオープンな異論支持
公開されているこの文書は、AI企業における批評の抑制と監督の不足を強調しており、これはAIに関する安全上の懸念が高まる中で起こっています。署名者たちは現在および過去の従業員が匿名で問題を開示できる信頼性のある経路の構築、非中傷条項への移行、告発者に報復しないことにコミットすることを求めています。

著名なAI専門家からの支持
Yoshua Bengio、Geoffrey Hinton、Stuart Russellなどの有名人から署名されたこの文書は、違法活動よりも未規制のAI安全上のリスクに焦点を当て、この分野内での告発者に対する支持に関する高い懸念を示しています。

OpenAIが新セキュリティチームで対応
“Superalignment”チームを解散したOpenAIは、AIに関連する長期的リスクを調査することに専念していたチームで、いくつかの辞任を引き起こしました。これには共同創業者のIlya Sutskeverも含まれます。これに応じて、CEOのSam Altmanの指導の下で、OpenAIは新しいセキュリティに焦点を当てたグループを設立しました。プロフェッショナルからのオープンレターは、製品開発が会社内で安全性と倫理的考慮よりも優先されるという、重要な文化的変化を示しています。

Privacy policy
Contact