シリコンバレーブイエンターの内部者がAIの開発ペースを懸念

OpenAIの内部情報に明るい人々の間で緊張が高まっています。これらの内部者たちは、特に汎用人工知能(AGI)の追求において必要な安全対策が不十分であることについてますます懸念を表明しています。

これらの懸念の中心は、サム・オルトマン(Sam Altman)率いるチームが予想よりも早くAGIを達成しようとしていて、その過程で必要な安全プロトコルが整っていないという明らかな意図にあります。情報筋によれば、この追求がOpenAI内で重大な内部騒動を引き起こし、オルトマンの一時的な解任とその後の権力復帰をもたらしました。この一件により他のチームメンバーも徐々に去っていったと報告されています。

最近のThe New York Timesによる詳細な報道により、サンフランシスコに拠点を置く同社の企業文化が無謀さと秘密主義で特徴付けられていることが明らかになりました。AIシステムの最も強力な構築レースが着々と進行中です。現在および元OpenAI社員9人が、同社がそのシステムが危険になるのを防ぐために十分な措置を講じていないという共通の懸念を持って結集しています。

2022年にChatGPTをリリースしたことで知られるOpenAIは、元々非営利研究所として始まりましたが、その後利益と成長に焦点を移し、AGIを作成する取り組みの中で変化しています。OpenAIが離れる従業員の懸念を抑えるために強引な手法を使っているとの非難が浮上しています。これには、退職者向けの制限的な契約も含まれています。

AGI開発への懸念が業界の専門家たちに行動を促しています。 特に、元OpenAIガバナンス研究者であるダニエル・ココタイロ(Daniel Kokotajlo)は、潜在的な災害を回避することを目指すグループの中でリーダーの一人となりました。この団体は、OpenAIを含む主要企業に対して、より大きな透明性を採用し、告発者を保護するよう呼びかけるオープンレターを公開しました。

その他著名なグループメンバーとして、元OpenAI社員である研究者ウィリアム・ソーダース、および他の3人、カーラ・ワインエック、ジェイコブ・ヒルトン、ダニエル・ジーグラーが挙げられます。OpenAIからの報復を恐れた多くの人々が匿名でこの手紙を支持し、Google DeepMindの社員からも署名が集まっています。

OpenAIの広報担当者、リンジー・ヘルム(Lindsey Helm)は、同社が有能で安全なAIシステムを提供してきた歴史に誇りを持っており、技術に関連するリスクの管理について厳格な議論に取り組む姿勢を強調しています。一方で、Googleの広報担当者はコメントを控えました。

このキャンペーンは、OpenAIにとって脆弱な段階で浮上しており、物議を醸したオルトマン事件からまだ回復途上であり、著作権侵害の訴訟に直面しています。さらに、ハイパーリアルな音声アシスタントなど、最近の展示が女優スカーレット・ヨハンソンとの一連の論争で損なわれています。

AI研究者のイリヤ・スツケヴァーとヤン・ライケがOpenAIから辞任したことは、多くの人にとって組織の安全への取り組みが後退していると解釈されています。これらの離職は、他の元従業員が賛成者として発言し、責任あるAI開発の防衛で彼らの地位を高めるきっかけとなっています。”effective altruism” 運動に関連する元従業員は、人類の存続にとっての脅威を防ぐことを強調し、その分野を警告的と見なす人から批判を受けています。

2022年にOpenAIに研究者として参加し、AIの進展を予測する任務を担当していたココタイロは、最近の進展を目にし、最初は楽観的だった予測を修正し、2027年までにAGIが現れる確率を50%、高度なAGIが人類に対し破壊的もしくは有害な影響を及ぼす可能性を70%と推定しています。”Safety Review Council”との協力を含む安全プロトコルが整っているにもかかわらず、多くの製品がリリースの緊急性がリスク評価を上回っているとココタイロは指摘しました。

Privacy policy
Contact