AI技術の軍事利用の禁止が解除される

OpenAIは、ChatGPTを提供する企業であり、最近、その利用ポリシーを変更し、人工知能技術の軍事目的での使用を禁止しなくなりました。初期のポリシーでは、「兵器開発」や「軍事および戦闘」を含む身体的な害に関わる活動を明示的に禁止していました。これにより、この技術は、アメリカ国防総省などの組織が利用することはできませんでした。

しかし、更新されたポリシーでは、軍事利用の禁止に関する文言が緩和されました。AIを自己や他人に害を与えるための使用は引き続き禁止されていますが、「軍事および戦闘」に関する広範な禁止は撤回されました。OpenAIは、この更新はポリシーページ全体の大幅な書き直しの一環であり、より読みやすく、サービスに特化したガイダンスを含んでいると主張しています。

改訂されたポリシーでは、イノベーションと創造性の最大化、法令の遵守、害の回避の重要性を強調しています。OpenAIは、利用者がこれらの原則に従う限り、サービスを自由に活用できるべきだと考えています。このポリシー変更の影響はまだ不確定です。

OpenAIは以前に、自社技術の軍事利用に関するリスクを認識しています。OpenAIの研究者によって共同執筆された2022年の研究では、ChatGPTなどの大規模な言語モデルを戦争に使用することの潜在的な害を強調していました。さらに、ChatGPTのようなAIツールは操作に対して脆弱であり、サイバー攻撃のための悪意のあるコードを生成する可能性があります。

OpenAIの利用ポリシーから「軍事および戦闘」という用語が削除されたことにより、技術が軍事的な文脈で使用されることの倫理的な問題が懸念されています。批判者は、AIシステムの戦闘での使用は既に市民への害をもたらすことが多く、議論の的となっている時期に、この決定が行われたと指摘しています。OpenAIはまだこのポリシー変更についてコメントを提供していません。

The source of the article is from the blog dk1250.com

Privacy policy
Contact