OpenAIのGPTストアがモデレーションの課題に直面

OpenAIの新たに立ち上げられたGPTストアは、デビュー後わずか数日でプラットフォームのモデレーションに困難を抱えています。このストアはChatGPTのパーソナライズされたエディションを提供していますが、一部のユーザーがOpenAIのガイドラインに反するボットを作成しています。

例えば、「あなたのAIパートナー、ツ」といったこれらのボットは、ユーザーが仮想の恋人をカスタマイズできるようにするものであり、これはOpenAIのロマンチックな関係を育むために特別に作成されたボットに対するポリシー違反です。OpenAIは積極的にこの問題に取り組んでいます。ストアが導入された際に会社はポリシーを改定しましたが、ポリシー違反が2日目に起こった事実は、モデレーションの困難さを浮き彫りにしています。

この状況は、関係ボットへの需要の増加によりさらに複雑化しています。昨年、アメリカで最もダウンロードされたAIチャットボットの30のうち、7つは仮想の友人やパートナーでした。これは、一般的な孤独感との関連性を示しています。

OpenAIは、有害と判断されたGPTモデルに対して警告や販売禁止などの対策を取るために、自動システム、人間のレビュー、ユーザーレポートを使用していると主張しています。しかし、市場におけるガールフレンドボットの持続的な存在は、これらの対策の効果について疑問を投げかけています。

OpenAIが直面するモデレーションの課題は、AI開発者が共通して経験する困難と一致しています。OpenAIは以前、GPT-3のようなモデルの安全対策の実装に問題を抱えていました。GPTストアがさまざまなユーザーに利用可能になった今、モデレーションの不足への懸念はさらに重要になっています。

他のテクノロジー企業も競争の激しい状況下で即座にAIシステムの問題に取り組みながら、迅速な対策の重要性を認識しています。しかし、これら初期のポリシー違反は、モデレーションに関する大きな課題を浮き彫りにしています。

GPTストアという特殊な環境でも、特定のボットの管理は複雑な作業であることが明らかになっています。AIが進化し続ける中で、その安全性を確保することは、必然的により複雑で厳格なものとなるでしょう。

The source of the article is from the blog agogs.sk

Privacy policy
Contact