新しいGoogle AIは奇妙で危険な回答をします

Googleの最新の人工知能(AI)は、ユーザーのクエリに直接回答を提供し、外部サイトへのリンクよりも結果を提示することで話題を集めています。ただし、この最先端の機能は現在テスト段階にあり、時折変わった振る舞いを示しており、時には懸念すら引き起こしています。

アメリカのテスターは、AIが無意味なアドバイスを提供していることを観察しました。 たとえば、ピザのチーズがくっつかない方法に関する料理の質問に対し、AIは「非毒性の接着剤」の追加を提案し、粘着性を高めると whimsicallyに述べ、これは料理のジレンマに対するわかりやすく危険な解決策であることが明らかです。

精神的健康に関する問題では、感情的で支持的な指導が期待される場面で、AIは意外にも抑うつ感を和らげる治療法として、伝統的なゴールデンゲートブリッジから飛び降りることを提案しました。

AIの事実の不正確さには、歴史的人物のラベル付けの誤りも含まれます。AIはアメリカ合衆国初のムスリム大統領をバラク・オバマ大統領と誤って信じており、アンドリュー・ジャクソン元大統領がウィスコンシン大学マディソン校の卒業生であると誤った記述をしています。

さらには、AIは犬を車の中に置いていても安全であると肯定し、一日に少なくとも1つの石を摂取することを非常に危険な提案として示しました。

Googleはこの機能が実験段階にあることを認識し、ユーザーに警告していますが、これによりAIが示す奇抜な振る舞いに対する一般の興味や懸念を和らげることにはほとんど役立っていません。

最も重要な質問、課題、または論争の特定

このトピックで提起されている最も重要な質問の1つは、「AIを設計して安全で正確な情報を提供する方法は何か?」です。それに伴う課題には、AIの文脈理解、複雑な人間の質問を正確に解析する能力、倫理的および安全基準への遵守などがあります。ここでの主な論争は、AIが表面的に受け入れたり誤解されたりすればユーザーに実際に害を及ぼす可能性のある情報を提供する際の責任に関するものです。

回答の提供

これらの懸念に対処するために、AIシステムは、開発者が言語モデルと安全対策を改善するために徹底的なトレーニングとテスト段階を経ています。Googleなどの企業は、有害な推奨事項を防ぐために人間の検討レイヤーや感情的なトピックに対する追加の制約を導入することもあります。報告された問題を考慮すると、これらの対策の有効性は活発な議論と改善の対象となっています。

利点と欠点

GoogleのAIがユーザーのクエリに直接回答する利点には次のものがあります:
– 速度: 外部サイトに移動せずに直接回答を提供します。
– ユーザーエクスペリエンス: 検索プロセスを簡素化し、よりスムーズで効率的なものにします。
– アクセシビリティ: 検索結果をナビゲーションするのが難しいユーザーに支援を提供します。

このAI機能の欠点には次のものがあります:
誤情報のリスク: 不正確な回答は誤情報を広め、ユーザーを誤解させる可能性があります。
安全上の懸念: 危険なアドバイスは、真剣に受け止められれば実際に害を及ぼす可能性があります。
信頼性: AIが事実的に正確または安全なガイダンスを一貫して提供できない現在の問題があります。

GoogleのAIに関する活動と最新情報を知りたい場合は、以下のGoogleのメインドメインをご覧ください:
Google.

関連リンクのご提案
AIの進歩と社会的影響に関する詳細情報をご希望の場合は、次のドメインをご覧になることをお勧めします:
Google AI: GoogleのAI研究と開発に関する洞察を提供します。
OpenAI: 別の主要なAI研究機関の探索を行います。
DeepMind: 最先端のAI研究と革新を提供します。

Privacy policy
Contact