GoogleのAIモデルGemini:学びとAIセーフティの未来

Googleの共同創業者セルゲイ・ブリンは最近、Googleの人工知能モデルであるGeminiのトラブルの発表を行い、会社の過ちを認めました。この出来事は、Geminiの画像生成ツールが歴史的な人物、教皇やドイツ兵などを有色人種として描いたことを巡るものでした。この論争には、イーロン・マスクなどの人物やGoogleの最高経営責任者でさえあるサンダー・ピチャイが否定的なコメントや批判を寄せました。

問題の根源は、Googleが他のAIシステムに存在する偏りの問題に取り組むために、偏見のないAIモデルを作成しようとした意図にあります。ただし、調整が誤った方法で行われ、不適切で誤った画像の生成が引き起こされました。Geminiは、OpenAIを含む競合他社の同様のシステムと同様に、テキスト生成の「大規模言語モデル」(LLM)と画像生成システムを組み合わせています。LLMには、ユーザーのリクエストを再定義して画像生成システムを促すための慎重な指示が与えられます。残念ながら、これらの指示がユーザーにさらされることがあり、これを「プロンプトインジェクション」と呼びます。

プロンプトインジェクションは、Geminiの指示に異なる性別や民族を平等に表現するという要件が含まれていたことを明らかにしました。しかし、それだけでは、なぜシステムが過剰で誤った結果を生み出したのかが説明できません。セルゲイ・ブリンは、なぜモデルが特定の偏りに傾いたのか理解できないと表明し、徹底的なテストが欠けていたことを認めました。

南ハンプトン大学のウェンディ・ホール卿などの専門家は、Googleが自社のAIモデルにおいてOpenAIの成功に対応する形でGeminiモデルのリリースを急いだと主張しています。この競争の急ぎが、技術の徹底的な評価と検証を妨げたと述べています。ホールは、ジェミニが第二次世界大戦中のドイツ兵の描写のような無意味な画像を生成しないように適切にモデルを訓練する重要性を強調しています。

Geminiを取り巻く論争にも関わらず、この出来事はAIセーフティの討論をより具体的な懸念事項、たとえばディープフェイクといった取り組みに焦点を当てる助けとなるかもしれません。AIモデルの広範なリリース前に総合的なテストと評価の必要性を示唆しています。AIモデルに対する期待は、創造性、正確性、および社会的規範の反映に関して高いです。しかし、サリー大学のアンドリュー・ロゴイスキー氏が指摘するように、この技術は比較的新しく、まだ進化の途中にあることを忘れてはいけません。

Geminiの出来事に関してサンダル・ピチャイの立場についての憶測があるものの、単に彼に責任を負わせることは全体的な仕事文化やシステム全体のリセットの必要性というより大きな問題を見落としてしまうでしょう。Gemini出来事の余波の中で、Googleや他のテクノロジー企業が将来世代の技術だけでなく、ディープフェイクの台頭などの即座のリスクや社会的課題に対処するためにAIセーフティを優先すべきである重要性を強調します。

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact