新たなる一歩:ジェネレーティブ人工知能におけるGoogleのオープンソースツール

Googleは今年、従来のクローズドソースアプローチから逸脱し、ジェネレーティブ人工知能プロジェクトやインフラのサポートを目的としたオープンソースツールの一連を導入することで斬新な一手を打った。この方針転換は、開発者への好意を育むと共に、生態系の野心を推進する会社の大きな前進を示している。

Googleが発表した注目すべきツールの一つには、MaxVarietyがあり、様々な拡散モデルのリファレンス実装が含まれている。これらのモデルは、画像生成器であるStable DiffusionなどがXLAデバイス上で稼働するように設計されている。XLA(Accelerated Linear Algebra)は、AIの特定のワークロード(ファインチューニングやサービングを含む)を最適化し加速化する技術を指し、Googleのテンソル処理ユニット(TPU)と最新のNvidia GPUがXLAデバイスに該当する。

加えて、Googleはジェットストリームを導入し、特にテキスト生成モデルを稼働させるように設計されたエンジンだ。現在はTPUをサポートしているが、将来的にはGPUとの互換性も期待されている。ジェットストリームは、GoogleのGemma 7BやMetaのLlama 2などのモデルに関して、モデルごとに高いパフォーマンスを提供し、3倍のパフォーマンス向上を実現している。この向上したパフォーマンスは、コスト効率の高い推論スタックを求める顧客にとって重要である。

「ジェットストリームは大幅なパフォーマンス向上を提供していますが、その3倍の向上に関する具体的な詳細は不明なままです」とGoogle CloudのGMであるMark Lohmeyerは述べている。TPUの生成、比較ベースライン、およびパフォーマンスの定義に関する疑問が提起されている。Googleにさらなる明確化のために問い合わせが行われている。

MaxTextは、Googleのオープンソース貢献のさらなる追加であり、TPUやNvidia GPUをターゲットとするテキスト生成AIモデルのコレクションである。Gemma 7B、OpenAIのGPT-3、Llama 2、およびMistralのモデルがMaxTextに統合されている。これらのモデルは、開発者の特定のニーズを満たすためにカスタマイズやファインチューニングが可能となっている。Googleは、TPU上での性能を最適化し、Nvidiaと協力して大規模GPUクラスターでの性能向上に貢献し、より高いエネルギー効率とコスト最適化を実現している。

AIスタートアップであるHugging Faceとの協力により、Googleは特定のAIワークロードのTPU上でのデプロイメントを容易にするOptimum TPUを作成している。主な目的は、特にTPUハードウェア上でのテキスト生成モデルの採用の障壁を下げることである。現在、Optimum TPUはGemma 7Bのみをサポートしており、TPU上でのジェネレーティブモデルのトレーニングはまだサポートされていない。しかし、Googleは改善策が見込まれていると保証している。

これらのGoogleのオープンソースツールは、ジェネレーティブAI分野を革新し、開発者が新しい可能性を探求する力を与える可能性がある。強力なAIモデルやインフラへのアクセスを開放することで、Googleは開発者コミュニティ内でのイノベーションと協力を実現している。継続的な改善と進化が約束された中で、ジェネレーティブAIの開発には期待が寄せられる。

よくある質問

MaxVarietyとは何ですか?
MaxVarietyは、XLAデバイス上で実行される拡散モデルのリファレンス実装のコレクションです。これらのモデルは、ファインチューニングやサービングを含む特定のAIワークロードを最適化し加速します。

Jetstreamとは?
Jetstreamは、Googleが開発したジェネレーティブAIモデルを特に稼働させるためのエンジンです。1ドルあたりのパフォーマンスが向上し、現在はTPUをサポートしており、将来的にはGPUとの互換性が期待されています。

TPU上でのジェネレーティブモデルのトレーニングは可能ですか?
現時点では、Optimum TPUはTPU上でジェネレーティブモデルを実行するのみをサポートしています。TPU上でのジェネレーティブモデルのトレーニングはまだサポートされていませんが、将来的に利用可能になる可能性があります。

参考情報:
TechCrunch

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact