アカシュが分散型GPUネットワークでAIクラウドコンピューティングを革新

クラウドスタートアップのアカシュは、スーパークラウドAIプラットフォームを導入し、AI業界を変革しています。この革新的なソリューションにより、企業は現在の不足を乗り越え、AIを民主化するために、リモートでGPUネットワークへアクセスすることができます。他のクラウドプロバイダとは異なり、アカシュはあらゆる種類のGPUをサポートするため、AI技術を活用する企業にとってよりアクセスしやすい選択肢を提供しています。

従来の大規模言語モデル(LLM)の実行や生成型AIシステムのトレーニングなどにおける技術要件や財務的な制約など、多くの組織が抱える問題を解決することができず、進展が妨げられてきました。企業はこれらのモデルを効果的にトレーニング・管理するために最高のGPUが必要とされます。Nvidiaは現在、ChatGPTなどの高度なAIワークロードを支えるA100のようなハイエンドGPUで業界をリードしています。しかし、需要の増加によりこれらのGPUの供給不足が生じています。

アカシュのスーパークラウドAIプラットフォームは、企業がリモートでGPUネットワークにアクセスできるようにすることで、この供給不足に対処しています。また、他の人々も自分のGPUを提供することができるため、AIコンピューティングには分散型のアプローチを採用しています。アカシュのCEO兼創設者であるグレッグ・オースリ氏は、このコンセプトが浸透すれば、AIの民主化につながる可能性があると考えています。

アカシュは「AkashML」という技術的に複雑な分散型クラウドコンピューティングプラットフォームを構築しています。彼らのソフトウェアはダッシュボードとして機能し、GPUを含む異種な計算リソースのネットワークを管理します。このアプローチにより、重いAIワークロードに対して低性能なGPUをまとめるという課題を克服しています。アカシュは、最適なパフォーマンスを確保するために、NvidiaのA100などの高性能GPUを優先しています。

スーパークラウドAIプラットフォームは、1,300人以上の参加者と3,100件以上の展開で成功裏にテストされています。アカシュは、既存のITスタックを強制的に交換するのではなく、開発者がアプリケーションをより制御できるようにすることで提供します。

AIのトレーニングに加えて、アカシュはネットワーク上の他のアプリケーションも探求しています。ビデオエンコード、ビジュアルアセットのレンダリング、モデリングのサポートを計画しており、汎用の計算ネットワークとして提供します。

現在、アカシュはすべてのNvidia GPUモデルをサポートし、将来的にはAMDのチップのサポートも追加する予定です。現在のスマートフォンやホームコンピュータの搭載GPUはAI/MLのトレーニングに最適化されていませんが、アカシュは将来的にはこの領域を探求する予定です。

分散型GPUネットワークを持つアカシュは、AIクラウドコンピューティングの新たな時代を切り開いています。アクセスを民主化し、開発者により多くの制御を提供することで、アカシュはAI業界を革新し、高度なAI機能をより広く利用できるようにしています。

The source of the article is from the blog jomfruland.net

Privacy policy
Contact