Google Cloud、AIハイパーコンピューターアーキテクチャを大幅強化、独自に開発したAI向けアクセラレータ Cloud TPU v5p の提供開始
Google Cloud は、AI ハイパーコンピューター アーキテクチャの全面的な強化を発表しました。Googleが独自に開発したAI向けアクセラレータTensor Processing Unit(TPU) 、Cloud TPU v5pの提供を開始しました。この強化により、開発者は、より迅速かつ効率的に、より高性能でコスト効率の高い AI ワークロードを構築、展開、実行できるようになります。
【主な強化点】
・パフォーマンスが最適化されたハードウェア:
■Cloud TPU v5p の一般提供開始:従来の TPU の 2 倍以上の性能
・NVIDIA H100 GPU 搭載 A3 Mega VM の一般提供開始:2 倍の GPU 間ネットワーク帯域幅
・NVIDIA Blackwell GPU の導入:リアルタイム LLM 推論と大規模なトレーニング向け
■AI ワークロード向けに最適化されたストレージ
・Cloud Storage FUSE の一般提供開始:2.9 倍のトレーニング スループット
・Parallelstore のキャッシュ機能のプレビュー提供開始:最大 3.9 倍のトレーニング時間の短縮
・Hyperdisk ML のプレビュー提供開始:モデル読み込み時間を最大 12 倍高速化
■オープンソフトウェアの進歩
・JAX と PyTorch/XLA のパフォーマンス向上
・新しい LLM 推論エンジン Jetstream の導入:1 米ドルあたり最大 3 倍のパフォーマンス
・NVIDIA とのオープン コミュニティ モデルのコラボレーション
■新しい Dynamic Workload Scheduler モード
・フレックス スタート モード:経済性を最適化
・カレンダー モード:ジョブの開始時間と期間を予測可能
■Google Distributed Cloud で、場所を選ばない AI を実現
・Gemma 搭載の生成 AI 検索パッケージ ソリューション
・パートナー ソリューションが拡張されたエコシステム
・新しいコンプライアンス認定
詳細内容は、Googleが提供する元記事を参照してください。
【引用元】
【読み上げ】
VOICEVOX 四国めたん/No.7