
NVIDIA($NVDA)、2ダイ構成の新型GPU「Blackwell」発表:AI学習4倍、推論30倍の性能向上とのこと
こんにちは!個人投資家のTAKA Chanです。
2024年3月19日、NVIDIAは年次開発者会議「GTC 2024」にて、AI向け次世代GPUアーキテクチャ「Blackwell」を発表。
従来のHopperアーキテクチャと比較して、AI学習性能は最大4倍、推論性能は最大30倍に向上するとの事。
少し記事などを確認してみました。
それではどうぞ!
この記事の大まかなポイントは以下です。
Blackwellは、10TB/sのNV-HBIで接続された2つのダイから構成され、192GB HBM3eメモリを搭載し、最大20PFLOPSの性能を実現。
AI学習性能は前世代と比べ4倍、AI推論性能は30倍に向上。電力効率も25倍改善。
NVLinkの帯域幅が倍増し、第5世代で1.8TB/sに。576GPUまでスケールアップ可能。
2基のB200と1基のNVIDIA Arm CPU(Grace)を組み合わせたGB200も発表、AI学習と推論性能が大幅に向上。
製造プロセスはTSMC 4NPを採用し、メモリ容量と帯域幅も大幅に増加。
新しいInfiniBandとEthernetソリューションを通じて、最大10万基のGPUを連携可能なスーパーコンピュータ構成を可能に。
2024年中にB200やGB200搭載システムの投入予定、主要クラウドサービスプロバイダーやサーバー機器ベンダーから提供される。
簡単にまとめ
Blackwellの主な特徴
2ダイ構成: 1つのパッケージに2つのGPUダイを搭載することで、処理能力を大幅に向上
新しい演算器: AI処理に特化した新しい演算器「Tensor Core」を搭載
高速メモリ: HBM3メモリを搭載し、従来のHBM2メモリよりも2倍の帯域幅を実現
電力効率の向上: 前世代と比べて電力効率が25%向上
Blackwell製品ラインナップ
Blackwell B200: データセンター向けハイエンドGPU
Blackwell GB200: B200とNVIDIA Arm CPU「Grace」を組み合わせたモジュール
最後に
Blackwellの登場は、AI分野に大きな変革をもたらすと期待されています。特に、大規模な言語モデルの学習や、リアルタイムのAI推論など、これまで以上に高い処理能力が求められる分野で大きな威力を発揮するでしょう。
いいなと思ったら応援しよう!
