日本で進化するGPUクラウド:GMOが切り拓くAIデータセンターの最前線
この記事では、日本におけるGPUクラウドの整備状況と、それを支えるAIデータセンターの詳細が紹介されています。特にGMOインターネットグループが、NVIDIAの「H200」GPUを利用したGPUクラウドサービスを2024年11月に開始する計画や、その背後にある技術的取り組みが取り上げられています。
概要とポイント
日本におけるGPUクラウドの整備
日本でも生成AIに必要なGPUクラウドの整備が進んでおり、経済産業省が支援する7社の一つとして、GMOインターネットグループが取り組んでいる。
GMOはNVIDIAのAI用GPU「H200」を搭載したクラウドサービスを提供予定であり、福岡市にあるデータセンターで導入が進行中。
GMOの具体的な取り組み
GMOはDell Technologiesの「Dell PowerEdge XE9680」GPUサーバーを96台導入し、1台あたりH200を8個搭載している。空冷方式での冷却を採用しているが、消費電力や冷却に対する技術的な課題がある。
1ラックあたり20kWを超える消費電力に対応するため、データセンター事業者QTnetと協力して対策を講じている。
技術的な要素
GPUクラウドの構築において、複数個のGPUを高速ネットワークで接続する技術が重要であり、GMOは400GbpsのNICを搭載し、768個のGPUが相互接続されている。
ジョブスケジューリングにはオープンソースソフトウェア「Slurm Workload Manager」を使用し、高性能コンピューティング(HPC)に対応している。
競合他社の取り組み
日本では他にもさくらインターネットが大規模なGPUクラウドを整備中で、2027年までに約1万個のGPUを導入予定。
海外ではOracleが特に積極的にGPUクラウドに取り組んでおり、2025年には次世代GPU「B200」を採用したクラウドサービスを開始予定で、最大2.4ZFLOPSの処理能力を目指している。
未来の展望
GPUクラウドは、日本国内外で急速に規模が拡大しており、次世代GPUやAIデータセンターの技術的進歩が進行中。特にOracleが示すように、膨大な処理能力を持つクラウドが今後も増加していく見通し。
このように、日本でもGPUクラウドの整備が急速に進んでおり、GMOをはじめとした企業がその基盤を支えるデータセンターの構築や、技術的な課題の克服に取り組んでいます。