見出し画像

日本で進化するGPUクラウド:GMOが切り拓くAIデータセンターの最前線

この記事では、日本におけるGPUクラウドの整備状況と、それを支えるAIデータセンターの詳細が紹介されています。特にGMOインターネットグループが、NVIDIAの「H200」GPUを利用したGPUクラウドサービスを2024年11月に開始する計画や、その背後にある技術的取り組みが取り上げられています。

概要とポイント

  1. 日本におけるGPUクラウドの整備

    • 日本でも生成AIに必要なGPUクラウドの整備が進んでおり、経済産業省が支援する7社の一つとして、GMOインターネットグループが取り組んでいる。

    • GMOはNVIDIAのAI用GPU「H200」を搭載したクラウドサービスを提供予定であり、福岡市にあるデータセンターで導入が進行中。

  2. GMOの具体的な取り組み

    • GMOはDell Technologiesの「Dell PowerEdge XE9680」GPUサーバーを96台導入し、1台あたりH200を8個搭載している。空冷方式での冷却を採用しているが、消費電力や冷却に対する技術的な課題がある。

    • 1ラックあたり20kWを超える消費電力に対応するため、データセンター事業者QTnetと協力して対策を講じている。

  3. 技術的な要素

    • GPUクラウドの構築において、複数個のGPUを高速ネットワークで接続する技術が重要であり、GMOは400GbpsのNICを搭載し、768個のGPUが相互接続されている。

    • ジョブスケジューリングにはオープンソースソフトウェア「Slurm Workload Manager」を使用し、高性能コンピューティング(HPC)に対応している。

  4. 競合他社の取り組み

    • 日本では他にもさくらインターネットが大規模なGPUクラウドを整備中で、2027年までに約1万個のGPUを導入予定。

    • 海外ではOracleが特に積極的にGPUクラウドに取り組んでおり、2025年には次世代GPU「B200」を採用したクラウドサービスを開始予定で、最大2.4ZFLOPSの処理能力を目指している。

  5. 未来の展望

    • GPUクラウドは、日本国内外で急速に規模が拡大しており、次世代GPUやAIデータセンターの技術的進歩が進行中。特にOracleが示すように、膨大な処理能力を持つクラウドが今後も増加していく見通し。

このように、日本でもGPUクラウドの整備が急速に進んでおり、GMOをはじめとした企業がその基盤を支えるデータセンターの構築や、技術的な課題の克服に取り組んでいます。


いいなと思ったら応援しよう!