見出し画像

生成AIインフラGPUの限界、この限界を超える仕組みは2005年EDSFで未来予言

バリ島で王様主催のビーチ清掃時に日の出共に現れた「白龍」です。
バリ島の王様に相応しい白龍は、古代中国で、天上界の皇帝である天帝に仕えているとされた竜の一種です。

王様のサヌールビーチ
新生ニッポンの旗印
王様と私(黒のTシャツがグステ会長)


米国エヌビディアのGPUはエネルギー消費量がESG対応出なく、人類とは共存出来ないもので原発再稼働を誘引しリスクが増大して行きます。
アルゴリズム確定下後はASICとエッジAI半導体で分散処理の未来となります。
私が国家元首の軍師ならば、エヌビディア型GPU データセンターにはある規制を掛けます。

EDSF2005基調講演に加筆
AIサーバー採用デバイス比率
エヌビディアセグメント売上比率
ファウンドリ
HBM
DRAM

【GPUデータセンターの課題】
~引用~
松浦氏は、ここ1~2年ほどでGPUを中心とするAIインフラの課題が一気に顕在化し始めたと指摘する。特に、電力消費の増大に伴うGPUサーバーなどの冷却、AIインフラを運用するエンジニア人材の不足、そしてハードウェアの調達を挙げた。
まず冷却の課題は、大規模言語モデル(LLM)などAIのさまざまなモデル開発やデータの学習でGPUの電力消費や発熱量が増大化している背景がある。データセンターなどのサーバーの冷却は、冷気を機器に当てる空冷方式が一般的だが、AIを処理するGPUでは発熱量がより大きく、冷水を用いる水冷方式が必須だとされる。
また、主な水冷方式には、機器の内部に配置する冷水の流路管やヒートシンク(コールドプレート)を通してサーバーの発熱を吸収し、サーバーラックの外側(冷却塔など)で外気と熱交換を行う「Direct to Chip Liquid Cooling」(直接液冷)と、絶縁性質を持つ特殊な冷水で満たした容器の中にサーバー機器を置いて丸ごと冷却する「Immersion Cooling」(液浸冷却)の2つがある。
松浦氏によると、現時点では直接液冷が主流で、メーカーのAI向け新製品も水冷方式が標準になりつつある。しかしながら、現在稼働中のほとんどのデータセンターは空冷方式が前提であるため、水冷方式を標準で利用できるのは今後建設されるデータセンターや、既存のデータセンターの敷地内に増設可能なコンテナー型になるという。海外では、2024年が「水冷元年」とされ、日本では2025年以降になる見込みだそうだ。

【エヌビディアを迎え撃つ最強競合企業】
テクノロジー AIチップで沸騰! 半導体
ファーウェイ AIチップ「キリン」 米国と対峙可能な「東の横綱」=豊崎禎久
2020年1月27日


この記事が気に入ったらサポートをしてみませんか?