Cerebras Systems: IPOのタイミングを探るAIチップのユニコーン企業
米国時間の2024年9月30日(月)、GPUとは異なるアーキテクチャーにより、大規模言語モデルや生成AIモデルを高い省電力性能で高速に処理するシリコン・チップを開発する Cerebras Systems社 が米国証券取引委員会(SEC)に対して、新規株式公開を申請するにあたっての目論審査書類を正式に提出しました。
現時点では審査書類が提出されたのみであり、上場が確定している訳ではありませんが、この書類を通じては、彼らの直近の事業目論見や財務内容、経営陣や株主、そしてリスク要因などを確認できることから、ざっと一通り目を通し、主だったものを抽出してみましたのでご参考下さい。
尚、上場となった場合には、ティッカーシンボルは「CRBS」となる模様ですが、その時期、株式の株数や売り出し価格については今後、審査の進捗や市場環境次第としており、今後の幹事との協議を経て決定・アナウンスがなされるものと思われます。
彼らのソリューションは、一言でいえば、GPUアーキテクチャの持つ短所を克服するスケーラブルでハイパフォーマンスなAIコンピューティング・システムとそのサービスとなりますが、昨今のAIインフラの開発競争は激しく本当に日進月歩といえる状況ゆえに、市場へのチャレンジャーとしてCerebras Systems社には、頑張って欲しいものです。
1. 企業概要
(1)Cerebras社について
Cerebras Systems社は、AI・機械学習を加速させる新しいコンピュータシステムをゼロから設計する目的で、コンピュータアーキテクト、機械学習研究者、システムエンジニア、ソフトウェアエンジニアが集まって設立された企業です。
同社が開発・販売しているWafer Scale Engine(以下、WSE)は、AI分野の計算処理能力を飛躍的に向上させる製品として、市場から高い関心が寄せられており、すでに多数の企業や研究機関で採用されています。
WSEの技術の中心は、AIワークロードを加速するための革新的なアプローチ方法にあり、数百億のトランジスタと数千のコアを独自のアーキテクチャで単一の巨大チップ上に配置することにより、特に大規模言語モデルや生成AIモデルのトレーニングおよび推論の計算能力で類を見ない性能を実現しているとされます。
WSEは既に商用販売されており、クラウドやデータセンターでのコンピューティングリソースとして、また医療・製薬、金融サービス、エネルギー、科学計算など、様々な産業アプリケーションでの利用が進んでいます。
(2)Cerebrasのソリューション概要
Cerebrasの提供するプロダクトやサービスの概要は以下の通りです。
① Wafer-Scale Engine(WSE-3)
世界最大のAIトレーニングおよび推論用の商用チップで、4兆個のトランジスタを搭載しており、Mooreの法則を超えて、従来のGPUをはるかに上回る性能を提供します。WSE-3は、一枚のシリコンウエハー全体を利用しており、900,000のコアと44GBの膨大なメモリ帯域幅をもった高速なオンチップメモリを搭載しているため、AIトレーニングや推論に必要な計算とデータ転送を大幅に高速化し、従来チップや従来のGPUベースのシステムでは解決できなかったボトルネックを克服し、AIの処理速度と効率を飛躍的に向上させます。
② Cerebras CSシステム
CerebrasのCSシリーズのAIコンピュータシステムは、WSE-3を搭載した統合ハードウェアソリューションです。これにより、大規模なAIモデルをシンプルかつ効果的にトレーニングでき、トレーニング時間の大幅短縮と高い電力効率を実現しています。CSシステムは、標準的なデータセンターに簡単に統合できるため、AIプロジェクトの迅速な立ち上げを可能にします。
③ Cerebras AI Supercomputer
CerebrasのAIスーパーコンピュータは、複数のCSシステムを接続し、1,000ペタフロップス(PFLOPS)を超える演算能力を持つスーパーコンピューティング環境を提供します。これにより、最大2048台のCSシステムを利用して、最大24兆パラメータのAIモデルをサポートし、高速かつ効率的にトレーニングすることができます。特に、生成AIなどの最先端のAIモデルに適しています。このスケーラブルなアーキテクチャは、小規模実験から大規模なAIワークロードにへの対応まで、柔軟にシステム拡張が可能です。
④ CSoft(Cerebras Software Suite)
Cerebrasが提供するソフトウェアプラットフォームで、PyTorchなどの業界標準の機械学習フレームワークとシームレスに統合されており、他のハードウェアでトレーニングされたモデルを簡単に移行することが可能な他、Cerebrasプラットフォームでトレーニングされたモデルを他のシステムに展開することも可能です。CUDAなどのハードウェア特有のプログラミング知識が不要で、シンプルなワークフローで、AIモデルをCerebrasのハードウェアに対して自動的に最適化することが可能です。
⑤ Cerebras Cloud Services
クラウドを通じてAIコンピュートリソースを提供しており、ユーザーはオンデマンドでCerebrasの高性能なAIスーパーコンピュータにアクセスすることができます。これにより、顧客は初期投資を抑えて、迅速かつ柔軟にAIモデルのトレーニングや推論を行うことが可能です。
⑥ Cerebras Inference Cloud
推論専用のクラウドサービスで、リアルタイムのAI推論を低レイテンシーで提供します。このクラウドサービスは、リアルタイム推論のために専用化されたクラウドAPIの提供により、AIのリアルタイム推論を超低レイテンシーで実現します。このサービスは、APIで顧客のアプリケーションに容易に接続することができ、生成AIモデルの即時応答や複雑な推論に対応するアプリケーションを効率的に実現することができます。
⑦ AIモデルサービス
Cerebrasの専門チームは、顧客のニーズに応じて、カスタマイズされたモデルの選択やデータ準備、モデル・トレーニングやソリューション統合などのサービスを提供しています。
⑧ プロフェッショナルサービス
Cerebrasの専門チームが顧客のAIシステムの導入や運用を支援し、顧客がAIシステムを最大限に活用できるようサポート提供します。
(3)主な収益源
Cerebrasの主な収益源は以下の通りです。
① ハードウェア販売
CerebrasのAIトレーニングおよび推論用のスーパーコンピュータやプロセッサの販売
② クラウドサービス
Cerebrasの高性能AIコンピュートを利用できるクラウドベースの消費モデルを通じた収益
③ AI推論クラウドサービス
Cerebrasの推論専用クラウドを利用する顧客からの収益
④ サービスおよびその他の収益
AI開発に関する専門的なサービス、AIモデルの設計やトレーニングのサポート、その他の付加価値サービスの提供
(4)Cerebrasの歴史
Cerebrasの設立から現在までの主な遍歴は以下の通り。
2016年4月
Cerebras Systemsは、現CEOのAndrew Feldman氏と現CTOのGary Lauterbach氏がAI専用のプロセッサ技術を開発するために共同創立された。同社のミッションは、AIの計算能力を飛躍的に向上させ、AIトレーニングと推論を効率的に行うための専用プロセッサの開発となる。
2019年
世界初のウエハースケールのAIプロセッサ「Wafer Scale Engine(WSE)」を発表。AIトレーニングと推論を加速させるために設計された非常に大規模なプロセッサで、従来のGPUベースのシステムに比べて桁違いのパフォーマンスを提供することを目指して開発されたものである。
2020年
大規模なAIモデルのトレーニングと推論を高速化した商用のCerebras Systems CS-1スーパーコンピュータを初めて販売。以降、多くの企業や研究機関に導入され始めた。
2021年
シリーズFラウンドで、2.5億ドルの資金調達を行う。この年、WSEの第二世代となる「WSE-2」を発表。
2023年
売上が急成長。2022年の24.6百万ドルから78.7百万ドルに増加。
2024年
シリーズF-1およびF-2ラウンドで追加の資金調達を実施。AI市場が急成長する中。ウエハースケールチップと専用スーパーコンピュータによって特にAIモデルのトレーニングや推論分野での事業を拡大。現在、IPOを計画。
(5)これまで資金調達と主な出資者
Cerebrasは設立以来、複数の資金調達ラウンドを通じて資金調達しています。以下は主要な資金調達ラウンドの概要です。
① シリーズF (2021年10月~12月): 調達額 254.4百万ドル
② シリーズF-1&F-2(2024年5月~9月): 調達額 85百万ドル
③ G42からの出資(2024年9月): 調達額 335百万ドル
主な出資者には、Alpha Wave、Altimeter、Benchmark、Coatue、Eclipse Ventures、Foundation Capital、アラブ首長国連邦(UAE)の大手テクノロジー企業「G42」などがいます。
(6)IPOの目論見および引受先
資金調達目的:運転資金、事業拡大投資、資本市場へのアクセス強化、納税、その他(技術や企業の買収、ライセンス取得、知財投資)
公開株式:クラスA普通株式
発行数: 株数未定
IPO価格:未定
既存株主:現役員および取締役、Alpha Wave、Altimeter、Benchmark、
Coatue、Eclipse Ventures、Foundation Capital他公開市場:Nasdaq Global Market
ティッカーシンボル:CBRS
IPO引受け:(共同主幹事)Citigroup Global Markets、Barclays Capital、(引受人)UBS、Wells Fargo、Mizuho、TD、Needham、Craig-Hallum、Wedbush、Rosenblatt、Academy Securities
2. Cerebrasの事業目論見について
(1)長期ビジョン
Cerebrasが描く長期ビジョンは、AI技術の発展を加速させ、AIをより広範囲に、より効率的に利用できる世界を実現することです。同社のビジョンの核心は、AI計算のスピード、効率、使いやすさを大幅に向上させることで、AIをあらゆる分野で民主化することにあります。具体的なビジョンの要点は以下の通りです:
① AIの民主化
Cerebrasは、AI技術がどの企業や組織でも利用可能となり、特にAIに対する専門知識が限られている組織においても、AIのフルポテンシャルを引き出せるようにすることを目指しています。
② ワークロードの最適化とエネルギー効率の向上
CerebrasのWafer-Scale Engine(WSE)を中心としたプラットフォームは、AIトレーニングと推論にかかる時間を短縮し、エネルギー効率を大幅に改善することを目指しています。これにより、特に大規模なAIモデルのトレーニングにおいて、GPUベースのシステムを凌駕する性能を発揮し、より持続可能なAIインフラを提供することを目指しています。
③ 次世代AI技術の開発
同社は、より複雑で大規模なAIモデルを迅速にトレーニングし、推論するための基盤技術を提供することで、次世代AI技術の発展を支えることを目標としています。特に生成AI(GenAI)のような新しい技術の進展に伴い、Cerebrasのプラットフォームは、これらの技術を現実のビジネスや産業に迅速に適用できるようにすることをビジョンとしています。
④ 顧客との協業によるAIソリューション開発
Cerebrasは、顧客との強力なパートナーシップを築き、顧客の課題に対するAIソリューションを提供することで、さまざまな業界におけるAIの商業的利用を加速させることを目指しています。これにより、AIのビジネスインパクトを最大化し、広範な産業でのAIの導入を推進します。
⑤ グローバルなAIインフラのリーダーシップ
Cerebrasは、世界中の企業や組織にAIインフラを提供し、特にクラウドベースのソリューションやオンプレミスのスーパーコンピュータによって、顧客がAIモデルを効率的にトレーニング・運用できる環境を構築することを長期目標としています。
(2)市場ポジショニング
Cerebrasは、AIコンピューティング・インフラの市場において、特にAIトレーニングと推論を効率化する専用ハードウェアとスーパーコンピュータを提供する企業として、特に大規模なAIモデルを必要とする顧客に対しユニークな立ち位置を提供しています。
① AIトレーニングと推論の高速化
CerebrasのWafer-Scale Engine(WSE)は、世界最大のAIプロセッサであり、従来のGPUベースのシステムよりも大幅に高速かつ効率的にAIモデルのトレーニングと推論を実行できる点で際立っています。これにより、AIモデルの開発と運用にかかる時間とコストを削減しています。
② 独自の技術プラットフォーム
Cerebrasは、GPUベースの計算プラットフォームに依存せず、AI特有の計算ニーズに最適化された独自のプロセッサとシステムを提供しており、特に大規模なAIモデルに対して優れた性能を発揮します。
③ 競争優位性
同社の技術は、従来のGPUシステムが抱えるデータの移動に伴うボトルネックを解消しており、メモリ帯域幅や計算速度の面で他社のAIハードウェアに比べて優位性を持っています。
④ 柔軟な提供モデル
Cerebrasは、オンプレミスでのAIスーパーコンピュータの販売だけでなく、クラウドベースのAIコンピュートサービスも提供しており、顧客のニーズに応じた柔軟な選択肢を提供しています。
⑤ 急成長市場におけるポジション
AIインフラ市場は急速に成長しており、Cerebrasは特に生成AI(GenAI)や大規模言語モデル(LLM)のトレーニング・推論の需要に応じて市場でのシェアを拡大しています。
⑥ 顧客基盤の拡大
G42のような大手顧客を持ち、国際的なSovereign AIプロジェクトや主要企業、研究機関からの信頼を得ており、AIインフラ市場での確固たる地位を築いています。
⑦ 将来的な成長見通し
Bloomberg Intelligenceによると、AI市場は2032年までに1.3兆ドルに成長すると予測されており、Cerebrasはこの成長に伴い、自社の技術とサービスを展開し、さらなる市場シェアを獲得することが見込まれています
(3)顧客基盤について
Cerebrasの顧客基盤は、さまざまな業界に広がっており、AI技術を駆使して高度な問題解決を目指す企業や機関が含まれており、特に、GPUベースのシステムでは達成できなかった速度と効率を求める顧客が多い等の特徴があります。
① クラウドサービスプロバイダー(CSP)
大規模なクラウドサービスを提供する企業がCerebrasのAIプラットフォームを利用して、AIトレーニングや推論に対応
② 大手エンタープライズ
グローバル企業が、AIを活用してビジネス上の複雑な課題を解決し、競争力を高めるためにCerebrasの技術を導入
③ ソブリンAIイニシアティブ
特定の国の公的機関やプログラムが、AIの開発と運用にCerebrasの技術を採用し、国益に基づくAIソリューションを構築
④ 国立研究所や大学研究機関
最先端のAIモデルのトレーニングや推論にCerebrasのシステムを使用して、科学的発見や技術開発を促進
⑤ その他先進的AI開発
新興のAIスタートアップや技術企業が、Cerebrasのスーパーコンピュータを利用して革新的なAIソリューションを構築
以下は、公開されているCerebrasのシステム導入顧客です。
アメリカ国立研究所
アレフ・アルファ
メイヨー・クリニック
グラクソ・スミスクライン
トタルエナジーズ・リサーチ
アストラゼネカ
アルゴンヌ国立研究所
EPCC
ピッツバーグ・スーパーコンピューティングセンター
nference
米国エネルギー技術研究所
ライプニッツ・スーパーコンピューティング・センター
米国立スーパーコンピュータ応用研究所
ローレンス・リバモア国立研究所
米国大手金融機関
尚、Cerebrasの現在の昨年度の売上の83%は、出資企業としても名を連ねるアラブ首長国連邦の「G42社」1社に集中しているとのことである。またG42社は、2024年5月に2025年3月までに14億3000万ドルを注文することをセレブラスに確約すると共に、現在のCerebrasのクラスA株の5%弱を保有するに至っているとされています。ちなみに2024年4月にマイクロソフトがG42社に2300億円を投資した旨の報道があります。
(4)市場機会
Cerebrasの市場機会としては、急速に成長するAI市場において、特にAIトレーニング、推論、そしてAIを活用した産業全体にわたる新しいアプリケーションの分野にあります。
① AIインフラ市場の急成長
AI市場は急速に拡大しており、特に大規模なAIモデル(例: GPT-4やGeminiなどの生成AI)のトレーニングや推論に対する需要が急増しています。Cerebrasは、こうしたAIモデルの処理能力を大幅に向上させるハードウェアとソフトウェアを提供しており、この分野での需要に対応することで市場シェアを拡大する機会を持っています。
また、Bloomberg Intelligenceの調査によると、AI市場全体は2024年に約1310億ドルと見積もられており、2027年には約4530億ドルに成長する見込みです。これに伴い、Cerebrasの提供するAIコンピューティングソリューションの需要も急速に拡大すると予想されています。
② 生成AIの普及
生成AIテクノロジーは、テキスト、画像、音声、その他のコンテンツを生成するAIとして大きな注目を集めています。Cerebrasは、生成AIをトレーニングおよび推論するために必要なハードウェアとシステムを提供しており、この分野での広範な活用が予想されています。
生成AIモデルは膨大なデータと計算能力を必要とするため、Cerebrasの高速かつ効率的なプラットフォームは、他の従来のシステムに比べて大きな競争優位性を持っています。
③ AI推論市場の拡大
AIの推論市場は、2024年に430億ドル、2027年までに1860億ドルに成長すると予測されています。AI推論には、AIモデルが実際のビジネスやアプリケーションでリアルタイム処理される際に膨大な計算リソースを必要とすることから、Cerebrasの技術がこれらの需要増に対応します。
④クラウドAI
多くの企業がオンプレミスではなく、クラウドベースのAIソリューションを選択する傾向が強まっており、Cerebrasはクラウドを通じてAIコンピュートを提供しています。これにより、特にスケーラビリティやコスト効率を求める顧客に向けた新しい市場機会を生み出しています。
⑤ AIの産業展開
医療、金融、エネルギー、製造業、政府機関など、多くの産業がAIを活用して新しいソリューションを開発しており、これらの分野でのCerebrasの技術の応用が期待されています。特にライフサイエンスや素材科学、金融モデリングなど、複雑で高度な計算を必要とする分野では、Cerebrasの高速なAIトレーニングと推論が貢献できると考えられます。
⑥ ソブリンAIイニシアティブの拡大
各国政府がAI技術の開発と導入を進めており、CerebrasはSovereign AIプログラムにおいても役割を果たしています。特に、国防やエネルギー、安全保障などの分野でAIを活用する国家プロジェクトにおいて、同社の技術が重要な役割を担うと予測されています。
⑦ AIソフトウェアとサービス
AIハードウェアだけでなく、CerebrasはAIソフトウェアやAIモデルのサービス提供も行っており、AIの開発から運用までの包括的なソリューションを提供することで、顧客がAIの導入を加速できるよう支援しています。
(5)Cerebrasの成長戦略
急速に拡大するAI市場におけるCerebrasの成長戦略としては、以下のような戦略を通じ、更なる成長を目指しています。
① 既存顧客への販売拡大
Cerebrasは、既存顧客との関係を強化し、さらに多くの製品やサービスを提供することで、顧客ベース内での収益拡大を目指しています。特に、初期導入による価値を実証し、その後クロスセルを通じて新しい製品を提案する「ランディング&エクスパンド」戦略に力を入れています。
② 新規顧客基盤の拡大
医療、バイオテクノロジー、金融サービス、政府機関、エネルギー分野などのAI計算需要が高い業界に焦点を当て、これらの分野での顧客基盤を広げることを目指しています。また、ターゲットを絞った営業やマーケティング活動を通じて、技術の可能性をアピールし、新規顧客を獲得します。
③ AI推論市場への進出
Cerebrasは、AI推論市場に新たに参入し、この成長分野での機会を拡大しています。特に、Cerebrasの技術は、推論時の生成速度を大幅に向上させるため、リアルタイムのAIアプリケーションに対して強力なソリューションを提供できます。APIベースの推論をクラウド経由で提供し、開発者が簡単に導入できる環境を整えています。
④ 隣接するAIおよび計算集約型市場への展開
Cerebrasは、生命科学、素材科学、金融モデリングなど、AIと高性能計算(HPC)が重要な役割を果たす分野においても機会を捉えています。特に、ソブリンAIプログラム(政府主導のAIプロジェクト)とのパートナーシップを強化し、新市場への展開を進めています。
⑤ 製品開発ロードマップの加速と新製品の開発
Cerebrasは、既存の製品ロードマップを加速させるとともに、新たなユースケースに対応する製品の開発にも注力しています。特に、データのネットワーキングやメモリボトルネックを解決する機能を強化し、次世代のAIインフラ要件に対応する新製品を投入する予定です。
⑥ クラウド展開の加速
Cerebrasは、クラウドを通じてAIシステムへのアクセスを広げ、顧客基盤を大幅に拡大することを目指しています。クラウドベースのソリューションを通じて、より多くの企業や研究機関がCerebrasの技術を活用できるようにすることで、成長を加速させます。
(6)NVIDIA H100へのアドバンテージ
ベンチマーク対象としてNVIDIAのH100が適切かどうかは別として、Cerebrasが主張しているCerebrasのアドバンテージを以下に紹介します。
尚、CerebrasがNVIDIAのH100に対し優位を主張しているポイントは、主にAIトレーニングや推論における大規模計算や効率性、そして省電力性能が中心となっています。以下、Cerebrasからの優位性の主張です。
(※ 比較評価の検証は行っていませんので悪しからずご了承下さい)
① ウエハースケール設計による大規模並列処理
CerebrasのWSE-3は、1枚のウエハー全体を使うことで、NVIDIA H100のようなチップ群と比較し、より多くのコア(900,000個)を搭載することで、膨大な並列処理を実現し、これによって非常に大規模なAIモデルのトレーニングを一度に効率的に行うことができます。H100は、従来のGPUアーキテクチャに基づいており、複数のチップ間のデータ通信が発生し、Cerebrasのウエハースケール設計に比べて大規模並列処理での効率が劣ります。
② データ移動の最小化
Cerebrasは、WSE-3内でデータをオンチップメモリに保持し、プロセッサ間のデータ転送がほぼ不要であることから、NVIDIA H100に比べてデータ移動による遅延やエネルギー消費を大幅に削減することが可能です。H100では、複数のGPU間でデータを転送する必要があり、特に大規模なAIモデルのトレーニングにおいてデータの移動がボトルネックとなります。
⑦ オンチップメモリによるメモリ帯域幅のボトルネック回避
CerebrasのWSE-3は、44GBのオンチップメモリを持ち、プロセッサとメモリ間のデータ転送を内部で完結できます。これにより、H100が直面するメモリ帯域幅のボトルネックが回避され、処理速度が大幅に向上します。外部メモリに依存するH100は、特に大規模なデータセットを処理する際に、メモリ帯域幅がボトルネックとなる場合があります。
③ スパーシティ対応の効率性
CerebrasのWSE-3は、AIモデル内のスパース性に最適化されており、ゼロ値や不要なデータを処理しない設計になっています。これにより、無駄な計算を省き、電力消費を抑えると同時に処理速度を向上させています。H100もスパーシティに対応しますが、Cerebrasはこの機能をチップ全体で効果的に活用し、特に大規模モデルでの効率性において優れた性能を発揮します。
④ 高効率な電力消費
CerebrasのWSE-3とCSシステムは、エネルギー効率が高く、特にデータの移動や無駄な計算を削減することで、NVIDIA H100に比べてトレーニングや推論に必要な電力消費を抑えることが可能です。H100も効率的な電力消費を目指しているが、Cerebrasの一貫した省電力設計は、特に大規模モデルの処理において優れたエネルギー効率を発揮します。
⑤ 超大規模モデルのサポート
Cerebrasは、最大24兆パラメータを持つAIモデルのトレーニングが可能なスケーラビリティを持っており、これは、NVIDIA H100が対応できるモデル規模を大きく超えるものであり、特に超大規模な生成AI、大規模言語モデルのトレーニングにおいて優位となります。H100は高性能ですが、単一のシステムでサポートできるモデルの規模には限界があります。Cerebrasは、複数のCSシステムを連携させてさらに大規模なモデルのトレーニングを可能にします。
⑥ リアルタイム推論における低遅延
Cerebrasは、推論専用の低レイテンシー機能を備え、リアルタイム推論の必要なアプリケーションにおいて優れたパフォーマンスを発揮し、リアルタイム応答の必要なAIアプリケーションで広く活用が可能です。H100も推論に強みを持つが、Cerebrasの専用設計はより低遅延での推論を可能にします。
⑧ クラウドおよびオンプレミスでの柔軟なスケーリング
Cerebrasは、クラウドおよびオンプレミスの両方で柔軟なスケーリングが可能です。必要に応じて複数のCSシステムを接続して計算リソースを拡大でき、H100を使用したシステムよりも容易にリソースの増強が可能です。
H100もクラウドに対応していますが、Cerebrasのスケーラビリティと柔軟性は、特に大規模プロジェクトにおいて優位となります。
3. 財務トピックス
設立から8年経過。同社が開発し続けてきたシステムにやっと時代が追いついたのであれば、その市場ニーズの高揚するモメンタムに飛び乗れれば良し。チャレンジャーとして興味深い企業であることは確かだと思いますが今々の数字には、「なるほど・・・」という言葉以外に、特段のコメントは浮かびません。
(1)損益計算書
向こう将来、ハイパーグロースをこのまま継続して市場の主要プレイヤーの1角に食い込むことができるのか。また、研究開発の成果が市場に評価され、いつ実に結びつくのかは、当面の関心事項になりそうです。
(2)貸借対照表
短期的な資金繰りに問題なさそうですが、株主資本の累損を見る限りは、市場に打って出て収益性を上げて行く、ということかと思います。頑張って市場を盛り上げて欲しいです。
(3)キャッシュフロー計算書
現在、外部資金による財務活動に依存しているキャッシュフローの構造を事業会社モデルに変えて行くことかと思います。頑張って欲しいです。
4. ソリューション構成要素の特徴
ここでは、Cerebrasのプロダクトやサービスの各々について、その特徴を紹介します。
(1) Wafer-Scale Engine(WSE-3)
4兆個のトランジスタを搭載する世界最大のAIトレーニングおよび推論用の商用チップであるWSE-3(Wafer-Scale Engine 3)を支える要素技術は、従来のチップ設計とは大きく異なり、AIトレーニングと推論のために特化された数々の革新的技術によって構成されています。
・ウエハースケール設計
WSE-3は、一枚のシリコンウエハー全体を利用しており、通常のチップよりはるかに大きいサイズです。これにより、チップ上に非常に多くのコア(900,000コア)を集積でき、データ処理能力を飛躍的に向上させています。この「ウエハースケール」設計は、従来のGPUやCPUが持つチップサイズの制約を打破し、より多くのトランジスタを搭載可能にしています。
・膨大なオンチップメモリ
WSE-3には、44GBのオンチップメモリが搭載されており、AIモデルが処理するデータに対して高速アクセスが可能です。このオンチップメモリにより、従来のGPUやCPUで発生しがちなメモリ帯域幅のボトルネックが解消され、データの読み書きが迅速に行われます。これにより、AIトレーニングや推論の速度が大幅に向上しています。
・スパース性への対応
CSシステムはスパーシティを活用し、AIモデル内の不要な計算を自動的に除去することで、計算の効率を最適化します。大規模なAIモデルでは、多くのパラメータがゼロであることが一般的であり、不要な演算やデータ移動を削減することで、処理速度と電力効率を向上させています。
・低レイテンシーかつ高帯域幅のデータ通信
WSE内のコア同士を多次元で結ぶマルチディメンショナルメッシュネットワークを採用し、コア間のデータ通信を高速かつ効率的に処理できるように設計されています。この通信アーキテクチャにより、AIモデルのトレーニング中にデータが効率的に移動し、ボトルネックが発生しにくい設計となっています。
・低レイテンシーでのデータ処理
データ処理のレイテンシーを最小限に抑える技術を搭載し、リアルタイムの推論作業でも即座に応答が可能で、高速かつ低遅延の推論の求められるアプリケーションに最適化されています。
・高効率な電力消費
膨大な計算が可能であるにもかかわらず、電力効率が非常に高い設計が施されています。尚、この優れた省電力性能を発揮するために備える要素技術は以下の通りです。
(ウエハースケール設計)
WSE-3は、900,000個のコアを単一のシリコンウエハーに配置しており、1枚のウエハー全体を使用する「ウエハースケール設計」が特徴です。このデザインにより、データの移動が最小限に抑えられ、複数の小型チップ間で発生する通信遅延やエネルギー消費を大幅に削減しています。
(データのオンチップメモリ処理)
WSE-3は、44GBのオンチップメモリを搭載しており、データがプロセッサから離れた場所に移動することなく、オンチップでデータの保存と処理を完結させます。外部メモリにアクセスする必要が減少するため、メモリ間のデータ転送に伴う電力消費が抑えられます。
(スパース性に対応)
WSE-3は、データのスパーシティ(Sparsity)に対応しており、AIモデルにおけるゼロ値や不要なデータを処理しないことで、無駄な計算を削減します。これにより、計算の効率が上がり、必要なリソースだけを使用して処理を行います。
(マルチディメンショナルメッシュネットワーク)
WSE-3には、コア間通信を最適化するマルチディメンショナルメッシュネットワークが搭載されています。このネットワークにより、コア間のデータ転送が高速かつ低エネルギーで行われ、全体のエネルギー効率を向上させます。
(2)Cerebras CSシステム
Cerebras CSシステムは、WSE-3(Wafer-Scale Engine 3)を搭載し、非常に高速なAIモデルのトレーニングと推論が可能な単独で使用可能なAIスーパーコンピュータです。単一または複数のCSシステムでの利用が想定されており、特に従来のGPUベースの計算システムを置き換える形で、中規模から大規模なAIモデルを対象とし、オンプレミスとクラウドの両方での利用が可能です。高性能なAIモデルの開発を比較的小規模な設置環境で迅速に行いたい企業や研究者向けで、製薬会社の分子モデリングや自動運転のシミュレーションなどの大規模AIタスクに利用されています。Cerebras CSシステムは、以下の特徴ある要素技術によって構成されています。
・冷却技術
WSEのような大規模なプロセッサは、膨大な計算を行うため、発熱を抑えるクーリング技術が不可欠です。CSシステムは専用の冷却ソリューションを備えており、システムが高負荷の状態でも安定したパフォーマンスを発揮できるように設計されています。
・リアルタイム推論への対応
CSシステムは、AIモデルのトレーニングだけでなく、リアルタイム推論にも対応しています。特に、低レイテンシーの推論機能は、即時応答が必要なアプリケーション(例えば自動運転やリアルタイムの診断システムなど)においても高パフォーマンスを発揮することが可能です。
・高効率な電力設計
CS-3システムは、WSE-3の省電力技術に加え、冷却システムや自動ワークロード管理によって、さらに効率的なエネルギー使用を実現しています。特に大規模な計算処理や分散型のトレーニングを行う際にも、省電力性能が維持されるよう設計されています。この優れた省電力性能を発揮するために備える要素技術は以下の通りです。
(WSE-3ベースの省電力アーキテクチャ)
CS-3システムは、WSE-3をベースとしており、WSE-3に搭載されている省電力機能をそのまま継承しています。大規模な計算処理を行う際にも、WSE-3のデザインにより、チップ間のデータ転送に伴うエネルギー消費が削減されています。
(高度な冷却技術)
CS-3システムには、高性能な冷却システムが搭載されており、大規模な計算処理中の発熱を効率的に抑制します。これにより、システムが安定して動作するだけでなく、過剰なエネルギー消費を防ぐことができます。
(自動分散ワークロード管理)
CS-3システムには、自動でワークロードを分散する管理システムがあり、必要に応じて計算リソースを動的に割り当てます。これにより、リソースの過剰使用を防ぎ、必要な計算処理のみを効率的に行います。
(スパース性に対応)
CS-3システムもWSE-3同様に、データのスパーシティに対応しており、AIモデル内の不要な計算を省略することで、エネルギー消費を抑えています。
(3)Cerebras AI Supercomputer
Cerebras AI Supercomputerは、複数のCSシステムを連携させて構成する大規模なスーパーコンピュータ環境です。最大2048台までの複数のCSシステムを統合することができ、1,000ペタフロップス(PFLOPS)を超える演算能力を持つスーパーコンピューティング環境を実現し、極めて大規模なAIモデルや高負荷なAIワークロードに対応することができます。膨大な計算リソースを必要とする企業や研究機関に適しており、例えば、国家プロジェクトや大手企業のAI研究開発など、最大規模のAIモデルやデータセットを扱う場合に活用されます。
複数のCSシステムを接続して構成するCerebras AI Supercomputerには、特に大規模なAIワークロードを効率的に処理するために、以下のような要素技術が備わっています。
・スケーラブルネットワーキングアーキテクチャ
複数のCSシステムをスムーズに接続して動作させるための高度なネットワーキングアーキテクチャを備えています。このネットワークは、低レイテンシーかつ高帯域幅を特徴としており、数百台から最大2048台までのCSシステムがシームレスに連携し、大規模AIモデルの分散トレーニングと推論が効率的に行えるよう設計されています。
・Cerebras Swarm Fabric
独自の「Swarm Fabric」と呼ばれる高速な通信技術を採用して、CSシステム間でのデータ転送を最適化して高速化し、分散型のAIトレーニングにおいて卓越したスケーラビリティとパフォーマンスを提供することを可能としてます。
・分散コンピューティングのための最適化
分散コンピューティングに特化して設計されており、複数のCSシステム間でAIモデルを分割し、同時にトレーニングや推論を行うことが可能です。これにより、単一のシステムでは対応しきれない超大規模モデルやデータセットの処理を複数のシステムに分散させてワークロードのバランスを取り、パフォーマンスの最大化を図りながら効率的に処理を行います。
・グローバルメモリとデータ同期技術
複数のCSシステムで共有されるグローバルメモリ空間を効率的に管理し、データの同期や共有を最適化する技術を備えています。この技術により、個々のCSシステムのオンチップメモリにアクセスする速度を維持しつつ、システム間でのデータの一貫性ある同期を確保することができます。
・自動分散ワークロード管理
自動でワークロードを分散するための管理システムが組み込まれており、トレーニングや推論に必要な計算資源を動的に割り当て、リソースを効率的に活用し、各CSシステムの負荷を均等化しながら、AIモデルのトレーニングや推論の速度を最大化します。
・統合冷却システム
複数のCSシステムを連携させることで、発熱量が増加しますが、Cerebras AI Supercomputerには、これに対応した高度な冷却システムが搭載されています。これにより、大規模な計算環境でも、冷却によるシステムの安定性と効率性を確保し、長時間、システムが高負荷で稼働しても安定したパフォーマンスを維持することが可能です。
(4)CSoft(Cerebras Software Suite)
Cerebrasが提供するソフトウェアプラットフォームで、PyTorchなどの業界標準の機械学習フレームワークとシームレスに統合されており、他のハードウェアでトレーニングされたモデルを簡単に移行することが可能な他、Cerebrasプラットフォームでトレーニングされたモデルを他のシステムに展開することも可能です。CUDAなどのハードウェア特有のプログラミング知識が不要で、シンプルなワークフローで、AIモデルをCerebrasのハードウェアに対して自動的に最適化することが可能です。
(5)Cerebras Cloud Services
クラウドを通じてAIコンピュートリソースを提供しており、ユーザーはオンデマンドでCerebrasの高性能なAIスーパーコンピュータにアクセスすることができます。これにより、顧客は初期投資を抑えて、迅速かつ柔軟にAIモデルのトレーニングや推論を行うことが可能です。
(6)Cerebras Inference Cloud
推論専用のクラウドサービスで、リアルタイムのAI推論を低レイテンシーで提供します。このクラウドサービスは、リアルタイム推論のために専用化されたクラウドAPIの提供により、AIのリアルタイム推論を超低レイテンシーで実現します。このサービスは、APIで顧客のアプリケーションに容易に接続することができ、生成AIモデルの即時応答や複雑な推論に対応するアプリケーションを効率的に実現することができます。
(7)AIモデルサービス
Cerebrasの専門チームは、顧客のニーズに応じて、カスタマイズされたモデルの選択やデータ準備、モデル・トレーニングやソリューション統合などのサービスを提供しています。
(8)プロフェッショナルサービス
Cerebrasの専門チームが顧客のAIシステムの導入や運用を支援し、顧客がAIシステムを最大限に活用できるようサポート提供します。
(9)知的財産について
2024年6月30日現在、当社は全世界で85件の発行済み特許と15件の出願中特許を保有しています。このうち44件が米国特許で、9件が米国特許出願中です。当社の発行済み特許と出願中の特許は主に、ウエハースケールプロセッサの設計と製造、ウエハースケールプロセッサとハードウェアの組み立て、パッケージング、冷却、およびディープラーニングを加速するためのソフトウェアアーキテクチャに関するもの。
(10)ハードウェア製造と組立て
Cerebrasは、ファブレス・メーカーであり、自社のAIコンピュート・システムの製造においては複数のサードパーティと戦略提携して行っています。最先端のAIプロセッサは、TSMCが製造しており、アドバンスト・セミコンダクター・エンジニアリング社が再分配層の成膜を含む特殊工程を担当しています。Cerebrasは、自社施設でウェハーの最終パッケージング、組立、テストを管理し、サードパーティより調達するプリント基板、I/Oサブシステム、冷却アセンブリ、電力供給モジュールなどのサブアセンブリによって、AIコンピュート・システムを組み立てています。
以上です。
<関連コンテンツ>
<御礼>
最後までお読み頂きまして誠に有難うございます。
役に立ちましたら、スキ、フォロー頂けると大変喜び、モチベーションにもつながりますので、是非よろしくお願いいたします。
だうじょん
<免責事項>
本執筆内容は、執筆者個人の備忘録を情報提供のみを目的として公開するものであり、いかなる金融商品や個別株への投資勧誘や投資手法を推奨するものではありません。また、本執筆によって提供される情報は、個々の読者の方々にとって適切であるとは限らず、またその真実性、完全性、正確性、いかなる特定の目的への適時性について保証されるものではありません。 投資を行う際は、株式への投資は大きなリスクを伴うものであることをご認識の上、読者の皆様ご自身の判断と責任で投資なされるようお願い申し上げます。