ソフトバンクグループ(以下、ソフトバンクG)が、英国のAI(人工知能)チップ新興メーカーGraphcoreを買収

SRAMベースのソリューションには、確かにいくつかの課題

SRAMのスケーリングの課題
メモリヒエラルキーの限界:
SRAMは非常に高速で低遅延ですが、容量が限られており、コストが高いです。大規模なSRAMを搭載することで、メモリヒエラルキーの上位に位置するメモリとしての性能は向上しますが、全体のシステムコストが増加します1。
コストと歩留まり:
大規模なSRAMを製造するには、高度な製造技術が必要であり、製造コストが高くなります。また、チップの歩留まり(製造過程での良品率)も低下する可能性があります。これにより、最終的な製品コストが上昇し、市場での競争力が低下するリスクがあります2。
具体的な例
Graphcore:GraphcoreのIPU(Intelligence Processing Unit)は、SRAMを大量に搭載しており、高速なメモリアクセスを実現しています。しかし、これにより製造コストが高くなるため、長期的なスケーラビリティには課題があります
Cerebras Systems:CerebrasのWafer-Scale Engine(WSE)は、世界最大のチップであり、非常に大規模なSRAMを搭載しています。これにより、非常に高い計算性能を実現していますが、同様にコストと歩留まりの問題があります
代替アプローチ
メモリ階層の最適化:SRAMだけでなく、DRAMやNVM(不揮発性メモリ)など、異なる種類のメモリを組み合わせて使用することで、コストと性能のバランスを取ることができます。
分散コンピューティング:複数の小規模なチップを連携させることで、大規模な計算を効率的に行うアプローチもあります。これにより、製造コストと歩留まりの問題を軽減できます。
あなたの指摘通り、SRAMの巨大化には限界があり、長期的なスケーリングには他のアプローチも検討する必要があります。

SRAM(Static RAM)
特徴:呼べばすぐにデータが出てくる(低遅延)。
容量:小容量。
コスト:高価。
用途:キャッシュメモリなど、非常に高速なアクセスが求められる部分で使用されます。
DRAM(Dynamic RAM)
特徴:呼び出してからデータが来るまでに時間がかかる(高遅延)。
容量:大容量。
コスト:安価。
用途:メインメモリなど、大量のデータを格納する部分で使用されます。チップの近くにないため、通信IPが必要です。
HBM(High Bandwidth Memory)
特徴:DRAMを縦に積むことで、一度に呼べるデータの通信量を拡張。
容量:大容量。
コスト:DRAMより高価だが、SRAMよりは安価。
用途:高性能コンピューティングやグラフィックス処理など、非常に高い帯域幅が求められる部分で使用されます。
これらのメモリは、それぞれの特性に応じて適切な場所で使用され、システム全体の性能を最適化します。
 
CPUとGPU/xPUはそれぞれ異なる役割を果たし、特に大規模言語モデルのトレーニングや推論において重要です。
CPU (Central Processing Unit):
データ整形: データの前処理やクリーニングを行います。
順番並び替え: データのソートや並び替えを担当します。
条件分岐処理: 複雑なロジックや条件分岐を処理します。
大規模言語モデル: モデルの制御や管理、初期のデータ処理に重要な役割を果たします。
GPU/xPU (Graphics Processing Unit/Accelerated Processing Unit):
並列処理: 大量のデータを同時に処理する能力があります。
行列の積和演算: 学習データの行列演算を高速に行います。
正規化、微分: モデルのトレーニングに必要な数学的操作を効率的に実行します。
これらのプロセッサが協力して、大規模言語モデルの効率的なトレーニングと推論を実現しています。

CPUとGPUの違いについて説明しますね。
CPU (Central Processing Unit)
役割: コンピュータの「頭脳」として、様々なタスクを順次処理します。
コア数: 少数の高性能コア(通常4~16コア)。
処理能力: 単一または少数のタスクを高速に処理するのに優れています。
用途: オペレーティングシステムの管理、アプリケーションの実行、条件分岐処理など。
GPU (Graphics Processing Unit)
役割: 大量のデータを並列に処理するために設計されています。
コア数: 多数の小さなコア(数百から数千コア)。
処理能力: 同時に多くのタスクを処理するのに優れています。
用途: グラフィックスのレンダリング、機械学習のトレーニング、科学計算など。
主な違い
構造: CPUは少数の高性能コアを持ち、複雑なタスクを順次処理します。GPUは多数の小さなコアを持ち、単純なタスクを大量に並列処理します。
用途: CPUは一般的なコンピューティングタスクに使用され、GPUはグラフィックス処理や並列計算に特化しています。
性能: CPUは高いクロック速度で動作し、複雑なロジックを処理するのに適しています。GPUは大量のデータを同時に処理する能力に優れています。
これでCPUとGPUの違いが少しでも明確になったでしょうか


ソフトバンクGが英国のAI新興Graphcore買収、4億米ドル規模か
NVIDIAとの競争に向け
ソフトバンクグループが、英国のAI(人工知能)チップ新興メーカーGraphcoreを買収した。買収価格など明かしていないが、業界関係者によると約4億米ドルだという。

 ソフトバンクグループ(以下、ソフトバンクG)が、英国のAI(人工知能)チップ新興メーカーGraphcoreを買収した。2024年7月11日(英国時間)、Graphcoreが発表した。Graphcoreは社名を維持し、ソフトバンクGの完全子会社となる。買収価格など明かしていないが、業界関係者が米国EE Timesに語ったところによると、その額は約4億米ドルだという。なお、Graphcoreは前回の資金調達ラウンド後に28億米ドルの評価を受けていて、調達資金総額は7億米ドルに迫っていた

 2016年に設立され、英国ブリストルに本社を置くGraphcoreは、データセンターAIアクセラレーターチップおよび、インテリジェンスプロセッシングユニット(IPU)と、それに付随するソフトウェアスタックである「Poplar」を開発している。

 GraphcoreのCEO(最高経営責任者)を務めるNigel Toon氏は、「当社はハードウェア、そして特に重要なソフトウェアの両方において、AIプロセッサの支配的なプレーヤーに真っ向から勝負できる素晴らしいチームを構築した。われわれは、研究者が次世代のAIモデルを構築するのをサポートしているほか、いくつかのケースでは米国や中国の大手インフラ企業に展開した。IPUは多数のユーザーとの実際のデプロイメント状況において、非常に大規模なAIワークロードを展開してきた。わずか数百人の従業員で素晴らしいものを築き上げてきたが、われわれが利用できた資本は、この分野の他のプレーヤーに比べればごくわずかだった」と語った。

「資金不足」解消でNVIDIAに対抗へ

 買収発表に併せて開催した記者会見でToon氏は、Graphcoreの商業的な勢いが弱いのは資金不足が要因だったと繰り返し述べた。これは同社が市場をリードするNVIDIAに後れを取っていることを意味している。Graphcoreは創業以来約7億米ドルの資金を調達してきた。

 Toon氏は、「(今回の買収は)われわれのミッションを継続するための膨大なリソースを与えてくれるだろう。機会の規模や可能性という点で、当社はソフトバンクと強く協調している。大口顧客へのアクセスの支援や過去1~2年で困難になっていた資本へのアクセスが提供されることになる」と語った。

 同氏はまた、「市場をリードするNVIDIAと競争するために必要な投資レベルが今や手の届くところにある」と付け加えた。

 「われわれがこれまで築き上げてきたものを、これから倍増させ、前進していくことができる。当社は、われわれと同じように大きな野心を持っている企業とともに、本当に世界的な規模で競争するための大規模な投資を得るのだ」(Toon氏)


ソフトバンクグループが英国のAIチップ新興メーカーGraphcoreを買収しました。買収価格は明かされていませんが、業界関係者によると約4億米ドルとされています。Graphcoreは、データセンター向けのAIアクセラレーターチップやインテリジェンスプロセッシングユニット(IPU)を開発しており、今回の買収によりNVIDIAとの競争力を強化する狙いがあります
この買収により、GraphcoreはソフトバンクGの完全子会社となり、さらなる資金とリソースを得て、AIプロセッサ市場での競争力を高めることが期待されています

Graphcoreについて詳しく説明して

Graphcoreは、2016年に英国ブリストルで設立されたAIチップメーカーです。以下に、Graphcoreの詳細について説明します。
概要
設立: 2016年
本社: 英国ブリストル
創業者: Nigel ToonとSimon Knowles
製品と技術
IPU (Intelligence Processing Unit): Graphcoreの主力製品で、AI計算に特化したプロセッサです。IPUは、並列処理能力が高く、機械学習やAIアプリケーションの高速化に寄与します
Bow IPU: 2022年に発売された最新のIPUチップで、より高性能なAI計算を可能にします。
Poplarソフトウェアスタック: IPUと連携して動作するソフトウェアで、AIフレームワーク(例: PyTorch、TensorFlow)を効率的な機械語に変換します
市場と競争
競争相手: 主にNVIDIAなどの大手AIチップメーカーと競争しています。特にデータセンター向けのAIアクセラレーターチップ市場での競争が激しいです
資金調達: 設立以来、セコイア・キャピタル、BMW、マイクロソフト、サムスンなどから総額7億1,000万ドル以上の投資を受けています
最近の動向
ソフトバンクグループによる買収: 2024年7月11日にソフトバンクグループがGraphcoreを約4億米ドルで買収しました。これにより、Graphcoreはソフトバンクの完全子会社となり、さらなる資金とリソースを得て、NVIDIAとの競争力を強化することが期待されています
Graphcoreは、AI技術の進化に大きく貢献している企業であり、今後の動向にも注目が集まっています。

IPU (Intelligence Processing Unit): Graphcoreの主力製品で、AI計算に特化したプロセッサです。IPUは、並列処理能力が高く、機械学習やAIアプリケーションの高速化に寄与します 詳しく説明して

GraphcoreのIPU(Intelligence Processing Unit)は、AI計算に特化した高度な並列プロセッサです。以下に、IPUの詳細について説明します。
IPUの特徴
並列処理能力: IPUは多数の小さなコアを持ち、同時に多くのタスクを処理することができます。これにより、機械学習やAIアプリケーションの高速化が可能です1。
高性能: 最新のBow IPUは、TSMCの7nmプロセスを使用して製造されており、59.4億個のトランジスタを持ち、1472個のプロセッサコアを搭載しています1。
メモリ: 各IPUには900MBのIn-Processor-Memory™があり、FP16.16およびFP16.SR(確率的丸め)で250テラFLOPSのAI計算能力を持っています1。
技術的な詳細
Colossus MK2 GC200 IPU: これはGraphcoreの第2世代IPUで、1472個のプロセッサコアを持ち、約9000の独立した並列プログラムスレッドを実行できます1。
IPU-M2000システム: このシステムは、1ペタFLOPのAI計算能力を持ち、3.6GBのIn-Processor-Memory™と最大256GBのStreaming Memory™を備えています1。
用途
機械学習: IPUは、機械学習モデルのトレーニングと推論において優れた性能を発揮します。特に大規模なデータセットを扱う場合に効果的です2。
AIアプリケーション: IPUは、AIアプリケーションの高速化に寄与し、リアルタイム処理が求められるシナリオでの使用に適しています2。
ソフトウェアスタック
Poplarソフトウェア: IPUと連携して動作するソフトウェアで、AIフレームワーク(例: PyTorch、TensorFlow)を効率的な機械語に変換します
GraphcoreのIPUは、AI計算の効率を大幅に向上させるために設計されており、今後のAI技術の進化に大きく貢献することが期待されています。

Bow IPU: 2022年に発売された最新のIPUチップで、より高性能なAI計算を可能にします。詳しく説明して

GraphcoreのBow IPUは、2022年に発表された最新のIPU(Intelligence Processing Unit)で、AI計算の性能と効率を大幅に向上させるために設計されています。以下にBow IPUの詳細を説明します。
Bow IPUの特徴
3D積層技術: Bow IPUは、世界で初めてTSMCのWafer-on-Wafer(WoW)3D積層技術を採用したプロセッサです。この技術により、性能が約40%向上し、電力効率も最大16%改善されています
高性能: 各Bow IPUは最大350テラFLOPSのAI計算能力を持ち、前世代のIPUと比較して1.4倍の性能向上を実現しています
トランジスタ数: 単一のBow IPUには600億個以上のトランジスタが搭載されており、非常に高い計算能力を提供します
技術的な詳細
コンピュートアーキテクチャ: Bow IPUは、計算アーキテクチャ、シリコン実装、通信、メモリにおいて画期的な進歩を遂げています2。
メモリ: 高速なメモリアクセスを実現するために、各IPUには大容量のメモリが統合されています
用途
AIトレーニングと推論: Bow IPUは、EfficientNetやVision Transformerなどの高精度な画像認識モデルや、BERTやGPTなどの自然言語処理(NLP)モデルのトレーニングと推論において優れた性能を発揮します2。
大規模AIシステム: Bow Podシステム(Bow Pod 16、Bow Pod 64、Bow Pod 256など)を使用することで、大規模なAIワークロードを効率的に処理できます2。
ソフトウェアスタック
Poplar SDK: Bow IPUは、GraphcoreのPoplar SDKと連携して動作し、AIフレームワーク(例: PyTorch、TensorFlow)を効率的にサポートします
Bow IPUは、AI計算の効率を大幅に向上させるために設計されており、今後のAI技術の進化に大きく貢献することが期待されています

Graphcoreは何故資金難だったのか

Graphcoreが資金難に陥った理由はいくつかあります。
主な理由
競争の激化: AIチップ市場は非常に競争が激しく、特にNVIDIAのような大手企業との競争が厳しかったです。Graphcoreは、NVIDIAに対抗するために多額の資金が必要でしたが、十分な資金を確保するのが難しかったです12。
クラウド契約の打ち切り: Microsoftとのクラウド契約が打ち切られたことも大きな打撃となりました。この契約の終了により、収益源が減少し、資金調達がさらに困難になりました1。
政府プロジェクトへの参画失敗: イギリス政府の「エクサスケール」コンピューター開発計画に参画できなかったことも、資金難の一因です。このプロジェクトに参加できていれば、追加の資金やリソースを得ることができた可能性があります
売上の減少: 2022年の売上高は前年比46%減の270万ドルにとどまり、税引前損失は2億460万ドルに達しました。このような売上の減少が資金難を引き起こしました
事業縮小: 資金不足により、従業員数を削減し、ノルウェー、日本、韓国での事業を停止するなどの措置を取らざるを得ませんでした12。
これらの要因が重なり、Graphcoreは資金難に陥りました。しかし、ソフトバンクグループによる買収により、今後はさらなる資金とリソースを得て、競争力を強化することが期待されています


この記事が気に入ったらサポートをしてみませんか?