
io.net Weekly AMA 2025/01/29 日本語翻訳版(要約+全文翻訳)
io.net Community AMA: Updates, DeepSeek, and more
io.netコミュニティAMA:アップデート、DeepSeek、その他
みなさんこんにちは、Arakumaです。
よろしければ、io.netのXアカウントもあるのでフォローお願いします。
https://x.com/arakuma3tw
https://x.com/ArakumaIOnet
https://x.com/ionet_japan
— io.net (@ionet) January 29, 2025
ご注意:
本コンテンツは、AMAの内容を音声書き起こしからAI翻訳したものとなります。最新情報等はio.netのDiscordサーバでご確認ください。
AMAセッション要約(日本語版)
AMAレポート:IO.NETの最新動向とAI業界の未来
今週もIONETチームとのAMAが開催され、コミュニティから寄せられた質問に対して、最新の技術動向やビジネス戦略について詳しく語られました。その内容を詳しく掘り下げながら、特にAIエージェントの役割、IONETの成長戦略、DeepSeekの影響、そして分散型コンピュート市場の未来について紹介していきます。
AIエージェントの役割とIO.NETのインフラ
最初に、AIエージェントがIO.NETのインフラにおいて果たす役割について議論がありました。AIエージェントは、特定のタスクを自律的に処理するプログラムですが、それらを円滑に運用するためには、分散型で低遅延のコンピュート環境が不可欠です。
IO.NETは完全にパーミッションレスな環境を提供しており、KYC不要で誰でも簡単にGPUクラスタを構築できる点が特徴です。AIエージェントは、継続的に新しいデータを処理し、意思決定を行う必要があるため、低遅延の推論処理が求められます。IO.NETの分散型GPUネットワークは、世界70~100カ国にノードを配置しており、グローバルなリソースを活用することで、最適な推論処理を実現しています。
また、IO.NETでは、AIを活用した不正検出にも取り組んでおり、GPUの品質チェックやベンチマーク解析をAIで自動化しています。さらに、SNS上の情報を収集・解析し、業界のトレンドをリアルタイムで把握するシステムも開発しており、ビジネス戦略の最適化に役立てています。
IO.NETの最大の課題と成長戦略
IO.NETの成長は順調に進んでおり、ARR(年間経常収益)は2024年末時点で2,500万ドルを突破しました。今年の目標として、5倍から10倍の成長を目指しており、そのための施策が進められています。
現在の最大の課題は、優秀なエンジニアとビジネス開発(BD)担当者の確保です。技術チームでは、高度なGPUインフラ技術に精通した人材を募集しており、またBDチームでは、大手GPUメーカー(NVIDIAやAMDなど)の経験者を採用することで、市場拡大を加速させようとしています。
IO.NETの戦略は、単なるGPU供給ではなく、「分散型クラウド」の構築を目指すものです。AWSやGoogle Cloudといったハイパースケーラーが中央集権型のクラウドを提供しているのに対し、IO.NETは完全に分散化されたコンピュートリソースを提供し、開発者がシームレスにアクセスできる環境を整備しています。
新製品「IO Intelligence」は、すでに多くの企業からの関心を集めており、正式リリース前にもかかわらず、テストAPIの提供を受けた企業からは好評を得ています。これにより、IONETは単なるGPUプロバイダーではなく、AI開発を支援する包括的なエコシステムを構築する方向へ進んでいます。
DeepSeekの台頭とIO.NETへの影響
最近、AI業界で話題になっているのが、中国のDeepSeekによる新たなAIモデルの発表です。彼らは、わずか550万ドルのコストでGPT-4レベルのモデルを訓練したと主張しており、これが本当なら業界にとって革命的な出来事となります。
ただし、IO.NETの見解では、この数字は実際のコストよりも大幅に過小評価されている可能性が高いと指摘されています。モデルの最終トレーニングにかかった費用は550万ドルかもしれませんが、事前のアーキテクチャ設計、データ準備、ファインチューニングなどの費用が考慮されていない可能性が高いとのことです。
また、この発表により、「AIのトレーニングにこれほど多くのGPUが必要なのか?」という疑問が生まれ、GPU市場への影響を懸念する声もあります。しかし、IO.NETはこれを過剰反応とみなしており、むしろ効率的なAIモデルの開発が進むことで、より多くの企業がAI開発に参入し、GPU需要はさらに増加すると予測しています。
IO.NETのビジネスモデルは、「ハードウェアの所有をしないマーケットプレイス型」なので、仮にH100からRTX 4090への移行が起こった場合でも、即座に適応可能です。これに対し、すでに数億ドル規模の投資を行ってH100を所有している中央集権型の企業は、大きな損失を抱えるリスクがあるでしょう。IO.NETの柔軟性こそが、競争優位性を維持する要因となっています。
IO.NETの今後の展望
IO.NETは、技術革新の最前線に立ち、分散型クラウドの実現に向けて着実に歩を進めています。今後の展望として、以下のポイントが挙げられます。
スケーラブルなAI開発環境の提供
IO Intelligenceの正式リリースと機能拡張
GPUを活用した分散型コンピュート環境のさらなる最適化
新たなチップの導入
Apple M4やRTX 5090の導入については、現在ベンチマークを進行中
需要と市場動向を見ながら、適切なタイミングで追加予定
競争優位性の維持
すでに50万台以上のGPUを確保し、業界最大規模の分散型コンピュートネットワークを提供
オープンソースAIの進化に伴い、需要が高まることを見据えた対応を準備
まとめ:IO.NETはこれからも成長し続ける
今回のAMAでは、IO.NETの技術戦略、DeepSeekの影響、そして今後の市場展望について多くの知見が共有されました。特に、IO.NETの柔軟性と分散型モデルの強みが、急速に変化するAI業界において極めて重要であることが改めて明らかになりました。
DeepSeekの登場によって市場は一時的に混乱していますが、IO.NETは「AI開発者が求めるものを迅速に提供するプラットフォーム」として、成長し続けることができるでしょう。次回のAMAも、多くの最新情報が共有されることが期待されます。興味のある方は、ぜひDiscordに参加し、次回のAMAに向けて質問を投稿してください!
下記の質問フォームでも質問やおたよりを受け付けています。
デベロップチームに確認が必要な質問は、木曜24:00までに記入してください。
コミュニティからの質問とその回答
今回のAMAでは、コミュニティから多くの質問が寄せられ、IO.NETの技術戦略や市場動向に関する深い議論が行われました。特に注目された質問とその回答をまとめました。
1. AIエージェントはIO.NETのインフラでどのような役割を果たしているのか?
質問:「AIエージェントはIO.NETのインフラにどのように関与しており、どのようにサービスを向上させていますか?」
回答:AIエージェントは、IO.NETのインフラにおいて 「自律的な処理と意思決定の最適化」 に貢献しています。具体的には以下の2つの側面が重要です。
パーミッションレスな分散型コンピュート環境の提供
AIエージェントは、高速な意思決定のために即座にコンピュートリソースにアクセスする必要があります。
IO.NETは、KYC不要で誰でも迅速にGPUクラスタをセットアップできる環境を提供しており、これによりAIエージェントが柔軟に活用できる。
分散ネットワークによる低遅延の推論処理
AIエージェントは、リアルタイムのデータ処理や推論を行うために低遅延なコンピュート環境を必要とする。
IO.NETは、世界70~100カ国にノードを持ち、グローバルな分散コンピュートネットワークを提供することで、最適な推論処理環境を実現。
さらに、IO.NET自体もAIを活用しており、GPUの品質検査や不正検出にAIを導入。SNS上の業界動向を解析し、事業戦略を最適化するためのシステムも構築している。
2. 2025年の最大の課題とその克服方法
質問:「2025年にIO.NETが直面する最大の課題は何か?また、それをどう克服する計画か?」
回答:IO.NETは2024年に大きな成長を遂げ、ARR(年間経常収益)が2,500万ドルを突破しました。2025年には、この収益を5倍~10倍に増やすことを目指しているが、成長に伴う課題も浮かび上がっています。
主な課題
エンジニアとBD担当者の採用
高度なGPUインフラに精通したエンジニアが不足している。
ビジネス開発(BD)チームでも、NVIDIAやAMDといった大手GPUメーカーの知識を持つ人材が必要。
これにより、成長を支える技術基盤と市場開拓が強化される。
分散型クラウドのさらなる発展
AWSやGoogle Cloudのような中央集権型クラウドと競争するため、IO.NETは「分散型クラウド」を構築中。
開発者が簡単に利用できる「IO Intelligence」のリリースを進めており、すでに多くの企業からテスト利用の問い合わせが来ている。
成長のスケーリング
スタートアップとしてゼロから1への成長は成功したが、次のステップとして「1から10、10から100」に拡大するフェーズに入る。
これには、新しい市場戦略の策定、顧客の多様化、オペレーションの最適化が不可欠。
克服方法
積極的な採用活動
世界中から優秀なエンジニアをリクルートし、適切な人材配置を行う。
Go-to-Market戦略の最適化
既存の市場での成功を活かし、AIスタートアップやWeb2企業へリーチを拡大。
分散型クラウドの発展
IO Intelligenceの強化を進め、AI開発の全プロセスをIO.NET上で完結できるようにする。
3. IO.NETの分散型コンピュートネットワークは他のDePINとどう違うのか?
質問:「IO.NETのコンピュートネットワークは、他の分散型コンピュートネットワークとどう違うのか?」
回答:IONETの最大の違いは、「常に最先端の技術を開発し、競争の先を行く」点にあります。他のDePIN企業がIO.NETの成功を模倣しようとしている中で、IO.NETはすでに次のフェーズへと進んでいます。
業界最大のGPUネットワーク
すでに50万台以上のGPUを確保しており、これは業界最大規模。
地理的に分散したノードによる「低遅延・高効率」のコンピュート環境を提供。
独自のクラウド技術開発
IO.NETは、Rayテクノロジーを活用し、複数の都市・地域にまたがるGPUクラスタを構築可能。
これは、大手クラウド企業が提供する中央集権型サービスにはない利点。
次世代プロダクトの開発
IO Intelligenceやモデルマーケットプレイスなど、開発者向けのサービスを強化。
すでに正式リリース前にもかかわらず、多くの企業から関心を集めている。
4. DeepSeekの発表はIO.NETに影響を与えるか?
質問:「DeepSeekの登場でAI業界が変わる可能性があるが、IO.NETにはどのような影響があるのか?」
回答:DeepSeekのAIモデルは、わずか550万ドルのコストでGPT-4レベルのモデルを開発したと主張しており、大きな話題となりました。しかし、IONETでは「このコストは過小評価されている可能性が高い」と見ています。
考えられる影響とIO.NETの対応
GPU需要の低下は考えにくい
AI開発の効率化が進んでも、新たな企業が市場に参入し、結果としてGPU需要は増加すると予測。
DeepSeekのオープンソース化は業界の加速につながる
DeepSeekの効率化手法が普及すれば、新興企業がより少ないコストでAIモデルを開発できるようになる。
これにより、IO.NETの分散型コンピュートネットワークの需要がさらに高まる可能性がある。
IO.NETは柔軟に適応できる
IO.NETはハードウェアを所有せず、マーケットプレイス型のビジネスモデルを採用。
もしH100の需要が低下し、4090が主流になれば、すぐに対応可能。
他のDePIN企業や中央集権型クラウドは、すでに投資したH100が価値を失うリスクを抱えるが、IONETはその影響を受けない。
参考リンク
io.net
全文日本語翻訳
All right, and welcome to another AMA with the IONET team.
それでは、IONETチームとのAMAへようこそ。
How are you doing IONET team?
IONETチームの皆さん、お元気ですか?
Hey, good to be here again.
またここに来られて嬉しいです。
Great to be here.
参加できて光栄です。
Excellent. So this week is going to be a focus on internal community questions and then some questions around the space in general.
素晴らしいです。今週は主に内部コミュニティの質問に焦点を当て、それから業界全般に関する質問にも触れていきます。
We'll start with a question from the community.
まずはコミュニティからの質問から始めます。
What role does artificial intelligence agents play in IONET's infrastructure and how do they contribute to enhancing its services?
IONETのインフラにおいて人工知能エージェントはどのような役割を果たし、それがサービスの向上にどのように貢献していますか?
Sure, I can take the crack at this.
では、私が説明しましょう。
So I think there's a couple of different ways to sort of think about this, right? AI agents are obviously kind of an integral part of decentralized AI and the new narrative in AI and crypto.
これについてはいくつかの視点から考えられます。AIエージェントは、分散型AIやAIとクリプトに関する新たなストーリーの中で、明らかに重要な役割を担っています。
And I think they play a pretty deep part in sort of like how IONET thinks about its infrastructure as well, right?
そして、IONETがインフラをどのように捉えるかという点でも、AIエージェントは非常に重要な役割を果たしています。
So first for all AI agents to operate autonomously, they need access to sort of a permissionless decentralized compute network in order to ensure that there's no bottlenecks when they're trying to accomplish whatever directives that they're trying to do.
まず、AIエージェントが自律的に動作するためには、許可不要で分散型のコンピュートネットワークへのアクセスが必要です。これにより、エージェントが指示されたタスクを実行する際にボトルネックが生じることを防ぎます。
So in that way, IONET's infrastructure is specifically set up to be fully permissionless, no KYC, extremely easy and frictionless to use where anyone, whether that's a human or an AI agent can automatically go there,
このため、IONETのインフラは完全に許可不要でKYCなし、非常に簡単かつ摩擦のない設計になっています。そのため、人間でもAIエージェントでも自由に利用できます。
configure their cluster and deploy it within two minutes to be able to get access to the compute that they need.
クラスタを設定し、わずか2分でデプロイし、必要なコンピュートリソースへアクセスできるようになっています。
So in that way, the permissionless infrastructure of IONET is really key to sort of how AI agents operate.
したがって、IONETの許可不要なインフラは、AIエージェントの動作にとって非常に重要な要素です。
And I think the second piece is sort of the decentralized nature of it, right?
そして、もう一つの重要な点は、その分散型の性質です。
By IONET being spread out over, I don't even know how many countries it is now, probably like 70, 80, maybe 100 at the stage in terms of where our compute network is actually available with specific nodes.
IONETは現在、おそらく70〜80、もしかすると100以上の国々に分散してコンピュートネットワークを展開しています。
This decentralized distribution of our GPU nodes as well acts as a really critical piece of how AI agents can operate most efficiently, right?
このGPUノードの分散配置は、AIエージェントが効率的に動作する上で極めて重要な要素となっています。
Because with an AI agent, it's constantly taking in new data, it's constantly evaluating different options.
なぜなら、AIエージェントは常に新しいデータを取り込み、さまざまな選択肢を評価しているからです。
It's constantly trying to analyze and make decisions.
そして、継続的に分析を行い、意思決定を下します。
And with each of those chain of thought processes, it's performing an inference, which requires sort of compute to kind of for it to continue to do that.
こうした一連の思考プロセスの中で推論を行うためには、継続的にコンピュートリソースを使用する必要があります。
And when it's operating in conditions where decisions need to be made fast and quickly, and a lot of data needs to be processed, the latency for that inference needs to be as low as possible.
特に迅速な意思決定が求められる状況や、大量のデータを処理する必要がある場合、推論の遅延を最小限に抑えることが重要になります。
So with a decentralized network with nodes available globally, like how we have an IONET that actually enables autonomous agents to make those decisions a lot faster but the least amount of latency.
そのため、IONETのようにグローバルにノードが配置された分散型ネットワークを活用することで、AIエージェントはより高速かつ低遅延で意思決定を行うことが可能になります。
So in that way, the inference latency reduction plus the permissionless nature of IONET's infrastructure really supports sort of how AI agents operate in this new world.
つまり、IONETのインフラが持つ低遅延の推論環境と許可不要の特性が、新たなAIエージェントの動作を強力にサポートしているのです。
Yeah, just add to what Toss has said, right?
そうですね、Tossの話に少し補足すると、
So we use autonomous AI, AI autonomous agents in few places but they potentially use AI in a lot of places.
私たちはいくつかの場面で自律型AIエージェントを活用していますが、AI自体はさまざまな場面で使用されています。
The fundamental difference is that in the agents, please they can autonomously execute things also.
本質的な違いとして、AIエージェントは自律的にタスクを実行できる点が挙げられます。
But in our side, we have a lot of places where we have AI models doing a bunch of job and they flag things out to us, good and bad both.
しかし、私たちのシステムでは、多くの場面でAIモデルがタスクを実行し、良い結果も悪い結果も判定して私たちに通知します。
But the action based on that data and the reporting which they do, that execution we haven't done with the agent itself, that piece is remaining.
ただし、AIが通知した結果に基づいて自動的にアクションを実行する部分は、まだエージェントに任せていません。
And that is from myriad of reasons we don't do it, right?
その理由はいくつかあります。
Because in many cases, we take community feedback on top of the model.
なぜなら、多くの場合、モデルの結果に対してコミュニティのフィードバックを取り入れるからです。
In many cases, we have like our other players which we work with to get the inputs like that.
また、他のパートナー企業とも連携しながらフィードバックを得るケースもあります。
The very reasons why we haven't made it fully automated to enable the AI side executing it also, right?
これが、AIエージェントによる完全な自動実行を行わない理由の一つです。
Few places other than where what Toss had explained where we use AI is one thing which comes in which comes in mind straight away is our fraud area.
Tossが説明した内容以外でAIを活用している代表的な領域の一つが、不正検知です。
One of the reasons why as a company we are doing well is that we are basically decentralized from the core meaning our supply also is coming from multiple suppliers.
当社が成功している理由の一つは、基本的に分散型のビジネスモデルを採用しており、供給元も複数のサプライヤーから成り立っていることです。
We don't own the inventory.
当社はハードウェアの在庫を保有していません。
And one of the reasons we are one of the very rare players who are this pure is because figuring it out which GPU is good, is real, is a very hard problem to solve.
そして、当社が純粋な分散型モデルを維持できている理由の一つは、「どのGPUが適切で、本物であるか」を判別するのが非常に難しい問題であるためです。
And to be honest, we as a company also took a long time to crack this problem.
実際、私たちもこの問題を解決するのに長い時間を要しました。
And a lot of other deepens basically ran away from this problem and they started owning their own inventory.
他の多くのDePINプロジェクトはこの問題を避けるため、自社でハードウェアを所有する方向にシフトしました。
So from supplier side, they were centralized but they wrote some smart contract with some layer top and they started calling them deepens.
つまり、供給の面では中央集権的でありながら、スマートコントラクトを追加することで分散型を名乗るプロジェクトが多く存在します。
But we always focus on being a pure deepened.
しかし、当社は常に「純粋なDePIN」であることにこだわっています。
And one place where we use AI is exactly this area.
そして、この分野でAIを活用しています。
So we captured a lot of data of GPUs, suppliers, what inventory they attach, what benchmark numbers we get from different, different suppliers and on an average for that particular model, what those benchmarks should be.
当社はGPUやサプライヤーに関する膨大なデータを収集し、それぞれの在庫状況、ベンチマークスコア、また特定のモデルの平均的な性能指標を分析しています。
And this whole data crunching analysis and then flagging what's good, what's bad, internally in the company is being done by AI.
この膨大なデータ分析を行い、どのGPUが適正か、不適正かを判定するプロセスは、社内でAIによって実行されています。
We haven't made it totally autonomous to basically have a trigger that, okay, this inventory is good, push it out and so on and so forth because we do multiple other checks also within this to comment that confidence as a network.
ただし、「この在庫は適正だからすぐに投入する」といった完全自動化は行っていません。なぜなら、当社は複数の追加チェックを行い、ネットワーク全体の信頼性を確保する必要があるからです。
This is one place where we have heavily invested in AI as a company and it has bared a lot of good fruits to us because as a business, we have been able to grow because we were pure deepened and that was because we invested a lot in AI very early which a lot of other players in the industry didn't do.
この分野は当社がAIに大きく投資している領域の一つであり、実際に大きな成果を生んでいます。なぜなら、当社は早い段階からAIに投資し、純粋なDePINモデルを維持することで事業を成長させてきたからです。多くの競合はこの領域に十分な投資をしていませんでした。
That was one.
これが一つ目です。
Second thing is we as a company are normally very invested in pure building of products.
もう一つは、当社が純粋なプロダクト開発に重点を置いている点です。
We don't, we're not very active and that was one of the fault of us as a company we were not very active on X.
私たちはSNS、特にX(旧Twitter)上での発信があまり活発ではありませんでした。これは会社としての弱点の一つでした。
Like we were predominantly all builders keeping our head down, building stuff and we were losing a lot of traction like where the narrative is headed, what is being discussed on X and so on and so forth.
私たちは基本的に開発に集中しており、X上でのトレンドや業界の議論を把握するのが遅れることがありました。
We were like totally focused on business.
完全にビジネスに集中していたのです。
So we got this input.
そこで、この課題に対するフィードバックを受けました。
So what we did was we created an AI model where we scrape a lot of things around AI, deepens and this whole industry overall, we scrape the content and then we have an AI model which flags out.
その結果、私たちはAIモデルを開発し、AIやDePIN、業界全体に関する情報を自動的に収集・分析するシステムを構築しました。
This is where they see the industry moving. These are few things that are coming up in the future. This is where the trend starts to go towards and then we match it up to where our business is headed, what our customers are asking, what our roadmap is and then we marry them together on like a quarterly basis and see are we aligned.
このAIモデルは「業界のトレンドはどこに向かっているのか」「今後注目される技術や動向は何か」といった点を分析し、それを当社のビジネス戦略、顧客のニーズ、ロードマップと照らし合わせることで、四半期ごとに適切な方向へ進んでいるかを確認できるようになっています。
But this whole thing is also being done by AI.
このプロセス全体もAIによって実行されています。
These are two other places where we have seen a lot of value and ROI coming in overall, other than like what Toss had explained where we use AI.
Tossが説明した領域とは別に、これらの2つの分野でもAIの活用により大きな価値とROI(投資対効果)を生み出しています。
And picking up on that idea of planning and building for the future, the community wants to know what's the biggest challenge ION is facing this year and what strategies are being implemented to overcome them.
未来の計画と構築という観点から、コミュニティは「IONETが今年直面している最大の課題」と「それを克服するための戦略」について知りたがっています。
Both of you have talked about what you're all building in the future. It'd be great to do a summary and rehash for people who haven't heard those previous episodes.
お二人とも、これからの取り組みについて話されましたが、過去のAMAを聞いていない人のために要約と再確認をお願いします。
Totsu, God's been really great. They're blessed with a very good community, a very good suppliers, a set of suppliers and a problem statement is real and we could actually deliver the value.
Totsu、非常に良い環境が整っていますね。素晴らしいコミュニティ、優秀なサプライヤーに恵まれ、解決すべき課題も明確で、実際に価値を提供できています。
So business-wise, basically like we see everything basically working, all guns blazing.
ビジネスの観点では、すべてが順調に進んでおり、非常に良い状態にあります。
You actually see the ARR numbers on the platform. That's exponentially increasing.
プラットフォームの年間経常収益(ARR)も指数関数的に増加しています。
So on the business side, the tech side things are working fine, touch wood.
ビジネス面でも技術面でも、すべてが順調に機能しており、問題はありません。(願わくばこのまま順調に進んでほしいですね。)
Where we are having a problem is that whenever you do good, other issues would come as a part of it.
しかし、ビジネスが順調に進むと、それに伴う課題も発生してきます。
For right now, we are basically hiring engineers in the tech side.
現在、技術部門のエンジニアを積極的に採用しています。
Honestly, like finding good set of engineers which have the same set of values which you run in your company, it's not that easy.
正直なところ、会社の価値観と一致する優秀なエンジニアを見つけるのは簡単ではありません。
Similarly, like Totsu was trying to hire more BD people, people who have a very deep knowledge of GPU infrastructure in the recent past.
同様に、Totsuも最近、GPUインフラに関する深い知識を持つビジネス開発(BD)担当者を採用しようとしています。
He's been able to hire a couple of good people, but he's also, I think hiring still a few more people.
何人か優秀な人材を採用できましたが、まだ数名の採用を進めています。
So I think as a company when we are growing, we want to keep our core values the same and scale as our business is scaling.
企業として成長する中で、当社の中核となる価値観を維持しながら、ビジネスの拡大に対応していく必要があります。
I think that's a challenge. Not the business, not the tech, but as a company when we are hiring more people and keeping a core value, that's been a challenge honestly, personally for me.
ビジネスや技術面の問題ではなく、成長に伴う人材採用と企業文化の維持が、個人的に最も大きな課題だと感じています。
A shout out if you guys know some smart engineers, please refer them to us. We have an effort bonus externally also.
もし優秀なエンジニアをご存じでしたら、ぜひ紹介してください。外部向けの紹介ボーナス制度もあります。
Yeah, I think that's personally for me has been a challenge. Finding people, good people overall will be growing.
私にとっての最大の課題は、成長し続ける中で優秀な人材を確保することですね。
Yeah, I think just to double down on what Gaurav mentioned there, I think it's really interesting seeing the company evolve over the past 12 months and kind of thinking about what the next 12 months for us would look like, right?
Gauravが言ったことを補足すると、この12カ月間で会社が進化してきた様子を振り返り、今後12カ月間でどのように発展するのかを考えるのは非常に興味深いことです。
Obviously in 2024, we were very much in build mode, building out the product, building out sort of like the initial core theme, figuring out go to market, trying to find product market fit.
2024年は、完全に「開発モード」に入っており、製品の構築、コアコンセプトの確立、Go-to-Market戦略の策定、そしてプロダクトマーケットフィット(PMF)の模索に取り組んでいました。
And I think the way we ended last year in terms of where our product was, in terms of where our revenue was, we've shown a lot of success in a lot of product market fit and a lot of community members and clients being really intrigued by our value proposition and joining the platform, right?
そして昨年の終わりにおいて、製品面でも収益面でも非常に良い結果を出すことができました。多くのプロダクトマーケットフィットを達成し、多くのコミュニティメンバーやクライアントが当社の価値提案に興味を持ち、プラットフォームに参加してくれました。
So I think in terms of my perspective on what 2025 looks like, it's very much what Gaurav was saying.
2025年についての私の見解は、基本的にGauravが話したことと同じです。
It's really thinking about how do we actually scale this, right?
つまり、「どうやってこれをスケールさせるか」が鍵になります。
It's one thing to go from zero to one, but it's like a whole other beast to go from one to 10 or 10 to a hundred, right?
ゼロから1にすることと、1から10、10から100に拡大することは、まったく別の課題です。
And I think it brings in a whole host of sort of issues and things to kind of really think about and problems to solve around scaling and operations and process and talent and making sure we hire the right people for the right roles.
スケールアップには、オペレーション、プロセス、人材確保など、多くの課題が伴います。適切な人材を適切な役職に配置することが非常に重要です。
And we're thinking about the right things and thinking about strategy at a high level as we evolve too.
そして、会社が進化する中で、正しい戦略を高い視点から考える必要があります。
So at least from a business and revenue perspective, as Gaurav mentioned, I've been pretty focused on hiring and growing out the team.
ビジネスと収益の観点から言えば、Gauravが言ったように、私もチームの採用と成長に注力しています。
I think in terms of the types of clients that we're seeing and a lot of sort of like major web two, AI, ML companies and startups trying to join the platform.
当社のクライアント層を見ても、大手Web2企業、AI・機械学習(ML)企業、スタートアップがプラットフォームに参加しようとしています。
We've added people from Nvidia, AMD, Lambda Labs, Chainlink all over the place to essentially kind of help us grow and continue to build this vision out.
Nvidia、AMD、Lambda Labs、Chainlinkなど、さまざまな企業出身の人材を採用し、当社のビジョンをさらに成長させています。
So I think as we kind of, I think we ended 2024 about like 25 million ARR, likely hoping to probably end this year with in some sort of like multiple effect, right? Whether it's like five 10 X we'll see,
2024年のARR(年間経常収益)は約2500万ドルで終了しました。今年の終わりには、5倍から10倍の成長を目指しています。
but in terms of establishing that growth, I think we really need to sort of finally tune like a go-to-market engine and ensure that we have the right people in place to be able to kind of take us to that next level.
しかし、この成長を確実にするためには、Go-to-Marketエンジンを最適化し、適切な人材を確保することが不可欠です。
So those are some of the things that are top of mind for me going into this new year.
これらが、2025年に向けて私が最も重視しているポイントです。
And both of you have, excuse me, talked a lot about the difference of IONET’s compute network versus centralized big three, big tech.
お二人とも、IONETのコンピュートネットワークが、中央集権型の「ビッグ3」テック企業とどのように異なるのかについて多く語られました。
My question is what makes IONET’s compute network unique compared to other decentralized compute networks, especially as the space continues to grow out?
では、IONETのコンピュートネットワークは、他の分散型コンピュートネットワークと比べて何がユニークなのでしょうか? 特にこの分野が成長する中で、どのような違いがありますか?
So I think it's a moving target, right? Like it’s not one thing that’s ever evolving I’d say, because the nature of business is such that whenever you do something good,
これは常に変化する課題だと思います。一つの要素だけではなく、事業の性質上、良いことをすればすぐに競争相手が現れて真似をしてくるものです。
people will just come and copy you and they’ll try to be there, right?
成功すれば、他の人々がすぐに模倣し、競争に加わろうとします。
For instance, when we came in, people were just trying to write some smart contract, some layers, own some inventory of their own and just say we are deep in and trying to escape, right?
例えば、私たちが登場したとき、多くの企業は単にスマートコントラクトを書いて、独自のインベントリを持ち、「我々はDePINだ」と名乗ることで競争を回避しようとしていました。
We were one of the ones which we said, okay, let’s break the whole this paradigm and let’s try to focus on getting more than half a million GPUs.
しかし、私たちはこのパラダイムを打破し、50万台以上のGPUをネットワークに組み込むことに注力しました。
And how do we do that? And we figured out that. So we were one of the companies which had more than half a million GPUs.
それをどのように実現するかを模索し、実際に50万台以上のGPUを確保することに成功した数少ない企業の一つとなりました。
Then people saw how we have done it, what model we have created and what made us succeed. Then we see some players copying this, right?
その後、他の企業が私たちの手法を見て、そのモデルや成功要因を分析し、模倣し始めました。
But now what keeps and makes us different is now the other products which are building, right?
しかし、現在の私たちが他と異なる点は、新たに構築している製品の数々です。
For instance, we have created a lot of cloud technologies now.
例えば、私たちは現在、多くのクラウド技術を開発しています。
For instance, like we were one of the rare companies. In fact, the only company, if I’m not wrong, which had a re-cluster in the three side.
例えば、私たちは「リクラスタリング」を実現した数少ない企業の一つであり、おそらく唯一の企業です。
And if people don’t know, Ray technology is one of the technologies where you create, you can think of in a naive way, a layer, a software layer which abstracts away
Rayテクノロジーを知らない方のために説明すると、これは一種のソフトウェアレイヤーであり、
the thousands of GPUs you work with. So you work with this layer and this layer internally works with thousands of GPUs, right?
何千台ものGPUを仮想化し、開発者が直接それらと対話するのではなく、このレイヤーを介してスムーズに扱えるようにする技術です。
It becomes more seamless to work with the highest scale number of GPUs.
これにより、大規模なGPUクラスタをよりシームレスに扱うことができます。
And all the big companies like OpenAI and other big giants, they normally work with it.
OpenAIなどの大手企業は、この技術を活用しています。
And it’s a very niche, new, very soon, like we’re seeing more and more people adopting to it.
これは非常にニッチでありながら、新しく、多くの企業が採用し始めている技術です。
We were one of the very first companies who built this.
私たちはこの技術を最初に採用した企業の一つです。
And now you will see some of the other deepens who’ve been there in the industry for five years. Like they’re copying us and bringing this tech in, right?
そして、過去5年間業界に存在していた他のDePIN企業が、私たちの技術を真似し始めています。
We basically made a breakthrough there.
私たちはこの分野でブレークスルーを起こしました。
In fact, we made changes in a way that you can literally create clusters, not just multiple GPUs, but GPUs in multiple cities and locations also, which was also very niche, right?
さらに、単なるマルチGPUクラスタではなく、複数の都市や地域にまたがるGPUクラスタを作成できる仕組みを構築しました。これも非常にユニークな取り組みです。
We built that. Now, some people I’ve heard are starting to copy that.
私たちがこの技術を開発しましたが、最近になって他の企業もこれを模倣し始めたという話を聞きます。
Now, what we did, we basically built more products, which the users want.
しかし、私たちはさらに、ユーザーが求める新しい製品を開発しました。
Now we are coming up with IO Intelligence, right?
例えば、「IO Intelligence」を開発中です。
I’m sure, like we already have such a huge demand for IO Intelligence, like we literally get multiple customers in offline reaching out to us for consuming that already for IO Intelligence, right?
この「IO Intelligence」に対しては、すでに非常に大きな需要があり、多くの顧客がオフラインでも問い合わせをしてきています。
So that’s been a success even before launch.
つまり、まだ正式にリリースされていないにも関わらず、大きな成功を収めているのです。
We’ve already given the test API to a couple of people to use it.
すでに一部の顧客に対してテストAPIを提供し、使用してもらっています。
The feedback is good. And they’ll become an early consumer with that very soon, right?
フィードバックも良好で、近いうちに正式な利用者となるでしょう。
Once we launch it publicly.
正式に公開すれば、さらに多くの利用者が増えるでしょう。
So that is a new product, which makes us different than a lot of other deepens.
これが、私たちを他のDePIN企業と差別化する新たな製品です。
I’m sure once we launch that, they’ll try to catch up to that. We’ll bring something new.
これをリリースすれば、他の企業がすぐに追随しようとするでしょう。しかし、私たちはまた新しいものを生み出します。
So I think we are builders.
私たちは「ビルダー(開発者)」なのです。
And what we saw, as we said in earlier AMAs also, is that we built our company in a way that if we run our own AI companies,
これまでのAMAでも話したように、私たちは「自分たちがAI企業を運営するなら何が必要か」という観点で会社を作りました。
what are the products we need to succeed as we grow?
成長するために必要な製品は何かを常に考えています。
And we have a huge roadmap. We will keep executing on that.
私たちは大規模なロードマップを持ち、それを着実に実行していきます。
And like every quarter, you will see something different than others because they will be trying to catch up and we will build something new.
四半期ごとに新しいものを生み出し、競争相手が追いつこうとする間に、さらに先を行くというサイクルを続けていきます。
We’ll always be one step ahead. We have a very good execution there on our side.
私たちは常に一歩先を行きます。この実行力が、私たちの強みです。
The team is very strong.
私たちのチームは非常に強力です。
So I’ll say this narrative, how we are different, will keep changing.
ですから、「私たちがどう違うのか」という話は、今後も変化し続けるでしょう。
But at the end of the day, I am very confident we’ll be the first one in the DePIN space, which will have a decentralized cloud end-to-end.
しかし、最終的には、私たちがDePIN業界で初めて「エンド・ツー・エンドの分散型クラウド」を実現する企業になると確信しています。
Meaning anytime you want to create a decentralized AI or an app, and you need compute, data, like consumption and storage or site, right?
つまり、分散型AIやアプリを作成し、コンピュート、データ、ストレージ、ネットワークなどが必要になったとき、
Network, anything you want, we’ll have that end-to-end stack overall.
それらすべてを統合したエンド・ツー・エンドのソリューションを提供できるようになります。
And we’ll be the first player reaching there, guaranteed.
そして、この領域に最初に到達するのは私たちであると確信しています。
Gaurav, does anything to add on that one?
Gaurav、何か補足はありますか?
I think Gaurav was pretty comprehensive with what he described there in terms of how we really differentiate, right?
Gauravが述べた内容は、私たちがどのように差別化を図るかについて、非常に包括的だったと思います。
And I think, yeah, I kind of really just want to sort of like reiterate that decentralized cloud aspect of our vision.
そして、私も「分散型クラウド」という私たちのビジョンを改めて強調したいと思います。
Because I think it kind of touches on like a really important point.
なぜなら、これは非常に重要なポイントだからです。
Because it’s sort of, you know, when you kind of think about DePINs and sort of how IONET kind of really started as a compute DePIN,
DePINについて考えるとき、IONETがコンピュートDePINとしてスタートした経緯が重要になります。
it’s sort of really the first step in terms of any, you know, even if you kind of look back at the history of like cloud providers,
クラウドプロバイダーの歴史を振り返っても、これは最初のステップにすぎません。
like AWS and other hyperscalers, like that particular foundational piece needs to be figured out needs to be really dialed in,
AWSや他のハイパースケーラーと同様に、まずは基盤を確立し、最適化することが重要です。
needs to be grown to scale and needs to establish sort of product market fit with customers before you can really do anything else.
それをスケールアップし、プロダクトマーケットフィット(PMF)を確立しなければ、次のステップには進めません。
Because it’s very complicated and it requires a lot of coordination across a globally distributed base of stakeholders
なぜなら、これは非常に複雑であり、グローバルに分散したステークホルダー間の連携が必要だからです。
with a variety of incentives that you need to kind of tightly align to make sure that the whole system and the model works.
そして、全体のシステムとビジネスモデルが機能するよう、さまざまなインセンティブを適切に調整する必要があります。
So I think in this past year, we’ve got to really show our strength and being able to build the largest decentralized
この1年間で、私たちは「世界最大の分散型コンピュートネットワークを構築できる」実力を示すことができました。
like physical infrastructure network for compute and how we’ve been able to source,
また、物理的なインフラを持つコンピュートネットワークを構築し、
you know, thousands if not hundreds of thousands of GPUs across the world to come onto our network and offer up their GPU supply.
世界中の何千、あるいは何十万台ものGPUをネットワークに統合し、供給を確保してきました。
And I think what kind of really differentiates us from other, you know, compute DePINs out there
そして、私たちが他のコンピュートDePIN企業と決定的に異なる点は、
is kind of now that we figured out that foundational aspect of our business,
私たちはすでに基盤となるビジネスモデルを確立したということです。
now we can really start to think about that broader vision of like, hey, let’s really think about what our developers and users and clients really want out of our platform.
次のステップとして、「私たちのプラットフォームを利用する開発者やユーザー、クライアントが本当に求めるものは何か?」を深く考える段階に入っています。
Like what are they actually trying to accomplish and how do we really build these next stage,
彼らが何を達成しようとしているのか、そして次のステージの製品やツール、機能をどのように構築すべきかを考えています。
the step of tools and products and features that helps them further along their journey and accelerate their journey to adopt technologies within their own products.
彼らがスムーズに技術を採用し、事業を加速できるようなツールや製品、機能を提供することが、今後の私たちのミッションです。
Right. And that involves kind of really abstracting away the developer experience through products like IO Intelligence in the model marketplace and things like that, which Gaurav just mentioned.
つまり、Gauravが述べた「IO Intelligence」や「モデルマーケットプレイス」のような製品を通じて、開発者の体験を抽象化し、より使いやすい環境を提供することが重要になります。
So I think with us being able to, you know, successfully figure out sort of the foundational compute layer and now starting to think about these other broader sort of like problems that we can solve for our customers,
私たちはすでに基盤となるコンピュートレイヤーを確立しており、今後は顧客の課題をより広範囲に解決する方法を模索しています。
I think really sets us apart from other deepens who are still trying to figure out how to run a successful and scalable version of that foundational compute layer first.
これが、まだ基盤のコンピュートレイヤーを確立しようとしている他のDePIN企業と、私たちの決定的な違いです。
And then moving into some questions about chips that the community has,
では、次にコミュニティから寄せられたチップに関する質問に移ります。
Gaurav, a bit of a lightning round here. The first question is, if M4 chips get introduced, will other Apple chips be removed?
Gaurav、ここからは短い質疑応答です。最初の質問です。「M4チップが導入された場合、他のAppleチップは削除されますか?」
Yeah, that'll happen. I think the base M2 layers would go out.
はい、そうなるでしょう。基本的にM2チップのラインは廃止されると思います。
I think wait for the announcement, but I'm quite sure that when M4 gets in, M2s will go out.
正式な発表を待つ必要がありますが、M4が導入されるとM2は廃止される可能性が高いです。
I know that there will be some people who will be impacted.
これにより影響を受ける人もいるでしょう。
So the supply team and the product team is working on a model, no promises,
そのため、サプライチームとプロダクトチームが対策モデルを検討中ですが、確約はできません。
but I think they're already working on a model where people who have M2 in the network, they get a preferential treatment to add an M4, like how many they can add and all.
ただし、M2を利用している人には、M4を優先的に追加できるような措置を検討しています。
It's still TBD. I think please wait for the announcement like product and the supply team is working on that.
これはまだ未定ですが、プロダクトチームとサプライチームが取り組んでいるので、正式な発表をお待ちください。
But long story short, yes, when M4 gets added, M2 will be impacted,
結論としては、M4が導入されるとM2に影響が出るということです。
but the people whose M2s will be removed, they will get dibs on adding M4 at that time.
ただし、M2が削除される人には、M4を優先的に追加できるような措置を用意する予定です。
And then, plans for future chips, the RTX 5090?
では、次の質問です。「将来的なチップ計画として、RTX 5090は追加されますか?」
There's some benchmarking going out there, so please wait for the numbers for that to happen.
現在、RTX 5090のベンチマークを進めていますので、その結果をお待ちください。
So we do two things always when we add in hardware.
私たちは新しいハードウェアを追加する際に、常に2つのことを行います。
First is obviously getting the benchmarks so that we can be confident at what particular incentive rewards we should give to the specific hardware that piece is going on.
まず、ベンチマークを取得し、そのハードウェアにどのようなインセンティブ報酬を設定すべきかを判断します。
And second is we just want to add a hardware for the heck of it.
そして、単に新しいハードウェアを追加するわけではありません。
We want to also see what the demand for the respective hardware also in the market is.
市場におけるそのハードウェアの需要も確認します。
So that you just don't add hardware for the sake of it because it's been launched,
単に「新しいハードウェアが発売されたから追加する」という方針ではなく、
it's been in the market, but because if we do add them and there's no usage,
「市場に投入しても実際に使われなければ意味がない」と考えています。
it basically doesn't bring any revenue to the network.
使用されない場合、ネットワークにとって収益にならないからです。
On the contrary, it basically dilutes the suppliers and the inventory,
逆に、単にハードウェアを追加すると、既存のサプライヤーやインベントリの価値が希薄化してしまいます。
which already is a network and how much are there only. There's no point in it, right?
ネットワーク上にすでにあるリソースとのバランスを考えると、意味がありません。
So we now, as a network, are going in a direction, as we spoke in past three AMAs also,
したがって、私たちは過去のAMAでも述べたように、「使用ベースのモデル」に移行しています。
that we'll be more usage-based, that as and when the usage of a respective model goes in,
つまり、特定のモデルの使用率が一定のレベルに達した場合にのみ追加を検討します。
it will open a specific model to be added.
需要が確認された場合にのみ、新しいモデルを追加します。
And if there's a new model getting launched and we see demand for that in the market,
また、新しいハードウェアが市場に投入された際、実際に需要があると判断した場合に限り、
then we'll add it.
追加を検討します。
So I think both of them should be there.
つまり、ベンチマーク結果と市場の需要の両方を見極める必要があります。
Right now, we are focusing on benchmarks to get the number, what incentive to give.
現在は、適切なインセンティブ設定のためのベンチマークを優先しています。
And once the BD team and TOSF team see that there's a respective demand for it,
そして、BDチームやTOSFチームが市場の需要を確認したら、
at that time when the combination of both are there, then we'll add it in the network.
ベンチマークと市場の需要が揃った時点で、ネットワークに追加することになります。
I don't think we are close to it right now.
しかし、現時点ではまだその段階には達していません。
Okay. And then for both of you, obviously the news of DeepSeek is having impacts in the market in general.
では、お二人に質問です。最近のDeepSeekのニュースが市場に大きな影響を与えていますが、
We’d like to know what is your perspective on the role of open-source initiatives in AI development?
AI開発におけるオープンソースの取り組みの役割について、どのようにお考えですか?
What do you think about DeepSeek’s development and what effect, if any, does it have on IONET?
DeepSeekの開発についてどう思いますか?また、それがIONETにどのような影響を与えると考えていますか?
I don’t know. Do you want to go for it?
どうでしょうか?先に話しますか?
Sure, sure. I’m happy to get my two cents in here since this has been talked about a lot for the last several days in the AI and crypto world.
もちろんです。AIとクリプトの世界でこの話題が最近非常に議論されているので、私の意見をお話しします。
So yeah, obviously DeepSeek had a chance to try out the app itself and the model within the app,
まず、DeepSeekのアプリとそのモデルを実際に試してみました。
haven’t had a chance to locally host it and try and do things like that myself,
ただ、ローカル環境でホスティングして詳細なテストを行う機会はまだありませんでした。
which I think Gaurav has done, and he can probably speak to soon.
Gauravはすでに試していると思うので、彼が詳しく話せると思います。
Obviously, it’s a very impressive model.
確かに、非常に優れたモデルです。
It’s been able to compete with the big boys of OpenAI’s GPT-4 and Claude 3.5 from Anthropic as well.
OpenAIのGPT-4やAnthropicのClaude 3.5と競争できるレベルに達しています。
So it’s really impressive that a smaller lab that’s actually an offshoot of a hedge fund out of China is able to deliver this type of performance.
中国のヘッジファンドから派生した小規模な研究所が、これほどの性能を持つモデルを開発できたのは非常に驚くべきことです。
I think there’s a few things that are still a bit of an open question for me.
ただ、まだいくつか疑問点があります。
I think first is the highly doubted $5.5 million training cost that was claimed in the paper by DeepSeek.
まず、DeepSeekが論文で主張している「550万ドルで訓練できた」というコストには、大きな疑念があります。
I think there’s a lot of controversy around whether to believe that number or not.
この数字を信じるべきかどうかについて、多くの議論が交わされています。
I think my take on it is the number is significantly lower than what probably the total cost of the training run actually ended up costing.
私の見解では、この550万ドルという数字は、実際のトレーニングコストよりも大幅に低く見積もられていると思います。
I think $5.5 million probably was the cost of the final training run before they shipped it,
おそらく、この550万ドルは「最終的なトレーニング実行」のコストを指しているのでしょう。
but there’s several training runs of pre-training, fine-tuning, architectural design that need to be done before that
しかし、その前には複数回の事前トレーニング、ファインチューニング、アーキテクチャ設計が必要です。
I don’t necessarily think have been accurately captured within that $5.5 million number.
これらのコストがこの550万ドルに正確に含まれているとは思えません。
But there’s not really a great way of knowing that exactly, which leads me to a lot of panic.
ただ、正確な内訳を知る術がないため、多くの混乱を招いています。
I think the other aspect of what a lot of the chatter was about was essentially,
もう一つ、多くの人が議論しているポイントとして、
hey, if DeepSeek is able to train something like GPT-4 for $5.5 million,
「もしDeepSeekが550万ドルでGPT-4レベルのモデルを訓練できるなら、
why did OpenAI and Anthropic and a lot of these other foundational model companies need to spend that much?」
なぜOpenAIやAnthropicなどの大手企業は、はるかに多くの資金を必要とするのか?」という疑問があります。
Why do they need to spend that much with Nvidia?
なぜ彼らはNvidiaに莫大な資金を費やす必要があるのか?
Does the GPU growth story really still align with the AI growth story?
AIの成長とGPU市場の成長は本当に連動しているのか?
I think for that, there’s a few different perspectives, but I really think it’s overblown
この点についてはいくつかの視点がありますが、私は「過剰反応」だと考えています。
in terms of people thinking that, oh, if you don’t need as many GPUs to be able to train AI models,
「もしAIモデルの訓練にそれほど多くのGPUが不要になれば、
GPU demand will actually go down.」という考え方は、誤解を招く可能性があります。
I think one of the key things that I noted from the DeepSeek paper
DeepSeekの論文で注目すべきポイントの一つは、
was some of the efficiency breakthroughs that were really, really key
「効率化のブレークスルー」が非常に重要な要素だったという点です。
that enabled them to take advantage of their GPU scarcity in China
彼らは中国におけるGPU不足を逆手に取り、
and figure out more efficient ways to train these models.
より効率的なトレーニング手法を確立したのです。
Luckily, DeepSeek open-sourced it, and they describe exactly how they did it,
幸いにも、DeepSeekはこれをオープンソース化し、その手法を詳しく説明しています。
so I actually think this is great for the whole open-source movement in AI development in general,
これは、AI開発におけるオープンソースの流れにとって非常に良いことだと思います。
where a lot of these other foundational AI model research labs will be able to take advantage of the breakthroughs that DeepSeek has done
DeepSeekのブレークスルーを、他のAI研究機関も活用できるようになるでしょう。
and be able to apply it to their own training workflows
そして、それを自社のトレーニングワークフローに適用し、
and take advantage of those cost savings and efficiency benefits as well,
コスト削減や効率向上の恩恵を受けることができます。
thus pushing the whole open-source AI space forward even faster.
結果として、オープンソースAIの発展が加速するでしょう。
I think with the whole space moving faster due to these efficiency breakthroughs and being able to take better advantage of GPUs,
こうした効率化のブレークスルーにより、AI分野全体の進化が加速し、GPUの利用効率も向上するでしょう。
I think we’ll actually see demand for GPUs go up even further
その結果、GPUの需要はむしろさらに増加すると考えています。
because now it’s even more accessible to a variety of different companies.
なぜなら、この技術が普及することで、より多くの企業がAI開発に参入しやすくなるからです。
I think it’s really changed the game in terms of it’s not going to be just OpenAI, just Anthropic, just Google,
このブレークスルーにより、AIモデルの開発がOpenAI、Anthropic、Googleのような大手企業だけのものではなくなりました。
just the hyperscalers thinking about foundational models because they have access to massive amounts of compute.
これまで、基盤モデルの開発は「膨大なコンピュートリソースを持つ企業」に限られていましたが、
This actually levels the playing field and opens it up to a lot of smaller companies
今回のブレークスルーにより、競争環境が公平になり、中小企業にもチャンスが広がっています。
who can take advantage of these efficiencies, get more out of their GPUs,
効率化の恩恵を受けながら、GPUを最大限に活用し、
and really be able to push the whole foundational model space forward.
基盤モデルの開発をさらに加速させることが可能になりました。
I think us as IONET are positioned really well for this too
この流れの中で、IONETは非常に良いポジションにいると考えています。
because we are able to provide the largest decentralized global network of GPUs
なぜなら、私たちは世界最大の分散型GPUネットワークを提供しているからです。
at an even lower price point than what someone could get from hyperscalers or other competitors.
さらに、ハイパースケーラーや他の競合よりも低コストでGPUを利用できます。
I think overall, while there was a lot of turmoil in the markets based on the announcement over the past couple of days,
ここ数日、DeepSeekの発表による市場の混乱が見られましたが、
I think DeepSeek and what they’ve done for the open-source movement in AI
DeepSeekの取り組みは、AI分野におけるオープンソースの流れを大きく前進させました。
will really, really push the whole space forward.
そして、この分野全体の進化をさらに加速させるでしょう。
Yeah, I totally agree.
そうですね、私も完全に同意します。
I think one thing people should understand is it’s extremely hard to innovate something new
ここで理解しておくべきことは、「まったく新しいものを開発することは非常に困難」だという点です。
and it’s comparatively very, very easy to build something very similar and just better in one particular aspect.
一方で、既存の技術をベースに特定の部分を改善し、より良いものを作るのは比較的容易です。
There are two different things altogether.
これは全く異なるアプローチです。
What ChatGPT was trying to solve from past seven, eight years,
例えば、ChatGPTは過去7〜8年間かけて解決しようとしていた問題に取り組んできました。
nobody even thought it was possible. Nobody was even attempting it.
当時は「そんなことが可能なのか?」と誰もが疑問に思い、実際に挑戦する企業もほとんどありませんでした。
Once they cracked it, a lot of people came in and say,
しかし、一度この問題が解決されると、多くの企業が参入し始めました。
“Oh, this is the way it works. Let’s just copy it and just make a delta better version of it.”
「なるほど、こうやって動作するのか。それなら少し改良したバージョンを作ればいい」と考える企業が増えました。
That’s one thing.
これが一つのポイントです。
It’s actually overblown, but I’ve played with the model itself.
DeepSeekの話題は少し過剰に騒がれている気もしますが、実際にモデルを試してみました。
It’s good, but it’s an engineer. Either this is something which is super extraordinary,
確かに良いモデルですが、エンジニアとしての視点から見ると、
which they have done, which is getting it trained within $5 million.
「本当に550万ドルでトレーニングできたのか?」という点が非常に疑問です。
Honestly, if you asked me as an engineer, is it practically possible?
正直なところ、エンジニアとして「これは実際に可能なのか?」と聞かれたら、
If I get the top 50 engineers in the world, I’ll still say it’s highly questionable.
たとえ世界トップレベルのエンジニア50人を集めても、私は「ほぼ不可能」と答えるでしょう。
I’ve been in the AI industry for 10 years.
私はAI業界に10年以上いますが、
If you tell me, “Okay, these are the top 50 engineers in AI side,
仮に「これはAIのトップエンジニア50人が集まって、1年間で550万ドル以内で開発したモデルだ」と言われても、
which you have, and let’s work for a year and get this done for less than $5 million,”
「それが本当に可能なのか?」という疑問は拭えません。
I’ll say most probably not possible.
私の答えは「おそらく不可能」です。
It’s too good to be true.
あまりにも「うまく行きすぎている」話です。
I think we are in a deepened business.
私たちはDePINのビジネスを行っています。
We at least practically know because we face this problem in the past also
実際に過去にも同様の課題に直面しているため、現実的な視点でこの問題を理解しています。
that there are H100s somewhere in that part of the world.
例えば、世界の特定の地域にはH100が存在していることも分かっています。
Which how it reached that, I don’t know,
それがどのようにそこに流通しているのかは分かりませんが、
but there are because a lot of people in the past have tried to add it to the network
過去にH100をネットワークに追加しようとした人々がいたことを考えると、
and they were having issues in their uptime and so on and so forth and other complications.
稼働率やその他の問題を抱えていたことが分かります。
There are some in that part of the world.
つまり、世界のどこかには確かにH100が存在しているのです。
That’s one thing.
これが一つのポイントです。
The great thing which has happened for the industry is that DeepSeek has created a standard
今回のDeepSeekの成果として、「業界の新しい基準を作った」ことが挙げられます。
which people have to follow.
今後、他の企業はこの基準に従う必要が出てくるでしょう。
What they have done is, first of all, they have created a paper, a research paper,
彼らが行ったことの一つは、まず研究論文を発表したことです。
and they have launched it that what has made their model better compared to the other models that are there in the market.
そして、その論文の中で、自社のモデルが市場の他のモデルと比較してどのように優れているのかを明確にしました。
That paper is in very detail.
その論文は非常に詳細に書かれています。
Even the API spec which they have given, how you can integrate with the model is very, very extensive.
提供されたAPIの仕様も非常に詳細で、どのようにモデルと統合できるのかが細かく記載されています。
They have created a market standard that in the future now,
つまり、彼らは市場の新しい標準を作り上げたのです。
anytime any other company releases a model, they have to reach that level.
今後、新しいAIモデルを発表する企業は、このレベルに到達しなければなりません。
What will happen because of that is that because new people will also create this research paper
この影響として、新しい企業も同様の研究論文を発表し、
and how their model is better, overall as an industry,
「自社のモデルがどう優れているか」を示す流れが業界全体で生まれるでしょう。
any new player can just go take a read on the research paper and they’ll be up to date
これにより、新規参入者も論文を読むだけで、
that how to make a better version of the same product and then they can build on top of it.
「より良いモデルを作るにはどうすればいいか」を学び、それを基に改良を重ねることができます。
Incrementally as an industry, we will speed up which is great for developers.
この積み重ねにより、業界全体の進化が加速し、開発者にとっても大きなメリットとなります。
Now what has happened, whether this $5 million claim is true or not,
550万ドルというコストの主張が本当であるかどうかにかかわらず、
it has basically given a challenge to the American companies.
今回のDeepSeekの発表は、アメリカのAI企業に対する挑戦状とも言えます。
Practically, we have worked in a lot of these big companies.
私たちは多くの大手企業で働いた経験があります。
In the background, almost always they have a next version of the model which is already in public,
実際、こうした大手企業は、すでに次のバージョンのAIモデルを内部で開発済みであることがほとんどです。
already ready, six months before today itself.
そして、その次世代モデルは、現時点の公開モデルの6カ月前にはすでに完成していることが多いです。
They’re just making it more mature.
現在は、それをさらに成熟させている段階にあるのです。
They’re just waiting for the marketing to be aligned and so on and so forth.
また、マーケティング戦略や市場の動向を見ながら、適切なタイミングで発表しようとしているだけです。
After this recent challenge from DeepSeek,
しかし、今回のDeepSeekの挑戦によって、
now these models will not wait within the company for six months for marketing and a bit more matured.
これらの企業は、次世代モデルを6カ月も温存することなく、より早く市場に投入するようになるでしょう。
They’ll be more frequent releases which will eventually help the industry
リリースの頻度が高まることで、業界全体の技術革新が加速します。
to get a better version of the models more frequently.
これにより、より高性能なAIモデルが頻繁に市場に登場することになるでしょう。
Overall, as an industry, I think we’re in a good place.
この流れを踏まえると、AI業界全体としては非常に良い状況にあると思います。
We’ll see new and new things.
今後も新しい技術や製品が次々と登場するでしょう。
Especially as IONET, we have nothing to worry about.
特にIONETにとっては、何の問題もありません。
Why? Let’s say in the worst of the worst cases,
なぜなら、仮に最悪のケースを想定しても、
which I don’t think is true to be honest,
(正直、私はそれが現実になるとは思っていませんが)
but let’s say in the worst of the worst cases also,
仮にそれが現実になったとしても、
it is real that they have trained in $5 million and they’ve trained in a lower grade hardware,
DeepSeekが本当に550万ドルで低グレードのハードウェアを使ってトレーニングできたとしましょう。
so even A100s or 4090s.
たとえば、それがA100やRTX 4090で実現したと仮定します。
We don’t get impacted as IONET.
しかし、それでもIONETには影響がありません。
Why? Because we run the marketplace.
なぜなら、私たちはマーケットプレイスを運営しているからです。
We don’t own the inventory today.
私たちはGPUの在庫を自社で保有していません。
If tomorrow our customers start to pivot away from H100 to 4090s,
仮に明日から顧客がH100ではなく4090を求めるようになった場合、
we will start to give them more 4090s.
私たちはすぐに4090の供給を増やせばよいのです。
But there are a lot of other deepens and centralized players
しかし、多くの他のDePIN企業や中央集権的な企業は、
who have invested hundreds of millions of dollars in buying those H100s.
すでにH100の購入に数億ドルを投資してしまっています。
So if the customers pivot away from the H100s to the old hardware,
そのため、もし顧客がH100から旧世代のハードウェアに移行すると、
they will struggle because whatever money they spent in buying those inventories,
これらの企業は大きな損失を被ることになります。
now that will start to go waste.
すでに購入したH100の価値が失われてしまうからです。
In our deepened model, the beauty is we are lightweight.
一方で、私たちのDePINモデルの強みは、「軽量」であることです。
We don’t own new inventory.
私たちは新しいインベントリを保有していません。
For us to pivot from one hardware to another is extremely easy.
そのため、あるハードウェアから別のハードウェアへとシフトするのは非常に容易です。
So we are basically somewhere in the middle that we are bound to win the way we are set up.
つまり、私たちはどの状況でも柔軟に対応できる立場にあり、このモデルのままでも成功し続けることができるのです。
So I don’t think there’s anything to panic over all in either of the cases.
したがって、どんなシナリオが想定されても、IONETとしては全く慌てる必要はありません。
Great. As we're closing up our session today, I know DeepSeek has taken a lot of information and focus.
さて、そろそろセッションを締めくくりますが、DeepSeekの話題が多くの関心を集めましたね。
Is there anything else that either of you are excited about?
お二人が今、特に楽しみにしていることは何かありますか?
Any updates from your end that you'd like to share?
何か共有したい最新情報はありますか?
So yeah, I think DeepSeek has kind of like dominated the news cycle for sure.
そうですね、確かにこの数日間、DeepSeekの話題がニュースを席巻しています。
I think, you know, I don’t know if we talked about this or it feels like it's been ages since this was even announced,
ただ、これはすでに話したかもしれませんが、もう何週間も前のことのように感じますね。
but I think one of the other really interesting sort of like news items from this past week was the whole Stargate Project announcement, right?
しかし、今週のもう一つの大きなニュースは、「Stargate Project」の発表だと思います。
Which was with OpenAI and Oracle and the White House.
これは、OpenAI、Oracle、そしてホワイトハウスが関与しているプロジェクトです。
I think, you know, kind of with DeepSeek and sort of all these fears of sort of, you know, like AI innovation moving towards China,
DeepSeekの発表によって「AIイノベーションが中国へ移行するのでは?」という懸念が生まれていますが、
I just like to kind of like remind that, you know, we, the sort of like AI and data centers and GPUs and,
私は、アメリカ国内でもAI、データセンター、GPUの重要性が十分に認識されていることを改めて強調したいです。
you know, hosting the power in the US as well is something that was like really underlined by like the new administration.
特に、現在のアメリカ政府はこれを非常に重視していることが分かります。
And I think it might've gotten overshadowed in the news cycle over the past couple of days by DeepSeek.
しかし、ここ数日のDeepSeekの話題に埋もれてしまったかもしれません。
But I think it really goes to say that, you know, a $500 billion investment into data centers in the US
ただ、アメリカ国内のデータセンターに5000億ドルの投資を行うという計画が発表されたことは、
kind of really shows that this sort of cycle of the need for compute and the need to have,
「コンピュートリソースの需要」と「より多くのGPUの必要性」が
you know, like the amount of GPUs that will go a long way towards enabling us to get to AGI or ASI
AGI(汎用人工知能)やASI(超知能)を実現するための重要な要素であることを示しています。
is being underlined by everyone.
これは、政府も含めて誰もが認識している点です。
The importance is sort of like understood by even this administration and so like the bigger players in the market there.
この重要性は、現在の政権だけでなく、市場の大手企業も十分に理解しています。
So I think that was really exciting for me to see that, you know,
だからこそ、私はこの発表を非常に重要だと考えています。
the demand for compute isn't slowing down anytime soon.
コンピュートリソースの需要が今後も減少することはないでしょう。
And I think everyone kind of realizes that we will need a lot more compute and GPUs
そして、誰もが「これからもっと多くのコンピュートリソースとGPUが必要になる」と認識しています。
to kind of keep ensuring that the foundational model race kind of continues on.
これは、基盤モデルの競争を維持し続けるためにも必要なことです。
I totally agree with Gaurav.
私もGauravに完全に同意します。
We practically on ground don’t see any change in demand.
実際の現場では、GPUの需要に変化があるとは感じていません。
It just keeps increasing over a period of time for us.
むしろ、時間が経つにつれて需要はどんどん増えています。
And all this is noise.
今回の騒動も、結局は「ノイズ」に過ぎません。
I think guys, you’ll yourself see in a month that this is all noise.
皆さんも1カ月もすれば、「結局はただの騒ぎだった」と分かるはずです。
These kind of things happen.
こういった話題は定期的に出てきます。
There's a narrative that gets built, the narrative gets killed.
一つのストーリーが作られ、それがやがて消えていくのです。
I think you as a company only succeed if you try to focus on the business and keep building it.
企業が成功するためには、「ビジネスに集中し、開発を継続すること」が最も重要です。
These things, like I’ve been in the industry for long, these things happen all the time.
私は長年この業界にいますが、こういうことは常に起こっています。
People get sucked into this and they get distracted and that’s what the killer is.
しかし、多くの人がこうした話題に振り回され、本来の目標から逸れてしまうことが最大の問題なのです。
So I think our focus has always been keep our heads down,
だからこそ、私たちは常に「目の前の仕事に集中する」ことを大切にしています。
keep building the business, keep running the revenue,
ビジネスを構築し、収益を伸ばし続けることにフォーカスしています。
build things that the customers need.
そして、「顧客が求めるものを作る」ことが何よりも重要です。
And that’s where we are.
これこそが私たちの戦略なのです。
And I think like our builders demanded DeepSeek, we will have DeepSeek on the platform.
たとえば、開発者たちがDeepSeekを求めれば、私たちはそれをプラットフォームに追加するでしょう。
People have asked for Llama, we have Llama over there.
Llamaを求める声があれば、すでに私たちはそれを提供しています。
So we are a platform which gives whatever is there,
つまり、私たちは「開発者が求めるものを、最適な形で提供する」プラットフォームなのです。
which enables builders to iterate and build fast and we always be there.
開発者が素早く開発・試行できる環境を提供し、常にその場にいることが私たちの役割です。
All these kind of narratives will keep coming and keep going.
今回のような話題はこれからも出てきては消えていくでしょう。
I think we shouldn’t be distracted with it, honestly.
正直なところ、私たちはこうした話題に振り回されるべきではないと思います。
All right. And with that, we’re going to close out this space.
さて、これで今回のAMAを終了します。
I’d like to thank our guests, our audience.
ゲストの皆さん、視聴者の皆さん、本当にありがとうございました。
If you have questions for the next AMA, just make sure to join our Discord and ask those questions
次回のAMAで質問したい方は、ぜひDiscordに参加し、質問をお寄せください。
and they’ll be funneled to us for future weeks.
皆さんの質問は、今後のAMAで取り上げられるようになります。
We have an exciting guest next week.
来週は特別なゲストをお迎えする予定です。
Can’t wait to have them on our space.
ぜひ、皆さんも楽しみにしていてください。
Thank you very much to the team, to all of you, and we’ll see you next week.
チームの皆さん、そして視聴者の皆さん、本当にありがとうございました。また来週お会いしましょう。
Thanks guys. Until next time.
ありがとうございました。それではまた次回!
Thank you guys. Have a great day, guys. Bye.
ありがとうございました。良い一日を!さようなら!
以上です。