Nvidiaの競争優位性と推論でNvidiaに挑戦する企業
NvidiaのCUDAエコシステムの競争優位性は続く、しかしエッジによる推論が主になっても王者でいられるか?
GPU企業から加速コンピューティング企業へ
ジェンセンは「NvidiaはGPU企業ではなく、加速コンピューティング企業である」と強調しています。この言葉は単なるマーケティングではなく、NvidiaがただのGPU製造会社から脱却し、計算能力全般を加速させる企業へと進化したことを示しています。Nvidiaはデータセンター全体を一つの計算単位として扱い、ハードウェアとソフトウェアの深い統合を行っています。これにより、他社がNvidiaに追いつくのは難しくなっています。CUDAエコシステムの強力なロックイン効果
NvidiaのCUDAは、膨大な開発者や業界特有のアルゴリズムをサポートしており、トレーニングと推論の両方で高い性能を発揮しています。これは、競合他社が同様のソリューションを提供する際に難しい障壁となっており、Nvidiaの優位性が確立されています。また、CUDAは既存のNvidia製品に後方互換性を持たせているため、新しいモデルでも古いインフラが利用できる点が強みです。トレーニングと推論の優位性
Nvidiaは、トレーニングだけでなく推論においても他社に優位性があると主張しています。ジェンセンは、「推論の規模はトレーニングの100万倍になる」と述べており、膨大なデータ処理能力が必要となる時代において、Nvidiaの技術は重要な役割を果たすとしています。推論のスケーラビリティは、今後ますますNvidiaの強みとなり、他社が追いつくのは非常に困難になるでしょう。深い統合とエコシステムの構築
Nvidiaの競争優位性の大きなポイントは、システム全体にわたる統合の深さです。ジェンセンは顧客のユースケースを理解し、それに応じたソリューションを提供しています。このように、Nvidiaは単にハードウェアを提供するのではなく、ソフトウェア、サービス、インフラ全体を深く統合しています。これにより、他社がNvidiaと競合することは極めて困難です。
Nvidiaの競争優位性は、単なるGPU技術にとどまらず、加速コンピューティング、CUDAエコシステム、トレーニングと推論の優位性、そしてシステム全体にわたる深い統合にあります。これにより、他社がNvidiaに追いつくのは容易ではなく、その優位性は今後も続くと予想されます。
エッジコンピュータとASICに関連する推論について、ジェンセン・ファンの言葉とNvidiaの視点をまとめると、次のような内容が重要です。
エッジでの推論
エッジコンピューティングは、データ処理をデバイスの近くで行う技術で、遅延の少ないリアルタイム処理が求められるシーンに適しています。Nvidiaもエッジ領域にGraceやBlackwellといった製品を投入していますが、ファン自身も「エッジでの競争優位性はクラウドほど強くない」と述べています。エッジ分野ではARMなどの競合他社が非常に強力であり、推論処理においてエッジデバイスの重要性が増すと予想されます。ASICによる特化型推論
ジェンセンはカスタムASIC(特定用途向け集積回路)についても言及しており、これが特定のタスクに特化したソリューションを提供する点に注目しています。ASICは、特定の機械学習やAIのワークロードに対して、非常に効率的かつ低消費電力で推論を実行できるため、推論においては非常に効果的です。例えば、MetaがMTIAチップを使って推論を加速しているように、特定のタスクを高速化するためのASICは、特化型ソリューションとして有望です。Nvidiaのクラウド優位とASICへの対応
ジェンセンはASICの進展を認めつつも、Nvidiaが依然としてAIや機械学習のワークロードの大部分を支えていると主張しています。彼は「世界中のほとんどの機械学習ワークロードはNvidia上で動作する」と述べており、ASICが特定の領域で進展しているとしても、Nvidiaの全体的な優位性が脅かされることはないとしています。つまり、Nvidiaはクラウドでの大規模なシステムに強みがあり、特化型ASICが活躍するシーンが増えたとしても、Nvidiaのシステム全体のパワーには依然として競争優位があると考えています。推論の進化とスケーリング
Nvidiaは、推論がトレーニングよりもはるかに大規模になり、より多くの計算能力が必要となると予測しています。ジェンセンは、推論の規模が100倍、1000倍に拡大し得ることを示唆し、このために加速コンピューティング技術がますます重要になると強調しています。特にエッジでの推論は、今後急速に進化し、AIが浸透する分野として注目されています。
Nvidiaの競争優位性と推論でNvidiaに挑戦する企業について、以下にまとめます。
Nvidiaの競争優位性
GPU企業から加速コンピューティング企業へ
ジェンセン・ファンは、Nvidiaを「GPU企業ではなく、加速コンピューティング企業」と位置づけています。この言葉は単なるマーケティングではなく、Nvidiaが単にGPUを製造する企業から、データセンター全体を一つの計算単位として扱い、全般的な計算能力を加速させる企業に進化したことを示しています。ハードウェアとソフトウェアの深い統合により、Nvidiaは他社に対する優位性を確立しています。CUDAエコシステムの強力なロックイン効果
NvidiaのCUDAエコシステムは、数百万の開発者が利用し、膨大な業界特有のアルゴリズムを含んでいます。トレーニングと推論の両方で高いパフォーマンスを発揮し、他社が同じレベルで競争するのは難しく、これがNvidiaの競争優位性の大きな要素となっています。また、CUDAの後方互換性により、新しいNvidia製品が登場しても既存のインフラが引き続き利用できるため、他社が容易に追いつけない状況です。トレーニングと推論における優位性
ジェンセンは、推論の規模がトレーニングの100万倍に達すると予想しています。膨大なデータ処理を伴う推論分野で、Nvidiaの技術は重要な役割を果たし続けるとしています。特に推論のスケーラビリティは、今後もNvidiaの強力な競争優位性となり、他社が追いつくのは容易ではありません。深い統合とエコシステムの構築
Nvidiaは、システム全体にわたる深い統合を行い、顧客のニーズに応じたソリューションを提供しています。単なるハードウェア提供にとどまらず、ソフトウェア、サービス、インフラ全体を統合することで、Nvidiaは他社と比較して強力なエコシステムを築いており、この統合の深さが他社との競争における大きな強みです。
推論でNvidiaに挑戦する企業
推論分野において、Nvidiaに対抗し得る企業として注目されているのは、Grok、Cerebras、SambaNovaの3社です。これらの企業は、推論におけるパフォーマンスとコスト面で非常に優れた結果を示しており、リーダーボードのトップに位置しています。
これらの企業は、Nvidiaが持つCUDAへの依存がなく、推論を効率的に実行できる点が強みです。特に推論の高速化やコスト削減において、これらの企業はNvidiaを上回ることができる可能性を持っています。Nvidiaの「ロックイン効果」が推論分野では比較的小さく、競争が激化する可能性が高いとされています。
ただし、Nvidiaは大規模なインストールベースと市場シェアを持っており、推論市場が急速に拡大しているため、これらの企業がすぐにNvidiaに取って代わることは難しいです。特にNvidiaは、トレーニングと推論の統合力が強固であり、そのインストールベースの強みを活かして推論市場でも引き続き優位性を維持しています。
このように、Nvidiaは加速コンピューティング企業として深いエコシステムと統合力を持ちながら、推論分野でも大きなシェアを保持していますが、GrokやCerebras、SambaNovaといった新興企業が競争を激化させる可能性があります。
以下は、本記事の基となるジェンソン・ファンの動向です。
ちょうど2日間にわたるAltimeterの年次会議を終えたところでして、何百人もの投資家やCEO、創業者たちが集まっていました。
テーマは「AGI(汎用人工知能)に向けたインテリジェンスの拡大」でした。ニケシュはエンタープライズAIについて話してくれましたし、
ルネ・ハースはエッジAIについて、
ノーム・ブラウンは「ストロベリーとO1モデル」や推論時間での推論について話してくれました。
そしてソニーは推論の加速について話し、もちろん最初にジェンセンがコンピューティングの未来について語ってくれました。
私は、ジェンセンとのトークをパートナーのクラーク・タンと一緒にやりました。
彼はコンピュートレイヤーを担当していて、パブリックサイドもカバーしています。
金曜日に収録して、このポッドキャストの一部として公開予定です。内容がとても濃く、彼は本当に火がついたように話してくれました。
最初に「何をしたいか?」と尋ねたら、
彼は「全力で行こう」と言って、それで本当にやりました。
90分間のディープな会話でした。再度聞き返して多くのことを学びました。
そこで、これをしっかり分析してみる価値があると思ったんです。
ソニー、全体的な反応はどうですか?
ええ、彼が一度にすべての情報を出すフォーマットで見るのは初めてで、
普段は断片的にしか得られないものです。
でも今回特に印象に残ったのは、彼が「NVIDIAはGPU企業ではなく、加速コンピューティング企業だ」と言った時ですね。
次に大きなものは、彼が「データセンターは1つの計算単位である」と言った部分で、それが非常に重要だと感じました。
そして、彼が既にNVIDIA内でAIを多く活用していると語った時、それが他の競争相手に対してどれほどの優位性を持っているか、彼が自社製品を自分たちで使う姿勢が本当に素晴らしいと思いました。
まさにその通りです。
彼は「従業員を25%増やすだけでビジネスの売上を3倍にできる」と考えていると言っていました。10万人もの自律エージェントがソフトウェアの構築やセキュリティの管理を行い、彼自身が自分の部下だけでなくこれらのエージェントに対する「プロンプトエージェント」として機能するという発言は、非常に驚くべきものでした。
ビル、何か印象に残ったことはありますか?
まず第一に、彼の時間を確保できたことは素晴らしいことだと思います。
世界最大の時価総額を持つ企業のひとつで、非常に忙しいはずなのに、
こんなにも長時間話してくれるなんて、彼の寛大さが伺えますね。
そして彼が「好きなだけ時間を取っていい」と言っていた時、私は「彼には他にやるべきことがあるんじゃないの?」と思いました。それだけでも素晴らしいことです。
私が感じた二つの大きなポイントは、
まず一つ目、彼は明らかにすべてが順調に進んでいて、3.3兆ドルの時価総額を持ちながらも、年間100%超の成長を維持しているという事実です。利益率も驚異的で、65%の営業利益率を持つ企業はS&P500の中でもほんのわずかしかなく、それでいてこの成長速度を誇っている企業はありません。
人員をほとんど増やさずにもっと多くの成果を上げるという話に触れていましたが、どこまでいくのでしょう?
80%の営業利益率?それは前例のないことになるでしょう。すでに前例のない事態が多く見受けられますが、ウォールストリートもこの企業の圧倒的なパフォーマンスをしっかり認識していますし、評価額もそのパフォーマンスを反映しています。
しかし彼らの実行力は本当に強力で、その自信は彼のすべての回答に表れています。
ポッドキャストの約3分の1を、NVIDIAの競争上の優位性について掘り下げる時間に費やし、そのシステムレベルでの利点やビジネスにおける組み合わせの優位性を理解しようとしました。
投資コミュニティと話していると、NVIDIAがどれだけカバーされているにもかかわらず、「これはただのGPUだ」
「誰かがもっと良いチップを作って、NVIDIAを凌駕するだろう」という考えがまだ残っています。
だからこそ、彼が「NVIDIAはGPU企業ではなく、加速コンピューティング企業だ」と言った時、マーケティング的な言葉のように聞こえるかもしれませんが、その言葉には大きな意味がありました。
そうですね、彼が「NVIDIAはGPU企業ではなく、加速コンピューティング企業だ」と言ったとき、ソニー、あなたがその発言に反応したのは分かりますよね。
彼がそれを本当に詳細に説明して、新しい領域を切り開いたかのように感じられましたね。
ええ、彼が言ったことの中で素晴らしかったのは、NVIDIAが今どのようにスタックに位置しているのか、
そして彼がCUDAの下層部分にまで踏み込んで説明したことです。
特に、彼らがパートナーをどのように加速させているか、数学的な操作を通じてどのようにクラウドサービスプロバイダーと密接に協力し、ワークロードをさらに加速させる機能を構築しているかについて話しました。
さらに興味深かったのは、彼が単にLLM(大規模言語モデル)だけに焦点を当てていなかった点です。彼は、AIのために従来型のモデルや新しいモデルをどのように展開しているかについても言及していて、NVIDIAがソフトウェア層でもハードウェア層だけでなく、どれほど緊密にパートナーシップを築いているかが強調されていました。
そうですよね。彼がCUDAライブラリには300以上の業界固有のアルゴリズムが含まれていると言っていた部分も興味深かったです。
NVIDIAは、その業界について深く学び、例えば合成生物学や画像生成、自動運転など、特定のワークロードを加速させるために業界のニーズを理解して、それに合わせて技術を最適化しています。
このことが、手作業で作られた決定論的なワークロードから、機械学習によって駆動され、AIが浸透することで加速の恩恵を受けるワークロードに移行している、という彼の見解を裏付けていると思います。
そうですね。私はビルとこのポッドキャストの準備をしているときに、コードサンプルを共有しました。
ビルがそれをすぐに処理してくれて、今のコードの多くには「デバイスがCUDAならXを実行し、そうでなければYを実行する」というような分岐が含まれていることが分かりました。
それだけ、NVIDIAがエコシステム全体のサービスやアプリにどれほど大きな影響を与えているかがわかります。
ビル、あなたがそのコードを見たとき、どう思いましたか?
ええ、CUDAについて言えば、長期的にはある疑問があると思います。
それは、何%の開発者がCUDAに触れるのか、そしてその数が増えているのか減っているのか、ということです。
両方の見解が考えられると思います。
一方では、AIモデルはますます専門化し、パフォーマンスが非常に重要になるため、最も重要なモデルや展開では、可能な限りハードウェアに近い部分まで最適化が進むため、CUDAが重要になると言えます。
しかし、別の見方をすれば、これらの最適化はPyTorchや他のツールに組み込まれ、一般の開発者はCUDAに触れる必要がなくなるかもしれません。
このどちらの主張も成り立つ可能性があり、今後の興味深い課題だと思います。
実際、私はChatGPTに「現在、何人のCUDA開発者がいるのか」を聞いてみたところ、300万人以上のCUDA開発者がいるそうです。
それに加えて、CUDAを触れる開発者はもっと多いでしょうが、必ずしも全員がCUDA上でコーディングしているわけではありません。
CUDAは非常に広まっていて、彼が言っていたのは、CUDAだけではなく、データの取り込みからトレーニング後の処理まで含めたフルスタックのことでした。
ビル、あなたの指摘に同意しますが、私は将来的にCUDAに触れる人は減ると思っています。
そしてそれは、NVIDIAの競争上の「堀」が長期的には弱まるポイントかもしれません。
アナロジーとしては、AppleのiOS開発者とアプリ開発者の数の関係を考えるとわかりやすいと思います。
AppleでiOSを構築する開発者の数と、その上でアプリを作る開発者の数を比べると、10対1、あるいは100対1の比率になるかもしれません。
そして、将来的にはCUDAに近い部分を構築する人よりも、上層のレイヤーで作業する人が圧倒的に多くなるでしょう。この動向は今後も注視すべき点ですね。もちろん現時点では、CUDAは大きなロックイン要素です。
ビル、あなたの指摘に関連してですが、実は私はこのインタビューを行う前にギャビン・ベイカーに連絡を取りました。
彼はこの分野に詳しく、長年にわたって深くフォローしている良き友人です。彼に競争上の優位性について尋ねたところ、彼は「競争上の優位性の大部分はアルゴリズムの多様性とイノベーションにある」と言っていました。
CUDAの重要性については、もし世界がTransformerやPyTorchに標準化されてしまうと、GPUにとってはあまり重要ではなくなる、とも言っていました。
つまり、もし標準化が進みすぎると、カスタムASIC(特定用途向け集積回路)の方に有利になる可能性がある、ということですね。
そうですね、その件について話したことがあるんですが、私がジェンセンに、カスタムASICについて質問して押し込んだ時、「メタがMTIAチップで加速推論を進めているし、InferenciaやTraniumも出てきているよね」と聞いたんです。
すると彼は、「そうだね、ブラッド。それらは私の最大のパートナーだよ。
私は実際、彼らに自分の3年から5年のロードマップを共有している。
彼らは確かに非常に特定のタスクを処理するポイントソリューションを持っているけど、結局のところ、世界中のほとんどの機械学習やAIを含むワークロードはNVIDIA上で動作することになるんだ」と言ったんです。
そして、話せば話すほど、私は確信を深めていきました。
確かに、他にも多くの勝者が出てくるでしょう。GrokやCerebrisなども含めてですね。それに、彼らは企業を買収してスタックを上に積み上げ、より高いレベルでの最適化を進めようとしています。つまり、CUDAがやっていることをさらに拡張しようとしているわけです。
まだ推論について話す前に、深い統合の話に戻りたいんです。というのも、これは本当に、マイクロソフトがエンタープライズソフトウェアで長い間うまくやってきた戦略だと思います。
そして、ハードウェアでそれを見たことはこれまでほとんどありません。
例えば、シスコやPC時代、あるいはクラウド時代を振り返っても、そこまでの深いレベルの統合は見られませんでした。
マイクロソフトはAzureでそれをやり遂げましたが、ジェンセンの話を聞いていると、「これは本当に賢いな」と思ったんです。
彼がやったことは、顧客のユースケースを本当に理解し、その組織を構築して、顧客と深く統合していくということです。
そしてそれを、彼のロードマップの最上層にまで実現しているので、他の誰よりも深く組み込まれているんです。その部分を聞いた時、私は彼に大きな称賛を送りました。
最初にこの話を聞いた後、あなたとこの会話をしましたよね。
もっと大局的に見ると、彼はシステムレベルのエンジニアとして話しているんです。
ハーバードビジネススクール出身の人々が、「どうして彼は60人もの直属の部下を持てるのか?」と言うのを耳にしますが、イーロン・マスクには何人の直属の部下がいるんでしょうか?
彼らはシステムレベルの視点を持っています。
そして彼は「私は状況認識を持っている。私は、世界で最高の人材に対してプロンプトエンジニアとして機能している」と言いました。
この企業について1年半前には深く理解していなかったことは、このシステムレベルの思考です。
彼は何年もかけて、競争優位性をどのように埋め込むかを考え、その優位性は電力からアプリケーションに至るまで、すべてのレイヤーに浸透しています。
そして、毎日のように新しい取り組みを開始して、エコシステムにさらに深く入り込んでいるのです。
ここで、最近2日間の間に聞いた話ですが、アームのCEOであるルネ・ハースが、彼も私たちのイベントに参加していて、彼は大のジェンセンファンです。
彼は2013年にアームのCEOになる前に、NVIDIAで8年間働いていました。彼が言ったのは、「NVIDIAの城を正面から攻めようとする人はいない」ということでした。
確かに、AIのメインフレームは確立されていて、今後もさらに大きくなるでしょう。少なくとも、見える範囲ではその成長が続くはずです。
ただし、ルネが言っていたのは、もし今日、私たちがAIとどのように関わっているかを考えるなら、それは多くの場合、エッジデバイス、つまり手元のデバイス上でのことです。
彼が言ったように、ARMのインストールベースは3000億台のデバイスに達していて、今後さらに多くのコンピューティングがエッジに近づいていくでしょう。
もし競争の異なる方向性を考えるなら、NVIDIAがクラウドで強力な競争の「堀」を築いている一方で、異なる競争者はエッジでAIの多くの処理を担っていくかもしれません。
そして、ARMはその点で非常に有利な立場にいると思います。
もちろん、NVIDIAもすでにGraceやBlackwellなどの多くの製品にARMを組み込んでいますが、
それでも私には、NVIDIAの競争優位性がエッジにおいてはクラウドほど強くないと感じます。
このポッドキャストの最初であなたは、「投資家コミュニティでは誰もが知っていることだが、NVIDIAは単なるGPU企業ではなく、システム企業だ」と言いましたよね。
私もその通りだと思っていましたが、ジェンセンとのポッドキャストを聞いていた時、ちょうどDylan PatelのNeoCloudプレイブックや「Anatomy」ポストを読んでいて、これが頭の中でリンクしたんです。
彼が書いていたのは、大規模システムのアーキテクチャについて非常に詳細に解説していて、特にX.AIが展開したシステムは100,000ノードもの規模がありました。
これを読んだことで、世界で何が起こっているのかがよくわかり、私が抱いていた多くの疑問が解消されました。
私の理解では、NVIDIAの競争優位性はシステムが大きければ大きいほど強まる、ということです。
これは、ルネが言っていたことを裏返しにしたようなもので、エッジで弱いと言っているわけではなく、巨大なシステムが構築されるときに真価を発揮するということです。
そこでは、NVLinkが活躍し、CUDAが最も効果を発揮するのです。特に大規模システムにおいては、これらの技術が非常に有効に機能します。
そして、これが私の疑問のいくつかに答えてくれました。
まず、なぜハイエンドでの需要が非常に高いのか、そしてインターネット上でノードがコスト以下で提供されることがあるのか、ということです。
これらは、大規模システムでしかできないことがあり、単一のノードでは対応できないからです。だからこそ、両方のことが同時に真実であり得るのです。
また、なぜNVIDIAがCoreWeaveの存在に興味を持ったのかも理解できました。
もし最大の競争優位性が大規模システムにあるとすれば、NVIDIAはできるだけ多くの大規模システム企業を必要とします。
もしこのトレンドが続けば、顧客集中度がNVIDIAにとって時間とともに高まる可能性もあります。特に、サムが言っているように、単一のモデルに1000億ドルを費やすという予測が正しければ、そのようなシステムを購入できる企業は限られてくるでしょう。
こうしたことが、これまで理解できなかった多くの事象を説明してくれました。
そして、NVIDIAがGPU企業ではなくシステム企業であることのスケールを、私は完全に過小評価していたことに気づかされました。これは本当に大きな話です。
ビルが触れたポイントに戻りますが、ここで非常に重要な問いがあります。
それは、NVIDIAの競争優位性がトレーニングにおいても推論(インファレンス)と同じくらい強力かどうかということです。
この点について、多くの人が疑念を抱いていると思います。
つまり、彼らの推論における競争優位性がトレーニングと同じくらい強力かどうかということです。しかし、それについて話しましょうか?
まあ、まだそこに飛び込む前に、私は彼に「トレーニングにおける競争優位性は推論と同じくらい強力なのか」と尋ねたんです。
すると、彼は「いや、それ以上に強力だ」と答えました。最初はその答えがあまりピンとこなかったんですが、よく考えてみると、彼の言っていることが少しずつ理解できました。
彼が言ったのは、既存のインフラ、つまりCUDA互換のインフラがすでに膨大な量の推論を支えており、そのインフラは推論に向けて償却され続けていくということです。
たとえば、彼はOpenAIが最近Voltaを退役させたことを挙げました。つまり、膨大なインストールベースが存在しており、アルゴリズムやフレームワーク、CUDAライブラリが改善されると、それはすべて後方互換性があるため、Hopper、Ampere、Voltaがすべて良くなるんです。
さらに彼が言っていたのは、今日の世界では、すべてが機械学習に強く依存しているということです。彼は、「ほぼすべてのアプリケーション、たとえばWord、Excel、PowerPoint、Photoshop、AutoCADなど、すべてがこれらのモダンなシステム上で動作する」と言っていました。
ソニー、これを信じますか?
コンピューティングが更新されるとき、これらのモダンなシステムに置き換えられるという彼の主張を信じますか?
私がそれを聞いていた時は、彼の言うことに納得していました。でも、彼が言ったある一言がずっと頭に残っていて、
それは「推論はトレーニングの100万倍の規模になる」というものです。これを掘り下げて考えると、古いシステムは十分ではないという結論に至るはずです。
もし需要がそれほど増えるのであれば、私たち全員が認めるように、古いシステムがトレーニングから退役している中で、それがその膨大な推論のワークロードに対応できるとは思えません。
だから、この点に関しては、彼の議論はあまり強く支持できないと思います。推論がこれほど急速に拡大するならば、新しいハードウェアによる推論関連の導入がかなり多くなるでしょう。そしてそこで、古いハードウェアから新しいハードウェアへの移行という議論は通用しないと思います。
さて、あなたがさらっと言ったことを少し強調してみましょう。「ストロベリーとO1モデル」について話していたとき、
ジェンセンが言ったのは、推論の時間における推論的な知性のスケーリングの新しいベクトルがあるということです。
彼は「シングルショットではなく、エージェント同士の相互作用が増えていき、推論時間が必要になる」と言っていました。
そしてその結果として、推論の規模は100倍、1,000倍、1万倍、もしかすると1億倍にもなるかもしれない、と言いました。これは私にとっては驚くべき瞬間でした。
すでに彼らの収益の40%が推論関連であり、私は「推論の割合は今後さらに増えるのか?」と尋ねたところ、彼は「もちろんだ」と答えました。
しかし、一般的な認識は、大規模なクラスターやトレーニングの規模に基づいており、もしモデルがこれ以上大きくならないのであれば、NVIDIAの関連性が薄れていくというものでした。
しかし、ジェンセンは「すべてのワークロードが加速化の恩恵を受ける」と述べており、それはすべて推論ワークロードになり、推論の相互作用の数が爆発的に増加すると言っています。
ここで1つの技術的な詳細があります。それは、大きなモデルをトレーニングするためには、より大きなクラスターが必要だということです。
確かに、より大規模なモデルを運用する場合、必ずしもより大規模なクラスターが必要なわけではなく、分散して実行できるという点も重要です。ビルが言ったように、巨大なクラスターは引き続き展開され、特に1,000億ドル規模の計算を必要とする限られた人々のために展開されるかもしれません。
しかし、推論クラスターはトレーニングクラスターほど巨大ではなく、より分散された形で展開されるでしょう。推論はすべて同じ場所で行われる必要がないからです。そこが興味深い点だと思います。
ジェンセンはその考えをさらにシンプルにして、「人間がどれだけの時間を学習に費やし、どれだけの時間を実行に費やすか」といった例えを使い、この理由から推論は非常に重要になると説明しました。
ただ、ソニーとは少し違った見方をしていて、彼が推論で優れているとする理由が「古いハードウェアが大量に残っているから」という点については、あまり強い論拠ではないと感じました。
つまり、もし他の企業、たとえばソニーの会社や他の企業が推論を最適化しようとした場合、それは「古いハードウェアが残っているから」というよりも、むしろコスト優位性の議論になるでしょう。
もしさらに深く突っ込んで質問していたら、ジェンセンは推論最適化の別の理由を持ち出していたかもしれませんが、
明らかに他のチップメーカーやアクセラレータ企業が推論最適化に取り組んでいることは事実です。特に、エッジ技術を含む推論最適化が進んでいく可能性も高いです。
私は、AI CDNのような形でこれらのアクセラレータ企業がエンドユーザーに近いところでデータを処理する未来があると感じます。ですから、まだ確定していない部分も多いですが、「古いハードウェアが残っているから推論が優れている」という主張はあまり説得力がないと感じました。
さらに、推論における現時点での最速企業のトップ3は、NVIDIAではないという事実もあります。
ソニー、具体的には誰がトップ3に入っているんですか?
はい、パフォーマンスで言えば、
Grok、Cerebris、SambaNovaが推論分野のトップ3に位置しています。
これらは、NVIDIAではない企業で、彼らが実行しているモデルのすべてでリーダーボードに上がっています。
パフォーマンスという意味ですよね?
そうです、パフォーマンスの話です。
それに加えて、コスト面でも優れていると主張できます。
では、なぜ彼らがNVIDIAよりも速く、安価なのか、あなたの考えを教えてください。
ただ、その事実にもかかわらず、NVIDIAは今年推論関連で500億ドルから600億ドルの売上を見込んでおり、これらの企業はまだ始まったばかりです。
なぜ、NVIDIAの推論ビジネスはこれほど大きいのでしょうか?これはインストールベースの問題でしょうか?
私の考えでは、これはインストールベースの問題と、推論市場が非常に急速に成長しているためです。
18か月前にこの決定を下す場合、これらの3社のいずれかを選ぶのは非常に難しかったでしょう。
というのも、当時の主なワークロードはトレーニングでしたから。このポッドキャストの前半で話した通り、NVIDIAはトレーニングを適切に行うための統合が非常に強固です。
しかし、推論に関しては、非NVIDIAの企業でもすぐにモデルを実行でき、CUDAへの依存はありません。
CUDAがなければ高速化できないわけではなく、推論にはCUDAはあまり関係がないため、その「堀」は推論には存在しません。
CUDAが推論であまり重要ではないという点も、もう一つの重要なポイントですね。
しかし、ソニーが言ったことに関連してもう一つ言いたいのは、初期のインターネット時代に戻ると、すべてのスタートアップがOracleとSun上で運用していました。
どの企業も例外なくそれらを使っていましたが、5年後にはLinuxとMySQLに移行しました。
文字通り、100%のシェアが3%まで落ちました。
そして、私はここで同じことが起こるとは言いませんが、新しい技術が開発フェーズから最適化フェーズに移行するとき、これが大きな変化を引き起こす可能性があるということです。開発と最適化はまったく別のプロセスです。
私たちが以前ポッドキャストで共有したチャートを思い出しました。
AIワークロードが今後4~5年間で1兆ドルに達し、データセンターの置き換えも同様に1兆ドル規模になると予測しています。これについて、彼が今後の見通しをどう考えているのか、アップデートを聞きたかったのですが、彼は「そのデータセンターの置き換えは、まさにその通りになる」と言っていました。もちろん、彼も最良の推測をしているに過ぎませんが、彼が言ったのは、AIワークロードがさらに大きくなる可能性があるということです。StrawberryとO1を見た後、これを動かすための計算量はますます増えるだろう、と彼は言いましたし、私が話す人々も同じ感覚を持っているようです。この需要は非常に飽くなきもので、これについて触れておくべきだと思います。
確かに、その話を続けて、私はジェンセンに何度も押し込んで、「MTIAはどうなの? カスタム推論はどうなの? 他の要素はどう影響するの?」と聞きました。「もしモデルがこれ以上大きくならなかったら、この方程式は変わるのか?」と尋ねたんです。でも彼は一貫して「いや、まだ需要を理解していないんだ。世界中のコンピューティングが変わっているからだ」と押し返してきました。
ただ、彼がその答えに対して1つのニュアンスを加えた場面がありました。それは、「もし、ある程度のインフラを置き換える必要があるなら、その規模は非常に大きくなる。もしあなたがCIOで、そのタスクを任されているなら、何に置き換える? 加速コンピューティングだろう。従来のコンピューティングには戻らない」と言った時です。そして、「その選択をした瞬間から、NVIDIAが最も有力な選択肢になる」と彼は言いました。つまり、他の選択肢にして問題を引き起こすよりも、NVIDIAを選んでしまう方がいい、という論理で彼は話を結びつけたのです。
ビルが言った時の例えですが、それは昔のIBMの「誰もがIBMを選ぶ」議論のようにも感じましたね。
そうですね、ブラッド。1つ重要なポイントとして、この会社は上場企業です。民間企業が「需要がすごい」と言っても私は少し疑ってしまいますが、この会社は四半期ごとに300億ドルの売上を上げ、122%成長しています。つまり、需要が本当に凄まじいんです。それが明らかに見えているわけです。
そして、彼とイーロンやx.aiが行ったことに関する話も非常に興味深かったですね。私が彼に、彼とイーロン、ラリー・エリソンがディナーをした話を尋ねた時、彼は「そのディナーがあって、最終的に100,000のH100を導入したことを関連づけてはいけない」と言ったんです。ただ、彼はイーロンに対して「彼はスーパーヒューマンだ」と称賛していて、彼がデータセンターをエネルギー供給し、水冷化し、立ち上げることができる唯一の人物だと言っていました。普通なら何年もかかることを、x.aiは19日で成し遂げた、と言うんです。その時、彼がイーロンに対して抱いている巨大な尊敬の念が伝わってきました。
ジェンセンは、「これは現在、世界最大の一貫性のあるスーパーコンピュータであり、さらに大きくなる」と言っていました。もしAIの未来がハードウェアと密接に結びついていると信じるなら、その瞬間に感じたのは、これはイーロンにとって非常に大きなアドバンテージだということです。
確かに、彼は数千マイルにわたるケーブルについても言及していました。私たちもデータセンターを構築し、ノードをラックに積み上げることを行っていますが、そのスケールで19日間で実現するのは本当に印象的です。さらに、そのデータセンター自体の構築も2024年内に完了したことを考えると、それもまたアドバンテージの一部です。
興味深い点として、彼はクラウドサービスプロバイダーとの統合について話していましたが、その詳細にはあまり触れていませんでした。私が掘り下げてみたいのは、イーロンがこのクラスターを購入し、NVIDIAに対して非常に大きなリスペクトを持っている一方で、彼はTeslaでも独自のチップを作り、クラスターを構築しているという事実です。彼らがスケールでそれを成し遂げるためのクロスコラボレーションや情報の共有がどれほどあるのかを知りたいですね。
あなたは、このクラスターについてどのように見ていますか? 彼らのクラスターについてのデータを持っていますか?
私のチームのフリーダがデータを持っていると思いますが、今は手元にはありません。データがあれば、チャートを引っ張り出して見せることができますよ。今、ブラッドが言ったように、XAIクラスターが現在世界最大のNVIDIAクラスターだと考えています。ジェンセンもポッドキャストの中で「これは世界最大のスーパーコンピュータだ」と言っていましたね。
最後に30秒ほど、ブラッドが言ったイーロンについて少し話したいです。私は今、オースティンのギガファクトリーを見下ろしていますが、これも記録的な速さで建設されました。
Starlinkもすごいです。ディアブロを歩いている時に、「この場所を再設計してほしいのは誰だろうか?」と思ったら、答えは「イーロンだ」と浮かびました。彼がインフラをどれだけ迅速に構築できるか、世界は学ぶべきだと思います。
確かに、それをクローン化できれば非常に価値があるでしょうね。今回のポッドキャストには直接関係ないかもしれませんが、注目すべき点です。イーロンの件で他に考えたのは、これもNVIDIAにとって大規模クラスターがどれほど重要かというピースが頭の中で組み合わさってきたことです。彼が割り当てを受けたのは非常に興味深いことです。これは、需要が数年にわたってバックアップされているとされる最もホットな製品であるはずです。にもかかわらず、イーロンはそれを手に入れ、クォーターの約10%分のH100を持っていったように見えます。私はこれを考えていて、「もし別の企業がこうした巨大なクラスターを開発するのであれば、彼らを優先させる」とジェンセンが考えているのだろうと感じました。これが、マレーシアや中東などで起きていることの反映だと思います。興奮している人々に対して、彼は時間を割き、彼らを優先的に扱うのです。
実際、私は彼にこの点について質問しました。「イーロンがさらに100,000のH200をこのクラスターに追加するという噂がある。すでに200,000や300,000の規模に達しているのか?」と。すると彼は「そうだ」と答えました。そして「500,000や1,000,000まで行くか?」と尋ねたところ、彼は「そうなる」と答えました。これらの計画はすでに進行中だと私は感じています。そして彼が言ったのは、その次のステップとして「ベースとなる電力の制約に直面する」ということです。つまり、1つのクラスターに電力を供給できる何かを見つけることができるかどうか、という問題です。そのため、分散型のトレーニングを開発する必要があると言っていました。そして、「今、行われていることを可能にするために開発されたMegatronのように、分散型システムを開発している。将来的にこれらのクラスターを分解し、さらにスケーリングするために必要になるからだ」と。
さらには、Mag 7 でさえ、その規模のCapEx展開に対してCFOが高いレベルで話し合う必要が出てくるでしょう。
確かに、そうです。そして今日出た「The Information」誌には、サム・アルトマンが「マイクロソフトがクラスターに資金を投入する意思があるかどうかを疑問視している」という記事がありました。これは、イーロンの発言や彼のx.aiでの取り組みが引き金になったかもしれません。
モデルのサイズについても、興味深い展開に突入すると思います。確かに、トレーニングクラスターが大きくなればモデルも大きくなりますが、1つのモデルを分散型サイトでトレーニングすることは可能です。しかし、それは時間がかかるため、たとえば3か月かかるところが4か月かかるようになるかもしれません。ただ、推論(インファレンス)はリアルタイムな処理であるため、モデルを分散サイトで実行するのは難しいです。だからこそ、これが将来的に大きな問題になるかもしれません。
この知能のスケーリングについての質問で、今日、ノーム・ブラウンとのファイヤーサイドチャットで尋ねたところ、彼ははっきりと彼の視点を述べていました。彼は、推論時間での推論(Inference-Time Reasoning)に取り組んでいるわけですが、これはまったく異なるベクトルであり、OpenAIにとって大きな突破口です。彼が言ったのは、「AGIへの道には2つのベクトルがある」ということです。1つはモデルのスケーリングに依然として大きな利点があるということです。データもあるし、合成データもあるので、これからも大きなモデルを作り続けると。そして、彼らにはそれを資金提供するための経済エンジンもあります。
OpenAIは現在、40億ドル以上の収益を上げており、来年には多くの人が100億ドル以上の収益を予測しています。また、シティグループから40億ドルの信用枠も得ているので、独立系プレーヤーの中で、資金の問題を抱えているわけではありません。
一方で、他の独立系プレーヤーについては、経済モデルがこの活動を継続して資金提供できるかどうかが大きな課題になるでしょう。多くのベンチャーキャピタルが数十億ドル単位の資金を提供するのは難しいでしょうね。
結局のところ、我々は経済的な生き物です。私は以前から言っていましたが、
OpenAIに対して多くの人が予想した前方の収益倍数は約15倍でした。
もしChatGPTがこれほどの収益を上げていなければ、会社にとって大きな希薄化をもたらしていたでしょうし、資金調達は非常に困難だったでしょう。Mistralや他の企業がそのような資金を調達するのは非常に難しいと思いますが、まだ大量の資金が市場にあるので不可能ではありません。
しかし、これは15倍の収益です。あなたが言ったように、Googleが上場した時は13~14倍、Metaも同じくらいでした。
新規参入企業の統合が進む予兆があると思います。そして、Xについて興味深いのは…
確かに、ジェンセンにモデルの統合について押し込んでみたとき、彼はこう言っていました。
「イーロンには、野心、能力、ノウハウ、資金、ブランド、そしてビジネスがある」。
だから、AIの話をする時、私たちはしばしばOpenAIに注目しますが、多くの人がすぐに他のモデル企業に話を広げていきます。
でも、X.AIはその会話の中でしばしば忘れられていると感じます。
このジェンセンとの対話から得た一つの教訓は、データセンターのスケーリングがAIでの勝利における主要な競争優位性であるならば、X.AIをこの戦いから除外することはできないということです。
彼らは確かに、ChatGPTのような消費者向けのフライホイールやエンタープライズ向けの何かを見つける必要がありますが、モデルの構築やコンピュートに関しては、間違いなくトップ3かトップ4の中に入る存在になると思います。
ストロベリーのようなモデルについて触れたので、その点で締めくくりたいかもしれません。まだ私たちが直接把握していない部分として、コストがあります。
彼らがストロベリーを発表したときのチャートでは、X軸が対数スケールでした。つまり、新しいプレビュー版のモデルでの検索コストは、通常のChatGPT検索の20倍から30倍に達している可能性があります。
これはほんの1セント未満かもしれませんが、それでも時間がかかる上に高コストになる。ジェンセンは、このコストと時間のトレードオフが許容される問題を見極める必要があると言っていました。
この点に関して、私は少し安心しています。もちろん推測ですが、OpenAIからの直接的な情報はありませんが、私たちが知っているのは、過去1年間で推論コストが90%も下がったということです。
そしてソニーや他のフィールドの専門家たちが言っているのは、推論コストが今後数か月でさらに90%下がるだろうということです。もし対数的に増える需要に対抗しようとしているなら、データの効率的な使い方が重要です。
ここで、ビルにもう一つ思うのは、推論のチェーンの中で知能を組み込んでいくということです。つまり、それぞれの推論インタラクションを最適な場所に送るために、バッチ処理をしたり、時間とコストのトレードオフをうまく操作したりするでしょう。結局のところ、それは時間とお金のトレードオフですから。そして、私たちはまだこのモデルの価格設定について非常に初期の段階にいるとも思います。システム1とシステム2のレベルの思考で考えると、システム1は「フランスの首都はどこですか?」というような簡単な質問であり、これはシンプルなモデルを使ってChatGPTでほんのわずかなコストで答えることができるでしょう。
しかし、例えば科学者がO1をリサーチパートナーとして利用したい場合、1時間あたりの料金を支払うことになり、実際の研究パートナーを雇うコストと比べれば、非常に安くなるかもしれません。したがって、消費モデルがこれに登場するでしょう。
この価格設定についてはまだ始まったばかりで、どうなるかは未知数ですが、確実に違う形で価格設定されると思います。
そして、OpenAIが示唆している通り、O1のフルモデルが今年中にリリースされるかもしれないとも言っています。今、私が待ち望んでいるのは、長年Noam Brownを知っていることもあり、彼が「N of 1」の存在であるという点です。
確かに、この話には面白いところがたくさんありますね。ジェンセンとの話から、
イーロンがX.AIで何をやっているのかということに戻りますが、データセンターのスケーリングがAIで勝利するための主要な競争優位性であるならば、X.AIをこのゲームから外すことはできないという結論に達しました。
確かに、消費者向けのフライホイールやChatGPTのような何かを見つける必要があるでしょうし、エンタープライズ市場向けにもうまく展開していく必要がありますが、彼らはその競争の中で大きな役割を果たすでしょう。
さて、メモリとアクションの話に戻ります。ニケシュをステージに迎えた時のエピソードがとても面白かったですね。彼はGoogleで10年間も大きな役割を果たした人物ですが、私は彼に消費者向けAIとエンタープライズ向けAIの両方について話を聞きました。
そして、彼に対して「2年以内にメモリを持ち、アクションを取ることができるエージェントが登場するかどうか」で賭けをしたんです。
私は「2年以内に実現する」と主張し、彼は「それ以上かかる」と賭けを受けました。
賭けの金額を10倍にして彼が引き受けたのも面白いですよね。
数日後、他の友人にも同じ質問をしましたが、Appleの友人は「2年以上かかる」と言い、Noam Brownは答えを知っているのでコメントを控えました。
これには少し挑発的な感じがありましたが、私はニケシュに「準備しといた方がいい」と伝えました。
ビル、ストロベリーモデルは確かに大きな突破口であり、新しい知能のベクトルを提示していますが、あなたが私たちがよく議論する「メモリとアクション」という話題を忘れさせてしまうところもあります。
しかし、私たちは本当に、そのようなアクションを取れるエージェントの登場がすぐそこまで来ていると思います。
今日のAIでもすでにかなりのことを記憶しているのを感じるでしょう。
実際には、その機能が徐々に体験に組み込まれているのです。
そして、私は近いうちに、簡単なアクションを実行する能力を持つエージェントが現れると信じています。
「すべてのシステムに深いAPIや統合を構築する必要がある」という考え方が、実際にはそうではない形で展開されると思います。
そして、最近のイベントで発表された音声APIのイースターエッグについても触れておきたいです。
それは、GPTが実際に電話で人間と対話して、注文を行うというものでした。これを考えれば、「なぜGPTがホテルに電話して、私のために予約を取れないのか?」という疑問が出てきます。
もちろん、既存の技術ではフォームフィラーやスクレイパーは15年以上前から存在しています。
しかし、問題はコーナーケースです。たとえば、クレジットカードが誤って10,000ドル請求されたら、問題は避けられません。
だからこそ、失敗が許されない環境での信頼性の確保が課題になります。デモは明日にでも可能かもしれませんが、それをスケールに乗せ、信頼できる形で提供できるかどうかが重要です。
ビル、2年以内にこれが実現するかどうか、どう思いますか?スケールでのリリースが可能かどうかという点で、賭けに乗るかどうか教えてください。
ビル:「スケールでのリリース」という条件付きなら、私はオーバーを取りますね。
全員が利用できるようなフルリリースとなると、2年はかかると思います。
ソニー、あなたはどう思いますか?
面白い話が展開されてますね。ソニー、あなたがビルに反論して、「今すぐデモをするんじゃない、15年前の技術と違う」と言った点、重要だと思います。
ビルが心配しているスクレイピングの問題も、実は1つのエージェントだけでなく、何千ものエージェントが協力してそのタスクを実行できるという点で解決されるかもしれません。
例えば、1つのエージェントがクレジットカードのチャージを確認し、もう1つが住所をチェックし、別のエージェントがカレンダーを確認する、といった具合です。
そのため、私は2年以内に実現すると確信しており、さらに1年以内にも限定的なリリースが可能だと考えます。
ブラッド、私も1年未満では賭けませんが、限定的なリリースは1年以内にあり得ると思います。ソニーとビルの間で1,000ドルの賭けが成立しましたね。
これは良い目的のためですし、私たち全員が賭けに参加して、お友達のスタンリー・タンも賛同しているようです。確実にいい目的に使われるでしょう。
さて、これが「1兆ドルの質問」だと思います。モデルのスケーリングやコンピュート層に注目していることはわかりますが、実際に人々の生活を変えるのは何か?
それは、メモリを持ち、アクションを取れるインテリジェントアシスタントの登場です。
10個の青いリンク(従来の検索結果)を完全に置き換える、つまりアプリエコシステム全体を変革するのは、このインテリジェントアシスタントだと思います。
先進的な音声モード、音声API、Strawberry O1、思考プロセスのスケーリングが組み合わさったとき、この進展は私たちが思っているよりもずっと早く進むと感じています。
もちろん、リリースのペースを遅らせる可能性もあります。
ビジネス的な理由で慎重になるかもしれません。
しかし、技術的には、Noam Brownも述べたように、我々が目の当たりにしている結果がここまで速く出るとは思わなかった、と彼自身も驚いているのです。
さて、もう1つの話題に戻りたいと思います。ジェンセンが「従業員数を20~25%増やすだけでビジネスを2~3倍に拡大できる」と言っていた話ですが、ビル、あなたの考えを聞きたいです。私たちが話したように、私たちは今、前代未聞の生産性ブームや利益率の拡大の時代を迎えているのでしょうか? ニケシュは、「ビジネス全体で20~30%の生産性向上が可能だ」と言っていました。
まず、NVIDIAは非常に特別な会社であり、システム企業であるだけでなく、IP(知的財産)企業です。需要が非常に急速に成長しているため、追加のデザイナーや開発者を必要とせず、自然に収益が増えていきます。営業利益率も記録的な水準です。
しかし、一般的な企業においては、生産性ツールを展開しない企業は競争に負け、最終的にビジネスから撤退することになるでしょう。
一方で、私がいつも心に留めているのは「ハイパーグロースはミクロ経済学の教訓を遅らせる」という考え方です。
かつてPC市場を見ていた時、5つの公開企業がすべて100%成長していました。
ハイパーグロースの時期には、利益率が持続可能かどうかはさておき、参加企業が多く存在し、利益率も高くなることがあります。ただし、それが持続可能かどうかは未知数です。
ですから、NVIDIAのように特別な会社は確かにあるかもしれませんが、全企業が60%の利益率に達するとは考えにくいでしょう。
たとえば、航空会社のようなコモディティ市場では、AIを使ってもすぐに競争に晒されて利益率が圧縮されるでしょう。
日曜日の話題に戻ってきましたね。ソニー、あなたが何か反応を持っているかと思ったんですが、私もいくつか気になるトピックに触れたかったです。ですが、まずはソニー、何か意見はありますか?
ソニー:「そうですね、レックス・フリードマンのポッドキャストにリンカスが登場するんですか?どう思いますか?」
いや、ちょっとその話題からは外れているけど、
最近ジェンセンがポッドキャストで言っていた、彼らが内部でAIをどれだけ使っているかについて、特にデザインや検証など、考えさせられることが多かったですね。
彼が「生産性の向上が30%」と言っていたけど、私はそれは控えめに言っていたんじゃないかと思っています。
実際には、数百パーセントの生産性向上を話しているんじゃないかと。多くの会社がそのスピードで追いつけないというのが唯一の問題です。
だから、ジェンセンがそのコメントをした時、彼がまだいくつかのカードを隠しているんじゃないかと思いました。
それが、モデル開発に反映されているのを感じるんです。
ここ数週間で、彼らは独自のモデルを発表していますが、Metaや他の企業ほどの話題にはなっていません。
けど、彼らは実際には私たちが考えている以上のことをしていると思いますし、非常に難しい問題にも取り組んでいると思います。
ブラッド、なぜ彼らは独自のモデルを公開したんでしょうか?
これは「オープン vs クローズド」の議論に関連していますね。
ビル、私もこの質問をしなきゃいけないと思いました。
ジェンセンの答えは素晴らしかったです。「経済的な理由から、AGIのような方向に進む企業がいて、クローズドなモデルで最良の結果を出し、マネタイズするのは理解できる。
でも、世界はクローズドなモデルだけでは発展しない。オープンとクローズドの両方が必要だ」と彼は言いました。
彼はさらに、「オープンソースがなければ、多くの分野の科学がAIによって活性化されることはなかっただろう」と言い、Llamaモデルが急成長していることにも触れました。
また、NVIDIAが独自に公開したオープンソースモデルについても、彼は興味深いことを言っていました。
彼らは特定の能力に焦点を当てていて、それは「モデルをエージェント的に使用して、モデルをより早く賢くする方法」ということでした。
まるでトレーニングやコーチングを行うモデルのようです。
だから、彼らがそれを公開するのは理にかなっています。ただ、よくある「オープン vs クローズド」の議論が、安全性やセキュリティの話にすり替えられることが多いですが、ジェンセンは「これらは関連しているけど、同じことではない」とも言っていました。
安全性とセキュリティについて彼がコメントしたもう一つの点は、今では非常に多くのエージェントや活動がこの分野に取り組んでいて、すでに多くの会社がAIの安全性とセキュリティに対して非常に大きな努力をしているということです。
これは、規制当局の上からのアプローチがない場合でも、各企業が自主的に取り組んでいるという事実であり、非常に重要なコメントだと思いました。
今回の話に参加してくれてありがとう。このポッドキャストは特別なものでしたね。
そして、賭けも成立しました!私はポッドキャストで実際にMercerホテルの予約をライブでやるのが楽しみです。そしてソニー、空からお金が降ってくるのを見ながら、私たちはただ集金すればいいですね。
では、また近いうちに話しましょう。