エヌビディア(NVDA)のCEOによるGS主催コミュニケーションズ+テクノロジー・カンファレンス(一部参考和訳)
針 俊也(ゴールドマンサックス・アナリスト)
昨晩遅くに飛行機で着いた。朝の7時20分にステージに立つとは思っていなかったんだけど、他のみんなはそうだったみたいだね。だから、ここにいる。ジェンセン、来てくれてありがとう。ここに来られてうれしい。皆さん、お集まりいただきありがとうございます。皆さん、会議を楽しんでいただけたでしょうか?素晴らしいイベントで、たくさんの素晴らしい企業が参加し、数千人が集まっている。本当に素晴らしいイベントです。そして、NVIDIAの社長兼CEOであるジェンセンをお招きできたことは、本当に光栄なことです。1993年にNVIDIAを設立して以来、あなたはコンピューティングを加速するパイオニアです。1999年のGPUの発明は、PCゲーム市場の成長に火をつけ、コンピュータを再定義し、現代のAIの時代に火をつけました。ジェンセンはオレゴン州立大学でBSEE学位、スタンフォード大学でMSEE学位を取得している。それではまず、ジェンセンさんをお迎えしたいと思います。皆さん、ジェンセンの登壇を歓迎しましょう。
ジェンセン・ファン(エヌビディアCEO)
ありがとうございます。
質疑応答
Q - 針俊也
では、本当に気軽に、あなたが情熱を注いでいることについて話してもらおうと思います。ただ、31年前に会社を設立して、ゲーム中心のGPU会社から、データセンター業界に幅広いハードウェアとソフトウェアを提供する会社へと変貌を遂げました。まずは、その道のりを少しお聞かせください。始めたとき、何を考えていたのか、どのように発展してきたのか。そして、そこから少し離れて、今後の重要な優先事項や世界を見据えていることについて、少しお話しいただけますか?
ジェンセン・ファン
ああ、デビッド、ここに来れて嬉しいよ。私たちが正しかったと言えるのは、汎用コンピューティングを補強して、汎用機器が決して得意としない問題を解決できるような、別の形のコンピューティングが存在するというビジョンがあったということです。そのプロセッサーは、最初はCPUではとてもできないようなこと、つまりコンピューター・グラフィックスからスタートするのですが、やがてそれを他のことへと拡張していくのです。もちろん、最初に選んだのは画像処理で、これはコンピューターグラフィックスを補完するものです。それを物理シミュレーションにまで拡張したのは、私たちが選んだビデオゲームという応用分野では、美しくありたいが、バーチャルな世界を作るためにダイナミックであることも求められるからだ。私たちは一歩一歩ステップを踏み、その先の科学的コンピューティングへと発展させていったのです。最初のアプリケーションのひとつは分子動力学シミュレーションでした。もうひとつは地震処理で、これは基本的に逆物理学です。地震処理は、CT再構成と非常に似ていて、これも逆物理の一種です。私たちは一歩一歩、補完的なタイプのアルゴリズムや隣接する産業について推論し、いわば自分たちのやり方を解決していったのです。しかし、当時の共通のビジョンは、アクセラレイテッド・コンピューティングが興味深い問題を解決できるというものでした。そして、もしアーキテクチャの一貫性を保つことができれば、つまり、今日開発したソフトウェアが、置き去りにしてきた大規模なインストールベース上で動作し、過去に作ったソフトウェアが新しいテクノロジーによってさらに加速されるようなアーキテクチャを私は持っている、ということでした。アーキテクチャの互換性を考え、大規模なインストールベースを作り、エコシステムのソフトウェア投資も一緒に引き受ける、この心理学は1993年に始まり、今日まで受け継がれてきました。ソフトウェア開発者の投資を保護することは、設立当初から当社の最優先事項でした。もちろん、創業者としてのあり方を学び、CEOとしてのあり方を学び、ビジネスの進め方を学び、会社の作り方を学び......。
針 俊也
簡単なことじゃない。
ジェンセン・ファン
これらはすべて新しいスキルで、現代のコンピューターゲーム業界を発明する方法を学んでいるようなものです。NVIDIAは -- みんな知らないだろうけど、NVIDIAはビデオゲームアーキテクチャーのインストールベースとしては世界最大なんだ。GeForceは世界で約3億人のゲーマーを獲得しており、今でも信じられないほど順調に成長しています。ですから、新しい市場に参入するたびに、新しいアルゴリズム、新しい市場力学、新しいエコシステムを学ばなければなりませんでした。なぜそのようなことをしなければならないかというと、汎用コンピューターとは異なり、プロセッサーを作れば、最終的にはすべてが動くようになるからです。つまり、何を加速させるのか?普遍的なアクセラレーターというものは存在しない。
針 俊也
もう少し掘り下げて、汎用コンピューティングとアクセラレーテッド・コンピューティングの違いについて教えてください。
ジェンセン・ファン
ソフトウェアを見てみると、あなたが書いたソフトウェアの中には、ファイルIOがたくさんあり、データ構造をセットアップし、魔法のカーネルや魔法のアルゴリズムを持っている部分があります。このアルゴリズムは、それがコンピューターグラフィックスなのか画像処理なのか、あるいは何なのかによって異なる。流体かもしれないし、粒子かもしれないし、さっき言ったような逆物理学かもしれないし、画像領域のようなものかもしれない。このように、アルゴリズムはすべて異なります。もし、これらのアルゴリズムが得意なプロセッサを作り、CPUが得意なことを補完すれば、理論的には、アプリケーションを驚異的に高速化することができます。その理由は、通常コードの5%か10%が実行時間の99.999%を占めているからです。その5%のコードを我々のアクセラレーターでオフロードすれば、技術的にはアプリケーションを100倍高速化できるはずです。私たちがそうするのは異常なことではありません。珍しいことではありません。画像処理を500倍高速化する。次はデータ処理です。データ処理は私の好きなアプリケーションの1つです。なぜなら、機械学習に関連するほとんどすべてのもの、つまりデータ駆動型のソフトウェアのやり方であるデータ処理が進化してきたからです。SQLデータ処理であったり、Sparkタイプのデータ処理であったり、ベクターデータベースタイプの処理であったり、非構造化データであったり、構造化データであったり、データフレームであったりと、あらゆる種類の処理方法があり、私たちはそれを高速化しています。しかし、そのためにはライブラリーを作らなければならない。コンピューター・グラフィックスの場合、幸運なことにシリコン・グラフィックスのOpenGLとマイクロソフトのDirectXがありました。しかし、それ以外のライブラリは存在しませんでした。例えば、私たちの最も有名なライブラリのひとつは、SQLのようなライブラリです。SQLはインストレージ・コンピューティングのためのライブラリです。cuDNNは世界初のニューラルネットワーク・コンピューティング・ライブラリです。そして、cuDNN、組み合わせ最適化のためのcuOpt、量子シミュレーションとエミュレーションのためのcuQuantum、あらゆる種類のライブラリ、データフレーム処理のためのcuDF、例えばSQLなどがあります。アプリケーションで実行されるアルゴリズムを、アクセラレーターが実行できるようにリファクタリングするために、これらのさまざまなライブラリを開発しなければならない。これらのライブラリを使えば、100倍のスピードアップが可能になります。
針 俊也
もっと速くなりますよ。
ジェンセン・フアン
信じられない。でも問題は、どうやってこれらのアルゴリズムを発明し、ビデオゲーム業界に使わせ、これらのアルゴリズムを書き、地震処理やエネルギー業界全体に使わせ、新しいアルゴリズムを書き、AI業界全体に使わせるかということです。何が言いたいかわかるかい?
針 俊也
そうだね。
ジェンセン・ファン
だから、これらのライブラリは......どれもこれも、まずコンピュータサイエンスをやらなければならなかった。次に、エコシステムの開発です。そして、どのようなコンピュータで動作させたいのか、コンピュータはすべて異なります。ですから、私たちは次から次へと別のドメインを開発しました。自動運転車のための豊富なライブラリがあります。ロボット工学のための素晴らしいライブラリもあるし、物理学ベースのバーチャルスクリーニングであれ、ニューラルネットワークベースのバーチャルスクリーニングであれ、バーチャルスクリーニングのための素晴らしいライブラリもある。このように、次から次へと領域が広がっている。ですから、私たちは友人に会いに行き、市場を創造しなければなりません。エヌビディアが得意とするのは、新しい市場を創造することです。エヌビディアのアクセラレーテッド・コンピューティングはどこにでもあるように見えますが、私たちは本当に1つずつ、1つの産業ごとに(ライブラリの開発を)やっていかなければならなかったのです。
針 俊也
会場にいる多くの投資家がデータセンター市場に非常に注目していることは承知しています。そこで、中長期的なビジネスチャンスについて、御社の見解をお聞かせいただければと思います。明らかに、御社の業界は次の産業革命を可能にしています。業界が直面している課題は何でしょうか?データセンター市場をどのように見ているのか、少しお聞かせください。
ジェンセン・ファン
同時に起こっている2つのことがあり、混同されがちですが、分けて考えることが有益です。まず1つ目は、AIがまったくない状態から始めましょう。AIがまったくない世界では、汎用コンピューティングはまだ息切れしています。デナード・スケーリングは、半導体物理学が好きな人なら誰でも知っていることですが、デナード・スケーリングやミード・コンウェイのトランジスタの縮小、トランジスタのスケーリング、ISOパワーによる性能向上やISOコストによる性能向上といったデナード・スケーリングは、もう終わったのです。
だから、CPUや汎用コンピューターが毎年2倍速くなるようなことは、もう二度とないだろう。10年ごとに2倍速くなればラッキーだ。ムーアの法則は、昔は5年ごとに10倍、10年ごとに100倍だった。つまり、CPUが速くなるのを待つしかないのだ。そして、世界のデータセンターがより多くの情報を処理し続けるにつれて、CPUは毎年2倍速くなった。そのため、計算機のインフレは見られませんでしたが、今ではそれも終わりました。今、私たちは計算インフレを目の当たりにしている。だから私たちがやらなければならないのは、できることはすべて高速化することです。SQL処理をしているなら、それを高速化する。何らかのデータ処理をしているのであれば、それを高速化する。もしインターネット企業を立ち上げ、レコメンダー・システムを導入するのであれば、絶対にそれを加速させなければならない。数年前はすべてCPUで動いていましたが、今では世界最大のデータ処理エンジンであるレコメンダー・システムはすべて高速化されています。ですから、レコメンダー・システムや検索システム、大量のデータを処理するような大規模なデータ処理には、高速化が必要なのです。そのため、まず最初に起こることは、世界中にある1兆ドル規模の汎用データセンターが、アクセラレーテッド・コンピューティングに近代化されることです。それは何があろうと起こることです。何があろうとそうなる。その理由は、私が説明したように、ムーアの法則が終わったからです。そのため、これから起こる最初の動きは、コンピューターの高密度化です。巨大なデータセンターは空気で満たされているため超非効率的で、空気は電気の伝導性が悪い。そこで私たちがやりたいのは、50メガワット、100メガワット、200メガワットといった数少ないデータセンターを、広大なデータセンターにして、本当に小さなデータセンターに高密度化することです。NVIDIAのサーバーラックは、1ラックあたり数百万ドルと高価に見えますが、何千ものノードを置き換えることができます。驚くべきことに、古い汎用コンピューティング・システムを接続するケーブルだけでも、それらをすべて交換して1つのラックに高密度化するよりもコストがかかるのです。高密度化の利点は、高密度化したことで液冷が可能になることです。非常に大きなデータセンターを液冷するのは難しいですが、非常に小さなデータセンターを液冷することはできます。そのため、私たちが行っている最初のことは、データセンターの近代化を加速させ、高密度化し、エネルギー効率を高めることです。お金を節約し、電力を節約し、より効率的にする。それだけに集中すれば、今後10年間はそれを加速させるだけだ。NVIDIAのアクセラレーテッド・コンピューティングがコンピューティングに莫大なコスト削減をもたらしたため、この10年間で、ムーアの法則が100倍になる代わりに、コンピューティングは100万倍になったようなものです。もし飛行機が100万倍速く飛んだら、あなたはどうするだろうか?そこで突然、人々はこう言ったんだ。私たちが特徴を解明しようとする代わりに、アルゴリズムが何であるかを解明しようとする代わりに、すべての予測データをコンピューターに与えて、アルゴリズムが何であるかをコンピューターに解明させればいい。機械学習、ジェネレーティブAI。私たちはそれを非常に多くの異なるデータ領域で大規模に行ったので、今やコンピューターはデータの処理方法だけでなく、データの意味も理解できるようになった。また、複数のモダリティを理解するため、同時にデータを翻訳することもできる。英語から画像へ、画像から英語へ、英語からタンパク質へ、タンパク質から化学物質へ。一度にすべてのデータを理解するため、このような翻訳が可能になるのです。私たちはこれをジェネレーティブAIと呼んでいます。大量のテキストを少量のテキストに、少量のテキストを大量のテキストに、といった具合に。私たちは今、このコンピューター革命の中にいるのです。そして今、驚くべきことに、最初の1兆ドル規模のデータセンターが加速され、ジェネレーティブAIと呼ばれる新しいタイプのソフトウェアが発明されようとしている。このジェネレーティブAIは単なるツールではなく、スキルなのです。これが興味深い点です。これが新しい産業が生まれた理由です。その理由は、IT業界全体を見てみると、これまでは人々が使う道具やツールを作ってきました。今回初めて、人を補強するスキルを作ろうとしている。だからこそ、AIは1兆ドル規模のデータセンターやITの枠を超え、スキルの世界へと拡大すると考えられているのです。では、スキルとは何か?デジタル運転手はスキルであり、自律的であり、デジタル組立ライン労働者であり、ロボットであり、デジタル顧客サービスであり、チャットボットであり、エヌビディアのサプライチェーンを計画するデジタル従業員である。デジタルSAPのエージェントかもしれない。私たちは今、企業で多くのサービスを利用していますし、デジタル従業員サービスもあります。そして今、私たちは本質的に、これらすべてのデジタル・ヒューマンを手にしている。それが、今私たちが直面しているAIの波なのです。
針 俊也
では、一歩下がって、少しシフトしてください。今おっしゃったことを総合すると、金融市場では、AIのインフラを構築し続けることで、十分な投資対効果が得られるかどうかという議論が続いています。
ジェンセン・ファン
そうですね。
針 俊也
サイクルのこの時点で、顧客のROIをどのように評価しますか?また、PCやクラウド・コンピューティングについて振り返ってみると、それらが導入サイクルの同じような段階にあったとき、私たちが拡大を続けている現在の状況と比較して、ROIはどうだったのでしょうか?
ジェンセン・ファン
そうですね。では、見てみましょう。クラウドの前の大きなトレンドは仮想化でした。仮想化は基本的に、データセンターにあるすべてのハードウェアを仮想化し、基本的に仮想データセンターにしようというもので、そうすればワークロードを特定のコンピューターに直接関連付けるのではなく、データセンター全体で移動できるようになります。その結果、データセンターの傾向や利用率が改善しました。仮想化によって、データセンターのコストは一夜にして2対1、言うなれば2.5対1になったのです。もうひとつは、仮想化した後、その仮想コンピュータをクラウドに移行したことです。その結果、1社だけでなく複数の企業が同じリソースを共有できるようになり、コスト削減と利用率の向上が実現しました。ところで、この10年間、つまり15年間、このようなことが繰り返された結果、ムーアの法則の終焉という根本的なダイナミズムが覆い隠されてしまった。私たちは2倍のコスト削減を発見しましたが、それはトランジスタの微細化の終わりを隠すものでした。トランジスタとCPUのスケーリングを隠してしまったのです。そして突然、私たちはこれら2つのものからすでに利用コストの削減を手に入れたのです。そして今、私たちはそれを脱したのです。これが、データセンターとコンピューティングのインフレが今起きている理由です。まず最初に起こっているのは、コンピューティングの高速化です。スパークというものがあります。Sparkはおそらく、現在世界で最も使われているデータ処理エンジンでしょう。Sparkを使い、クラウドでNVIDIAのGPUを使って高速化すれば、20対1のスピードアップも珍しくありません。NVIDIAのGPUはCPUを補強するので、計算コストは少し上がります。倍になるかもしれませんが、計算時間は約20分の1になります。つまり、10倍の節約になります。アクセラレーテッド・コンピューティングでこのようなROIを見るのは珍しいことではありません。ですから、私は皆さんに、加速できるものはすべて加速し、加速したらGPUで実行することをお勧めします。これが、アクセラレーションによって得られる即座のROIです。私たちやクラウド・サービス・プロバイダーのようなインフラ・プレーヤーがクラウドにインフラを置くことで、開発者はこれらのマシンを使ってモデルのトレーニングやモデルの微調整、モデルのガードレールなどを行うことができます。そしてその見返りは素晴らしいもので、需要が非常に大きいため、私たちに1ドル使うごとに5ドル分のレンタル料になるのです。これは世界中で起こっていることで、すべて完売しています。だから、この需要は本当にすごいんだ。私たちがすでに知っているアプリケーションのいくつかは、もちろん有名なもので、OpenAIのChatGPTやGitHub Copilot、あるいは私たちの会社で使っているコードジェネレーターなどです。CUDA用に自作したものや、社内で使用している別の言語であるUSD、Verilog、CやC++、コード生成などのコードジェネレーターを使用していないソフトウェアエンジニアは、現在、社内に1人もいません。ですから、すべてのコードをソフトウェア・エンジニアが書くという時代は完全に終わったと思います。ソフトウェア・エンジニアの一人一人が、基本的に24時間365日、コンパニオンのデジタル・エンジニアと一緒に働くという考え方が、未来なのです。エヌビディアには32,000人の従業員がいます。その3万2,000人の従業員は、うまくいけば100倍以上のデジタル・エンジニアに囲まれています。
針 俊也
多くの業界がデジタル技術を取り入れていますね。どのようなケース -- ユースケース、産業について最も期待していますか?
ジェンセン・ファン
私たちの会社では、コンピューターグラフィックスに使っています。人工知能なしには、もうコンピューターグラフィックスはできません。あるピクセルを計算し、残りの32ピクセルを推測する。つまり、信じられないことなんです。そして、他の32ピクセルを幻覚のように見せ、時間的に安定し、写真のように写実的で、画質も素晴らしく、性能も素晴らしく、エネルギーの節約にもなります。これが計算です。他の32ピクセルを推論するのに必要なエネルギーはごくわずかで、しかも信じられないほど高速に実行できます。もちろん、それは最初のステップに過ぎません。モデルを使えば、膨大なエネルギーを節約でき、膨大な時間を節約できる。ですから、私たちはコンピューターグラフィックスにそれを使っています。もしAIがなければ、私たちは自律走行車業界に貢献できなかったでしょう。ロボット工学やデジタル・バイオロジーの分野で私たちが行っている仕事は、最近私が会う技術系バイオ企業のほとんどがエヌビディアのGPUの上に構築されています。
針 俊也
それはとてもエキサイティングな分野ですね。
ジェンセン・フアン
すごいですね。低分子の生成、バーチャルスクリーニング。つまり、人工知能のおかげで、コンピューター支援による創薬という、まさに初めての分野全体が再発明されようとしているのです。信じられないような研究が行われているんだ。
針俊也
そうですね。競争について、また競争力のある堀についてお聞かせください。確かに、グループ企業、公的企業、民間企業があなたのリーダー的地位を破壊しようとしています。競争力のある堀についてどうお考えですか?
ジェンセン・ファン
まず第一に、私たちについては、いくつかの点が非常に異なっていると思います。まず第一に、AIはチップのことではないということを覚えておくことです。AIとはインフラストラクチャのことです。今日のコンピューティングは、チップを作り、それをコンピュータに入れるというものではありません。今日のコンピュータの作り方は、私たちの新しいブラックウェル・システムを見ると、システムを作るために7種類のチップを設計しました。Blackwellはそのうちの1つです。
針 俊也
Blackwellについてお聞きしたいのですが?
ジェンセン・ファン
ええ。驚くべきことに、このAIコンピューターを構築しようとするとき、人々はスーパークラスター(機械学習の大規模処理に特化した高性能な計算機システム)、インフラストラクチャー、スーパーコンピューターといった言葉を口にします。私たちはデータセンター全体を構築しています。データセンター全体を構築することで、これらのスーパークラスターを見て、それを動かすために必要なソフトウェアを想像してみてください。Microsoft Windowsもない。そんな時代は終わったのだ。だから、コンピュータの中に入っているソフトウェアはすべてオーダーメイドなんだ。誰かがそれを書かなければならない。ですから、チップを設計する人と、スーパーコンピューターやスーパークラスタを設計する会社、そしてその中に入るすべてのソフトウェアを設計する会社が同じであることは理にかなっています。これが第一のポイントだ。もうひとつは、AIはアルゴリズムに関するものだということです。私たちは、アルゴリズムとは何か、その下にある計算スタックにはどのような意味があるのか、そしてこの計算を何百万ものプロセッサーに分散させ、何日も何日も実行し、コンピューターが可能な限り回復力を持ち、優れたエネルギー効率を達成し、可能な限り速く仕事を終わらせるためにはどうすればいいのか、などを理解することに長けています。私たちはそのようなことを得意としています。そして最後に、AIはコンピューティングです。AIはコンピューター上で動作するソフトウェアです。コンピュータにとって最も重要なことはインストールベースであり、オンプレミスからクラウドまであらゆるクラウドで同じアーキテクチャを持ち、同じアーキテクチャを利用できることです。クラウドで構築しようが、自分のスーパーコンピュータで動かそうが、車やロボットやPCで動かそうが、同じアーキテクチャを持ち、同じソフトウェアがすべて動くことは大きな意味を持ちます。これをインストールベースと呼ぶ。この30年間の規律が、今日につながっているのです。そのおかげで、もしあなたが会社を始めるとしたら、エヌビディアのアーキテクチャを使うのが一番わかりやすいでしょう。なぜなら、私たちはあらゆるクラウドにあり、あなたが好きな場所で買うことができるからです。NVIDIAと書いてあれば、どんなコンピュータでも、そのソフトウェアを使って実行することができるのです。
針 俊也
そうですね。あなたは信じられないほど速いペースで革新を続けています。ブラックウェルについてもう少し話してほしい。前身のHopperと比べて、(ブラックウェルは)トレーニングが4倍速く、推論が30倍速い。このように速いペースで革新を続けているように思えます。この急速な技術革新のペースを維持できますか?また、パートナーについて考えるとき、パートナーはどのようにしてあなたの提供するイノベーションのペースについていけるのでしょうか?
ジェンセン・ファン
イノベーションのペース、私たちの基本的な方法論は、インフラを構築することです。7つの異なるチップがあります。それぞれのチップのリズムはせいぜい2年でしょう。毎年中途半端なキッカーを与えることもできる。しかし、2年ごとに新しいアーキテクチャを開発するのであれば、それは光の速さです。ものすごいスピードで走っているんだ。今、私たちには7つの異なるチップがあり、そのすべてが性能に貢献しています。ですから、私たちはイノベーションを起こし、前世代よりも優れた新しいAIクラスター、スーパークラスターを毎年市場に送り出すことができるのです。そして、私たちが行っているような規模でのパフォーマンスの利点は、TCOに直結します。Blackwellの性能が3倍であれば、例えば1ギガワットであれば、収益は3倍になります。その性能はスループット(単位時間あたりに処理できるデータ量や作業量)にも反映される。そのスループットが収益につながる。つまり、1ギガワットの電力を使っている人は、3倍の収益を得ることができるのです。3倍の収益を補うためにチップのコスト削減やディスカウントをすることはできません。ですから、さまざまなパーツを統合し、スタック全体を最適化し、クラスタ全体を最適化することで、より高いパフォーマンスを提供することができるのです。その逆も同様だ。どのような金額であっても、ISOパワーであれば3倍の収益を得ることができる。つまり、ISOパワーの場合、収益の3倍、ISOパワーの場合、パフォーマンスの3倍、ISOパワーの場合、パフォーマンスの3倍、ISOパワーの場合、パフォーマンスの3倍、ISOパワーの場合、コストの3倍ということになる。そのため、私たちはワット当たり最高のパフォーマンス、つまり収益を上げています。TCO(粗利益率)あたりのパフォーマンスも最高です。私たちはこれを市場に提供し続けています。顧客は2年に1度ではなく、その恩恵を受けることができます。また、アーキテクチャーの互換性もあります。昨日開発したソフトウェアは明日も使えます。今日開発したソフトウェアは、インストールベース全体で動作します。だから、信じられないほど速く走ることができる。もしすべてのアーキテクチャが異なっていたら、こんなことはできません。ある人がツイートしていましたが、私たちがシステムを出荷してから19日後にはスーパークラスターが稼働していたそうです。さまざまなチップを寄せ集めてソフトウェアを書いていたのでは、1年かかっても無理でしょう。ですから、私たちのイノベーション・ペースを顧客に還元することで、より多くの収益を上げ、より良い粗利率を確保することができるのです。
針 俊也
御社のサプライチェーン・パートナーの大半はアジア、特に台湾で事業を展開しています。地政学的に何が起こっているのか、今後どのようにお考えですか?
ジェンセン・ファン
ご存知のように、アジアのサプライチェーンは本当に広大で、相互につながっています。というのも、一昔前、私が新しいチップ、つまり新世代のチップを発表するときは、そのチップを掲げていました。それが新しいGPUだったわけです。NVIDIAの新しいGPUは、部品点数3万5000点、重さ80ポンド、消費電力1万アンペアです。それを積み上げると3,000ポンドになります。これらのGPUは非常に複雑で、電気自動車のように構成されています。そのため、アジアのエコシステムは実に多様で、相互につながっています。私たちは、できる限りあらゆる面で多様性と冗長性を設計するようにしています。そして最後の部分は、社内に十分な知的財産を持つことです。あるファブから別のファブへシフトしなければならなくなった場合、私たちはそれを実行する能力を持っています。もしかしたらプロセス技術はそれほど優れていないかもしれませんし、同じレベルの性能やコストは得られないかもしれませんが、供給することはできます。ですから、万が一何かあったとしても、私たちはそれを他のどこかで調達し、製造することができるはずです。私たちがTSMC(台湾セミコンダクター)でファブ(チップを製造)しているのは、TSMCが世界最高だからであり、それはわずかな差ではなく、信じられないほどの差で世界最高だからです。彼らとの長い協業の歴史、相性の良さ、敏捷性、スケーリングが可能であるという事実だけでなく、エヌビディアの昨年の売上高が大きなホッケースティックであったことを思い出してください。この大きなホッケースティックは、サプライチェーンが対応していなければ不可能だったでしょう。TSMCを含むサプライ・チェーンの俊敏性は驚異的です。わずか1年足らずの間に、我々はCoWoS(Chip on Wafer on Substrate)の生産能力を驚異的に拡大しました。しかし、それにもかかわらず、私たちのニーズに応える機敏さとその能力は本当に素晴らしい。もちろん、必要であれば、いつでも他のものを導入することができる。
針 俊也
そうだね。会社は信じられないほど有利な立場にある。これまで話してきたように、素晴らしいものがたくさんある。何か心配なことはありますか?
ジェンセン・フアン
私たちの会社は今日、世界中のあらゆるAI企業と連携しています。私たちは今日、世界中のあらゆるデータセンターと連携しています。データセンター、クラウド・サービス・プロバイダー、コンピューター・メーカーの中で、私たちが一緒に仕事をしていないところは1つもありません。そのため、莫大な責任が伴います。そして、私たちの肩には多くの人々がいて、誰もが私たちを頼りにしている。私たちのコンポーネントやテクノロジー、インフラ、ソフトウェアの納入は、その企業の収益や競争力に直接影響するため、非常に感情的なものなのです。そのため、私たちは今日、おそらく感情的な顧客をより多く抱えている。もしすべての人のニーズを満たすことができれば、感情的なものはなくなるでしょう。しかし、非常に感情的で、本当に緊張している。私たちは多くの責任を背負っており、最善を尽くそうとしている。そして今、Blackwellはフル稼働しています。第4四半期に出荷し、第4四半期から来年にかけて規模を拡大する予定です。その需要は非常に大きい。誰もが一番になりたがり、一番になりたがり、一番になりたがる。だから、次のコンピューター時代を発明するのは楽しいことだと思う。素晴らしいアプリケーションが生み出されるのを見るのは楽しい。ロボットが歩き回っているのを見るのは信じられない。デジタルエージェントがチームとして一緒になって、コンピュータの中で問題を解決するのも素晴らしいことです。AIを動かすチップを設計するために私たちが使っているAIを見るのも驚きです。そのようなものはすべて、見るのが信じられないようなものです。ただ、本当に強烈なのは、私たちの肩に世界がのしかかっていることです。だから睡眠時間は短くてもいいし、3時間しっかり寝れば十分なんだ。
針 俊也
それは良かったね。僕はもっと必要だ。あと30分でもいい。残念だけど、もうやめよう。ジェンセン、今日はありがとうございました。
ジェンセン・ファン
ありがとう。お元気で。
針 俊也
ありがとう。