見出し画像

「コデザインとフルスタックで超越する次世代コンピューティング」NVIDIA ジェンスン・ファン ロングインタビュー


 NVIDIAのジェンスン・ファンCEOを迎えて行われたロング・インタビューの内容を紹介します。(2024年11月07日に公開)

 このインタビューでは、ジェンスン・フアンCEOは、NVIDIAの成長を次世代のAI技術に結びつけ、特にデータセンターのスケーリングや性能向上に注力しており、10年先を見据えたイノベーションとして、現在のコンピューティング・アーキテクチャの限界を超えるためのコデザインやフルスタックのアプローチについて言及。また、AIのインテリジェンスを基盤とした新たな産業インフラを構築するためのデータセンターアーキテクチャ開発への取り組みも紹介し、さらに、ハイパースケーラー顧客の異なるクラウド・アーキテクチャへのデザイン適用など、普段のイベント・キーノートではあまり聞くことのできない話も紹介されています。ご参考下さい。


[主なサブテーマ]

  • NVIDIAの10年にわたる挑戦

  • Hyper Moore’s Law:ムーアの法則の超越

  • Mellanoxの買収、データセンターとNVLink

  • 学習と推論のための互換性

  • データセンターの構築と最適化

  • コデザイン(アルゴリズムとアーキテクチャの相互適応)

  • x.aiのスーパークラスター:短期間構築の秘密

  • データセンターのスーパースケーリング課題

  • 半導体設計におけるAIの役割

  • NVIDIAの時価総額の急成長と企業の進展

  • AIの具現化や汎用人工知能(AGI)

  • AIデジタル従業員

  • サイエンスとエンジニアリングにおけるAI





1. インタビュー


[サラ・グオ](スタートアップ・インベスター)
 今日は、なんと一年前に続いて、NVIDIAの創業者でありCEO、ジェンスン・ファンさんを再びお迎えできました。現在、NVIDIAの時価総額は3兆ドルを超え、AI革命の中心に位置しています。
 今回は、NVIDIA本社に訪問し、ジェンスンさんに、フロンティアモデルやデータセンタースケールのコンピューティング、さらに10年先を見据えたNVIDIAの戦略について語っていただきます。

 


[サラ・グオ]
 ジェンスンさん、改めてご出演いただきありがとうございます。NVIDIA創業から30年が経ち、今後10年の展望についてお聞きしたいと思います。

 これからの大きな勝負はどこにあるとお考えですか?
規模を拡大していくことが全てなのでしょうか?または、現在のアーキテクチャには限界が見えてきているのでしょうか? 現在、どこに注力されているのか、お伺いしたいです。


[ジェンスン・フアン](NVIDIA)
 少し振り返ってみると、私たちはこれまでコーディングから機械学習、ソフトウェアツールの開発からAIの創出へと進化を遂げてきました。そして、以前は人間がコーディングしたものを動かすために設計されたCPU上で動作していたものが、今やAIコーディング、つまり機械学習のために設計されたGPU上で動作しています。コンピューティングの方法、技術スタック、そして扱える課題の規模までもが大きく変わりました。
 もし1つのGPU上でソフトウェアを並列処理できれば、それをクラスター全体、さらには複数のクラスターやデータセンターにまで並列化できる土台ができたことになります。これにより、これまで想像もできなかった規模でコンピューティングを拡張し、ソフトウェア開発を進められるようになったと感じています。私たちはまだ初期の段階にいるに過ぎません。
 今後10年間では、チップ単体だけでなくスケール全体で毎年2倍から3倍の性能向上を目指しながら、コストもエネルギー消費も毎年2倍から3倍削減することを目標にしています。毎年2~3倍の向上を実現できれば、その積み重ねは指数関数的に急速に大きくなっていきます。ムーアの法則が数年ごとに2倍の改善をもたらしてきたように、私たちは「ハイパー・ムーアの法則」とも呼べるような曲線に沿って進化を遂げられると確信しており、今後もそれを継続していきたいと思っています。


[エラッド・ギル](スタートアップ・インベスター)
 ムーアの法則よりもさらに速く進化できる理由は何なのでしょうか?ムーアの法則はある意味自己実現的なものかと思いますが、ゴードン・ムーア氏が提唱したことで、それに合わせて人々が技術を発展させた部分もあったのかと思います。
 

[ジェンスン・フアン]
 ムーアの法則を支えた2つの技術的な柱は、デナード・スケーリング(訳注①)とカーバー・ミードのVLSIスケーリング(訳注②)でした。
 この2つは厳格な技術でしたが、今では限界に達しています。だからこそ、新たなスケーリングの方法が必要になっています。その鍵となるのが「コデザイン」(co-design)(訳注③)です。システムのアーキテクチャに合わせてアルゴリズムを変更したり、逆に新しいソフトウェアの構造に合わせてシステムを変えたりと、双方を調整できなければ進化は望めません。しかし、両方を制御できれば、FP64からFP32、BF16、FP8、そしてFP4といった新たな数値形式(訳注④)への移行も可能になるわけです。このコデザインが非常に重要な要素です。
 もう1つの要素が「フルスタック」(full stack)で、これにはデータセンタースケールの概念が含まれています。ネットワークを計算ファブリックとして扱い、大規模な圧縮処理をネットワーク上で実行できなければ、効果的なスケーリングはできません。そのために私たちはメラノックス社(Mellanox)を買収し(訳注⑤)、InfinibandとNVLinkを一体化させたのです。NVLinkの進化を見れば、コンピュートファブリックは、複数のGPUが一体となって動作する巨大なプロセッサのようにスケールアウトしていくのがわかります。現在取り組んでいる最もエキサイティングな課題の1つが推論時のスケーリングで、超低レイテンシーでトークンを生成することです。
 この自己実現的なプロセスの中で、ツリーサーチ(木探索)や思考の連鎖(CoT:Chain-of-Thought)、リアルタイム・シミュレーションといった処理を行っていますが、応答を1秒未満で返さなければなりません。そのためには、レイテンシーを極限まで下げる必要があります。一方で、データセンターでは高スループットなトークン生成も目指しており、コストを抑え、スループットを維持しながら十分なリターンを確保することも重要です。この低レイテンシーと高スループットの両立が、相反する課題として存在しています。
 この両方を高次元で実現するために、NVLinkという新たなアプローチを開発しました。仮想GPUは今や、膨大なFLOPS性能を持ち、膨大なコンテキストやワークメモリ、トークン生成のための高い帯域幅が同時に必要とされています。
 

(訳注①)デナード・スケーリング(デナード則)
 チップのトランジスタサイズを縮小することで電力消費を抑えつつ処理性能を向上させる原理で、プロセッサの効率を高める基本原則とされる。ロバート・デナード氏(Robert Heath Dennard)の1974年の論文に基づくスケーリング則。

(訳注②)VLSIスケーリング
 回路設計と製造プロセスの観点から、より小さく、かつ高性能な半導体を作るための技術で、VLSI(超大規模集積回路:Very Large Scale Integration)の設計のパイオニアであるカーバー・ミード氏(Carver Andress Mead)が開発した技術。
これらの技術は共に、半導体の微細化や性能向上を可能にするため、その進化に重要な役割を果たしてきた。

(訳注③)「コデザイン」(Co-design)
 従来のスケーリング手法に代わる新しいアプローチとして、ハードウェアとソフトウェアを相互に適応させて設計するアプローチのこと。従来は、ハードウェアの設計とソフトウェアの設計は各々が別々に行われていましたが、コデザインでは、ハードウェア(システムのアーキテクチャ)とソフトウェア(アルゴリズム)を同時に設計し、特定のタスクや目的に対して両者が互いに適応するよう最適化され、効率的なパフォーマンスを引き出せるようになります。例えば、特定のアーキテクチャが得意とする計算パターンや処理能力に合わせてアルゴリズムを最適化する、またはアルゴリズムに適したハードウェアを構築することで、全体の効率を向上させるようなアプローチで、このような最適化により、従来のスケーリングの限界を超えたより高い効率と性能を実現するもの。

(訳注④)FP64、FP32、BF16、FP8、FP4
各々、以下の数値表現の型を表し、計算対象の精度と処理効率のバランスを目的として、用途に応じて使い分けられます。
FP64(Float64):64ビット浮動小数点
FP32(Float32):32ビット浮動小数点
BF16(BFloat16):16ビットのブレインフロートフォーマット
FP8(Float8):8ビット浮動小数点
FP4(Float4):4ビット浮動小数点

(訳注⑤)メラノックス社(Mellanox)、InfinibandとNVLink
 以下の投稿を参照ください。


[エラッド・ギル]
 素晴らしいですね。モデルを構築する側も劇的に最適化を進めているようです。例えば、私のチームのデイビッドが過去18か月のデータを調べたところ、GPT-4相当のモデルにおいて、100万トークンあたりのコストが240分の1にまで減少しているそうで、モデル開発においても大規模な最適化と圧縮が進んでいるようです。


[ジェンスン・フアン]
 私たちが取り組んでいるレイヤーでは、スタックのエコシステムやソフトウェアの生産性を非常に重視しています。CUDAの基盤が安定しているおかげで、その上にあるすべてのレイヤーが柔軟に進化し続けることができるのです。もし基盤が常に変化していると、その上に安定したものを築くのは難しいですし、革新的なものも生まれにくいですよね。CUDAの存在が、迅速なイテレーション(反復処理)を可能にしてくれています。
 実際、私たちは昨年のベンチマークを改めて測定しました。Llamaが登場してからの1年で、アルゴリズムや上位のレイヤーを変更せずに、Hopperのパフォーマンスを5倍に向上させました。伝統的なコンピューティングでは1年で5倍の改善は不可能ですが、アクセラレーテッド・コンピューティングとコデザインのアプローチにより、これまでにない新しい発明を次々と実現しています。
 


[サラ・グオ]
 貴社の大手顧客は、大規模トレーニングと推論の間のインフラ互換性について、どのくらい意識されているのでしょうか?
 

[ジェンスン・フアン]
 今やインフラは分散型が主流です。最近サム(訳注:OpenAIサム・アルトマン)からも聞いたのですが、彼はつい最近Voltaを廃棄したそうです。PascalやAmpere、そしてBlackwell(訳注⑥)のさまざまな構成が稼働していて、その中には空冷に最適化されたものや液冷に最適化されたものもあります。これらすべてを活用できるサービスが求められることになるでしょう。NVIDIAの強みは、今日トレーニング用に構築したインフラが、明日の推論にも優れた性能を発揮できるという点にあります。
 ChatGPTの多くは、トレーニングに使用したものと同じシステムで推論も行っていると思います。トレーニングが可能なシステムであれば、そのまま推論にも使えるということです。こうしてインフラに投資したリソースが、推論においても非常に効率的に活用され、さらにNVIDIAやエコシステム全体がアルゴリズムの改良を続けることで、1年で性能が5倍向上することも期待できます。この改善のサイクルは永遠に続くでしょう。
  インフラも、トレーニング用に構築されているとしても、推論にも最適化されていると考えられるようになるでしょう。推論はマルチスケール化していきます。小型モデルを抽出するには、大型モデルからのディスティレーション(訳注:モデルの蒸留)が必要です。より小さなモデルを蒸留するには、蒸留元となるより大きなモデルが必要です。つまり、画期的な処理、合成データの生成、より小さなモデルのトレーニング、より小さなモデルへの蒸留など、こうしたフロンティアモデルは依然として開発されていくでしょう。
 最終的には、巨大なモデルから小さなモデルまで幅広いモデルが生まれます。小さなモデルは般化性能では劣りますが、特定のタスクで優れた性能を発揮します。こうした小規模な領域で超人的なパフォーマンスを示す小さなモデルが増えていくでしょう。これらは“Small Language Model“ではなく、“Tiny Language Model“や“TLM“などと呼ばれるかもしれません。そして、あらゆるサイズのモデルが生まれ、今のソフトウェアのように柔軟になることを期待しています。
 多くの側面で、AIは新たなアプリケーションを簡単に作成できるブレイクスルーをもたらしていますが、コンピューティングの基本はあまり変わっていません。例えば、ソフトウェアの維持コストは依然として高く、一度構築したものはできるだけ広範なプラットフォームで動作させたいものです。同じソフトウェアを二度書きたくはありませんね。多くのエンジニアもそう感じていて、技術の進歩を求めているはずです。
 今日構築したソフトウェアが新しいハードウェアでさらに性能を発揮し、明日生み出したAIが広範なインストールベースで稼働することを目指せるアーキテクチャであれば理想的です。こうしたソフトウェアに対する考え方は変わらないでしょう。

(訳注⑥)Volta、Pascal、Ampere、Blackwell
 これらは各々、NVIDIAが開発したGPUアーキテクチャです。
  ・Pascal:2016年に発表。Tesla P100などに利用されている。
  ・Volta:2017年に発表。Tesla V100に利用されている
  ・Ampere:2020年に発表。A100に利用されている。
  ・Hopper:2022年に発表。H100やH200に利用されている。
  ・Blackwell:2024年発表の最新アーキテクチャ。B100やB200で利用。


[サラ・グオ]
 NVIDIAは、顧客のサポートを大規模に拡大しています。単一のチップから、サーバー、ラック、そしてNVL72に至るまで、サポートも変遷してきました。その進化をどう捉えていらっしゃいますか?今後の展開としてNVIDIAは、フルデータセンターを手掛けるのでしょうか?
 

[ジェンスン・フアン]
 実際に私たちは、フルスケールのデータセンターを構築しています。開発で必要なのは、単なるソフトウェアだけでなく、コンピュータが完全な形で機能することです。単にPowerPointスライドを作成したり、チップを出荷するだけではなく、データセンター全体を構築しているのです。データセンターが完全に稼働するのを確認できるまでは、ソフトウェアがきちんと動くか、ファブリックが想定通りの効率を発揮するか、スケールに合わせてすべてがうまく機能するか、確証は得られません。
 カタログに示される「ピーク性能」とは異なって、実際の性能が大きく下回ることも珍しくありません。コンピューティングは昔と同じではなく、今や「データセンター」そのものが新しいコンピューティングの単位なのです。私たちが提供するのは、そのデータセンター全体です。エアー冷却、x86、液冷Grace、Ethernet、Infiniband、NVLinkのあり・なしと、あらゆる構成を手掛けています。現在、社内には5つのスーパーコンピュータがあり、来年はさらに5台以上を構築する予定です。本気でソフトウェアを考えるなら、単にコンピュータを作るのではなく、すべてを統合する全体構成を作り上げるべきです。
 興味深いのは、私たちがそのスケールを拡大して垂直統合し、フルスタックを最適化して構築し、その後、すべてを分解してパーツとして販売していることで、このことは驚異的に複雑なことです。その理由は、GCPやAWS、Azure、OCIなど各社のインフラに私たちのアーキテクチャをシームレスに適用するためです。各クラウドプロバイダのコントロールプレーンやセキュリティプレーンは異なりますし、クラスタのサイズの考え方も異なります。しかし、私たちはそれぞれのインフラがNVIDIAアーキテクチャに対応できるようにし、CUDAがどこにでも展開できるようにしているのです。
 最終的に目指しているのは、開発者がどこでも一貫して利用できるコンピューティングプラットフォームです。インフラごとに10%程度の違いはありますが、すべてのインフラで構築したものが動作することが重要です。これは非常に大切にしている基本的なソフトウェア原則です。この原則があるからこそ、私たちのソフトウェアエンジニアは一度構築したものをどこでも稼働させることができるのです。ソフトウェアへの投資は非常に高価であると理解しており、ハードウェア業界も巨大ですが、その上に構築される全世界の産業は何兆ドル規模の価値を持っています。つまり、一度構築したソフトウェアは、一生かけて維持していくものだということです。
 私たちはこれまで、ソフトウェアを放棄したことは一度もありません。例えば、C言語が今でも使われているのは、「私たちが生きている限りメンテナンスする」と約束したからで、本当にそうしています。先日、NVIDIA SHIELDについてのレビューを目にしましたが、これは7年前に出荷したAndroid TVで、今も最高のAndroid TVとして評価されています。先週もソフトウェアを更新したばかりです。GeForceでは、世界中に3億人のゲーマーがいますが、1人たりとも置き去りにしたことはありません。
 このような互換性のあるアーキテクチャがあるからこそ可能になることです。もしこれがなければ、私たちのソフトウェアチームは今の100倍の規模が必要だったでしょう。それほどまでに私たちはこの原則に真剣に取り組んでおり、それが開発者にとって大きな利点となっているのです。


[エラッド・ギル]
 最近の事例で特に印象的だったのは、x.ai向けのクラスターを驚異的なスピードで立ち上げたことです。あの規模と速度は圧巻でした。
 

[ジェンスン・フアン]
 そのことの功績の多くはイーロン(イーロン・マスク)に帰するべきでしょう。まず、こうしたプロジェクトを決断すること自体がすごいことで、場所の選定、冷却や電力の確保、そして10万台のGPUを備えたスーパーコンピュータを1つのユニットとして構築するという壮大なプランを立て、逆算して全体を進めていく形でした。我々は彼と共に計画を練り、数か月前からスケジュールを決定し、それに向けた準備を進めていました。全てのコンポーネント、OEMシステム、彼らのチームとのソフトウェア統合やネットワークシミュレーションも含め、デジタルツインを用いて事前にネットワーク構成をすべてシミュレーションし、段階的に準備を整えていきました。
 さらに、サプライチェーンも事前に熟成(pre-aged)させ、ネットワーク配線も事前に準備して、すべてが到着する前に“システムゼロ“と呼ばれる参照モデルを小規模に構築しました。実際のシステムが到着したときには、すべてのシミュレーションとリハーサルが完了していた状態でした。それでも、大規模な統合作業は途方もないもので、チームが24時間体制で配線や設置作業を行い、わずか数週間でクラスターを稼働させました。これは彼の強い意志と、機械や電気の課題を深く考察し、並外れた障害を乗り越える力があってこをの賜物です。この規模のコンピュータを、あの速度で構築することは前例がありません。
 ネットワーキングチーム、コンピュートチーム、ソフトウェアチーム、トレーニングチーム、インフラチーム、電気技術者からソフトウェアエンジニアまで、両チームが全力で協力しなければ実現できなかったでしょう。本当に素晴らしい偉業でした。
 

[サラ・グオ]
 エンジニアリングの観点で、一番の障害になりそうだと感じた課題は何でしたか?
 

[ジェンスン・フアン]
 まずは膨大な電子機器の組み立てですね。それをすべて組み合わせること自体が、おそらく計測する価値があります。本当に大量の機材でした。通常、あの規模のスーパーコンピュータシステムは、数年かけて計画を立てます。最初のシステムが納品されてから、本格的に継続稼働体制が整うまでには1年かかっても不思議ではありません。それが一般的なプロセスです。
 しかし今回はその時間をかける余裕がなく、数年前から「プロダクトとしてのデータセンター」という構想を立ち上げていました。製品として販売しているわけではありませんが、製品としての視点で扱うということです。計画、設置、最適化、チューニング、運用のすべてを製品のように管理するアプローチです。目標は、まるで新しいiPhoneを開封するように、セットアップが完了してすぐに稼働できる体験を実現することです。もちろん、そうしたシンプルさを実現するには高度な技術が必要ですが、今ではそれらの技術が可能となっています。データセンターを希望される顧客には、スペース、電力、冷却システムさえ提供してもらえれば、30日以内に稼働するようにできるのです。非常に革新的です。

[サラ・グオ]
 驚きです。もし将来的に20万台、50万台、100万台のGPUによるスーパークラスターを考えるとしたら、一番の障害になるのは何なのでしょうか?資本、エネルギー、それともサプライでしょうか?
 

[ジェンスン・フアン]
 すべてです。その規模になると、何もかもが尋常ではなくなります。
 

[サラ・グオ]
 でも、不可能ではないと。。。
 

[ジェンスン・フアン]
 物理法則の観点においては、私たちを制限するものはありませんが、すべてが困難なことです。そしてもちろん、やる価値があるのか?と問えば、間違いなく、「ある」と答えます。私たちが求めることを容易に巧みにこなすコンピュータ、さらには汎用知能に近いものを創造できるなら、それは奇跡的な成果になるでしょう。それを目指す真剣な取り組みが、OpenAI、Anthropic、x.ai、Google、Meta、Microsoftといった5〜6の組織で進められています。こうしたフロンティアの進展、つまり次の一歩は非常に重要です。誰もがその山の頂上に最初に到達したいと思うはずです。
 「知能を再発明する」という賞は、その挑戦を避けられないほどに価値があるのです。物理法則に阻まれることはないとしても、それを成し遂げるのは極めて困難なものになるでしょう。
 

[サラ・グオ]
 1年前にお話を伺った際、NVIDIAが次にAIやその他の分野でどのような用途にサービスを提供するのかについて質問しました。その時、「最も先鋭的な顧客に道を示してもらう」とおっしゃっており、サイエンス分野での用途にも言及されました。この1年で、その分野はさらに主流になってきたように感じます。サイエンス、特に科学におけるAIの応用は、今でも一番心躍る分野なのでしょうか?
 

[ジェンスン・フアン]
 デジタルAIチップデザイナーがいるという事実が、とても気に入っています。
 

[サラ・グオ]
 NVIDIA社内ですか?
 

[ジェンスン・フアン]
 ええ、AIソフトウェアエンジニアがいるのも素晴らしいですね。
 

[サラ・グオ]
 現在、AIチップデザイナーはどれくらい効果的ですか?
 

[ジェンスン・フアン]
 非常に効果的です。Hopperを開発する際には、AIチップデザイナーの存在が不可欠でした。彼らは私たち以上に広大なデザイン空間を探索できるからです。人間のエンジニアには時間が限られていますが、AIチップデザイナーはスーパーコンピュータ上で「無限の時間」を持ち、広範囲で探索できます。それにAIなら、組み合わせ探索も可能です。人間同士では探索範囲を組み合わせることは難しいですが、AIなら効率的に可能です。
 私たちのチップは非常に大規模で、まるで千個のチップを一度に設計しているようなものです。各モジュールを個別に最適化することが理想ですが、実際には複数のモジュールを一緒に最適化したいと思っています。大きなデザイン空間を横断的に最適化するためには、モジュール間のコデザインが必要です。AIエンジニアがいなければ、時間が足りなくて実現できませんし、AIによって、局所最小値に隠れている局所最大値を明らかにすることもできるのです。
 

[エラッド・ギル]
 前回お話ししたときから変わったことがもう1つあります。
 前回、NVIDIAの時価総額は約5,000億ドルでしたが、現在では3兆ドルを超えています。つまり、過去18か月で2兆5,000億ドルも増えたことになります。毎月10億ドル以上の増加、つまりこれはSnowflake社の2.5社分、またはStripe社を超える規模に匹敵し、場合によっては某国の経済規模にさえ相当するとも言えます。
 もちろん、NVIDIAの基本方針や取り組んでいることには一貫した部分が多いと思いますが、今日、NVIDIAの社内を歩きながら感じたエネルギーには、15年前のGoogleで感じたような活気と興奮がありました。この期間の間に、NVIDIAの機能や世界の捉え方、またはチャレンジする規模について、何か変化したことはあるのでしょうか?


[ジェンスン・フアン]
 私たちの会社が株価と同じスピードで変わることはないと思います。ですから、ある意味で、変わっていない部分も多いです。しかし重要なのは、一歩引いて「私たちは本当に何をしているのか?」と自問することが必要だと思います。これは企業や国家にとっても同じことで、何が起きているのかを見極める必要があるということです。
 業界全体の視点で言えば、私たちはコンピューティングそのものを再発明しました。60年間変わっていなかったものを革新したのですから、これはとてつもない出来事です。過去10年でコンピューティングの限界費用をおそらく100万分の1にまで引き下げ、今や、コンピュータにソフトウェアを全自動で書かせることを任せられるようになりました。これは大きな変化です。たとえば半導体設計においても、コンピュータが私たちのチップについて新しい発見をしてくれる時代です。人間では不可能だった探索や最適化を行ってくれるわけです。これはデジタル・バイオロジーやその他の科学分野にも当てはまります。
 人々は次第に「コンピューティングを再発明したが、それは何を意味するのか?」と気づき始めています。突然、私たちは「知能」と呼べるものを生み出し、コンピューティング自体が変革されました。従来のデータセンターは多くの人がファイルを保存するストレージでしたが、現在のデータセンターはもはや従来の意味のデータセンターではありません。ほとんどが個別の利用者向けに、ファイル保存ではなく、何かを生成しています。それはトークンを生成し、知能のようなものを構成するものです。ロボットの動きの指示、アミノ酸配列の生成、化学結合の形成など、あらゆる知的な生成が行われています。
 私たちは本当に何をしているのか?私たちは新しい「機械」と呼べる、つまり生成AIを具現化しした。これは生成AIというよりも、「AI工場」と呼べるもので、非常に大規模なスケールでAIを生成する工場といえます。これが新たな産業であるかもしれないことに、人々は気づき始めています。この産業はトークンや数値を生成しますが、それらは非常に価値のある構造を持っています。この恩恵をどの産業が受けるのか?という自らへの問いが始まっています。
 NVIDIAは、コンピューティングを再発明し、何兆ドルものインフラを刷新する必要があります。そのこと自体、ひとつの大きなレイヤーといえますが、さらに大きなレイヤーでは、単なるデータセンターの近代化ではなく、新しいコモディティ(商品)を生成することです。この新たなコモディティ産業がどの程度の規模に成長するのかの予測は難しいですが、おそらく数兆ドルの価値を生むでしょう。
 一歩引いてみれば、私たちはもはや単なるコンピュータを作っているのではなく、工場を作っているのです。各国、各企業がこの工場を必要とします。「知能を生産する必要はない、十分にある」と言う企業や業界が果たしてあるでしょうか?
 このことが大きなビジョンです。将来的には、半導体産業が単にチップを作るだけでなく、社会の基盤を築く産業であったことに気づかされることになるでしょう。そして、人々は「なるほど、これはただのチップの話ではないんだ」と実感するのだと思います。
 

[サラ・グオ]
 「具現化」について、今どのように考えていますか?
 

[ジェンスン・フアン]
 今とてもワクワクしているのは、私たちが人工汎用知能(AGI)に非常に近づいていると同時に、人工汎用ロボティクスにも近づいている点です。トークンはトークンですから、問題はそれをトークン化できるかどうかです。もちろん、物事をトークン化するのは簡単ではありませんが、もしトークン化ができ、それを大規模言語モデルや他のモダリティに合わせることができれば、その可能性は非常に大きなものになります。
 例えば、「ジェンスンがコーヒーカップを手に取る」映像を生成できるなら、ロボットに同じように「コーヒーカップを取る」トークンを生成させることも可能ではないでしょうか?両者の課題の構造は似ているように思えますし、その実現に非常に近づいていると考えています。これには本当に興奮しています。
 ブラウンフィールドのロボティクスシステム(訳注⑦)には2つの主要なものがあります。環境を変更せずに導入できるものです。デジタル運転支援システムを搭載した自動運転車と人間に近いロボットです。これら2つのロボティクスは、すでに整備されている環境で活用できるため、世界を変えることなく導入できます。イーロンがこうした形のロボティクスに注力しているのは、そこに大きな可能性があるからでしょう。
 また、デジタル版のロボティクスも同様に心躍る分野です。AIやデジタル従業員(digital employees)の話ですが、あらゆる種類のAI従業員が誕生するでしょう。将来的には、私たちの職場は人間の知能と人工知能が共存し、似たような形で指示を受けるようになるでしょう。考えてみてください。私が社員に指示を出す方法は、基本的にコンテキストを与えて、ミッションを依頼することです。社員はチームを集め、成果を持って戻り、そこからやり取りが始まります。AIやデジタル従業員とのやり取りも、これと大差ないものになるでしょう。
 NVIDIAは、マーケティング、半導体設計、サプライチェーンなど、あらゆる分野でAIの従業員を雇用するつもりです。そしていつか、生物学的により大きな存在になることも期待しており、人工知能の観点からも、はるかに大きな存在になることに期待しています。それが私たちの未来の会社です。

(訳注⑦)ブラウンフィールドのロボティクスシステム
 「ブラウンフィールドのロボティクスシステム」とは、既に整備されたインフラや既存の環境をそのまま利用しつつ、そこに新たなロボットを導入する方法を意味しており、全く新しい仕組みを設計したり構築したりする「グリーンフィールド」と対となる表現です。


[サラ・グオ]
 来年またお話を伺うとしたら、NVIDIAのどの分野が最もAI化されていると思いますか?
 

[ジェンスン・フアン]
 私は半導体設計の分野であってほしいと思います。なぜなら、半導体設計が私たちにとって最も重要な部分であり、最大の成果が生まれる分野だからです。そしてそれは、最大のインパクトを与えられる場所で始めるべきです。半導体設計はとてつもなく難しい課題ですからね。
 私たちはSynopsysとCadenceと協力していて、Synopsysのアート・デ・ガウス氏(元CEO)やCadenceのアニルード・デブガン氏(CEO)と一緒に取り組んでいます。
 例えば、Synopsysに特定のモジュールに精通し、ツールを熟知したAIチップデザイナーがいて、そのデザイナーを借りることができると想像してみてください。必要なときに大量のAIデザイナーを一気に雇うことができるのです。今はまさにそんなフェーズにいます。場合によっては、SynopsysのAIエンジニアを100万人レンタルして協力してもらい、その後でCadenceのAIエンジニアを100万人借りて助けてもらうかもしれません。
 これは彼らにとってもエキサイティングな未来です。ツールのプラットフォーム上にエージェントが多数存在し、そのツールを活用し、他のプラットフォームとも協力し合います。同じことがSAPのクリスチャン・クライン氏(CEO)やServiceNowのビル・マクダーモット氏(CEO)にも言えますね。
 SaaSプラットフォームがいずれ破壊的な変化を迎えると言われますが、実際はその逆だと考えています。彼らは「宝の山」に座っているのです。SalesforceやSAPのABAPに特化したエージェントが次々と登場するでしょう。各プラットフォームには独自の言語があり、例えば私たちにはCUDAやOmniverse向けのOpenUSDがあります。OpenUSDに特化した素晴らしいAIエージェントを開発するのは私たちです。なぜなら、私たち以外にOpenUSDに情熱を持っている人はいないからです。
 ですから、これらのプラットフォームはエージェントとともにさらに成長し、エージェント同士が互いに会話し、協力しながら課題を解決していく未来が待っているのです。
 

[サラ・グオ]
 AIの分野で多くの人が働いていますが、もっと注目されるべき領域や起業家、エンジニアやビジネスのプロに注力してもらいたい分野は何でしょうか?
 

[ジェンスン・フアン]
 まず、誤解されやすい点があると思います。私自身も以前は過小評価していたかもしれませんが、AIと機械学習が、科学やコンピュータサイエンス、そしてエンジニアリングの分野に与える水面下の影響が想像以上に大きいということを認識すべきです。現在、サイエンス部門や理論数学のどの分野に足を踏み入れても、AIと機械学習に関する研究が行われていない領域はないと言っても過言ではありません。この技術が、未来に向けて大きな変革をもたらそうとしているのです。
 世界中のエンジニアや科学者が今行っている仕事を見れば、それが未来を示す「兆し」であることは明白です。そして、この変化がまさに短期間で、AIと機械学習によってあらゆる領域に波及することになるでしょう。
 思い起こせば、私はコンピュータビジョンの黎明期に、トロントでのアレックス・クリジェフスキーイリヤ・サツケバージェフリー・ヒントン、またスタンフォードでのヤン・ルカンアンドリュー・ンとの研究の始まりを目の当たりにしました。初期の段階で猫を認識するだけでも大変だった時期がありましたが、それがいかに大きな変革をもたらすか、私たちは幸運にもそこから未来を予測し、次のステップへと繋げることができました。その1つが、当時のAlexNetです。今となっては「おもちゃ」とも言えるものですが、それが人間を超えるレベルの物体認識に到達するまでに、ほんの数年しかかかりませんでした。
 現在、科学のあらゆる分野で同じような「うねり」が起きています。量子コンピューティングから量子化学まで、すべての分野がこうしたアプローチに巻き込まれているのです。ここ数年で進化してきましたが、これからの数年間で、AIが科学やエンジニアリングにおける基盤となり、すべてのブレイクスルーに関わるようになると確信しています。
 これが一時的な流行になるという疑問があるかもしれません。しかし、基礎的な観点で見れば、コンピューティングの仕組みやソフトウェアの書き方そのものがすでに変わっているのです。ソフトウェアは、人間が知識やアルゴリズムをエンコードする方法ですが、そのエンコードの方法が今、根本から変わりつつあって、そしてその影響は計り知ることができません。これから何もかもが、かつてと同じではなくなるのです。
 そしてここにいる皆さんも、私と同じくこの変化を目の当たりにしている方々です。皆さんが関わっているスタートアップや私が共に働く科学者やエンジニアたちも、誰一人取り残されることなく、この変革の波に乗っていくのだと信じています。
 

[サラ・グオ]
 コンピュータサイエンスの変革と他の分野へ与える影響について、私が最もワクワクすることのひとつは、ロボット工学の会議や材料科学の会議、バイオテクノロジーの会議に行けば、実際に何が起こっているのかを理解できることです。科学の細部までは理解できなくても、汎用アルゴリズムを活用しているので、これらの発見の原理がわかることです。
 

[ジェンスン・フアン]
 そこには普遍的で統一的な概念が存在していますね。
 

[サラ・グオ]
 そうですね。それぞれの領域で、これらのツールがどれほど効果的かを見るのが本当に楽しみです。
 

[ジェンスン・フアン]
 本当ですね。私自身が毎日使っており、とても興奮しています。
皆さんはどうかわかりませんが、私にとってAIはもう家庭教師のような存在です。何かを学ぶとき、まずAIを使わない理由がありません。どうしてわざわざ難しく学ぶのでしょう?
 私はまずChatGPTに問い合わせを行い、時にはPerplexityを使って質問の仕方を変えながら学び始めます。そして、必要に応じてさらに深く掘り下げたりします。
 もう本当に驚くべきことです。私が知っていることのほとんどは、AIを使ってダブルチェックしています。自分の専門分野で確信していることですら、AIで確認するようにしており、今や、ほとんどの作業にAIを取り入れています。
 

[サラ・グオ]
本日の良い締めくくりの言葉となりましたね。
 

[エラッド・ギル]
今日はお時間を頂き、大変ありがとうございました。
 

[ジェンスン・フアン]
こちらこそ、楽しかったです。またお会いできてうれしいかったです。
 

[サラ・グオ]
ありがとうございました、ジェンスンさん。
 

 


2. オリジナル・コンテンツ

 オリジナル・コンテンツは、以下リンクからご視聴になれます。
尚、本投稿の内容は、参考訳です。また、意訳や省略、情報を補足したコンテンツを含んでいます。

No Priors: AI, Machine Learning, Tech, & Startupsより
(Original Published date : 2024/11/07 EST)

[出演]
  NVIDIA
    ジェンスン・ファン(Jensen Huang)
    CEO

  スタートアップ・インベスター
    サラ・グオ(Sarah Guo)
    エラッド・ギル(Elad Gil)



<御礼>

 最後までお読み頂きまして誠に有難うございます。
役に立ちましたら、スキ、フォロー頂けると大変喜び、モチベーションにもつながりますので、是非よろしくお願いいたします。 
だうじょん


<免責事項>


 本執筆内容は、執筆者個人の備忘録を情報提供のみを目的として公開するものであり、いかなる金融商品や個別株への投資勧誘や投資手法を推奨するものではありません。また、本執筆によって提供される情報は、個々の読者の方々にとって適切であるとは限らず、またその真実性、完全性、正確性、いかなる特定の目的への適時性について保証されるものではありません。 投資を行う際は、株式への投資は大きなリスクを伴うものであることをご認識の上、読者の皆様ご自身の判断と責任で投資なされるようお願い申し上げます。


いいなと思ったら応援しよう!

この記事が参加している募集