見出し画像

未来で最も価値あるAI:その原動力はNVIDIAの持つ本源的な力(前半)

 DeepSeekの登場はさまざまな論議を巻き起こしています。それら多くの議論は、大規模言語モデルの性能比較、より賢いアシスタントAIの論議、生成AI開発における生産性やコスト削減の話、米中間の経済安全保障、そして軟調なNVIDIAの株価についての話題に解体されて議論されていますが、すでにかなり出尽くしているようにも感じられます。
 一方で、マイクロソフトのサティア・ナデラCEOがXに投稿したジェボンズのパラドックスは、大量の計算力が今後も必要とされるシナリオを想起させ、多くの人にAI開発のコスト削減が進む中でもAIへの継続的な投資が行われるとの一定の安心感が伝わったのも事実です。

 今回の投稿では、昨日公開されたNVIDIAの「Omniverseおよびシミュレーション技術」を担当する副社長、レヴ・レバレディアン氏の最新インタビューを紹介します。このインタビューからは、大規模言語モデルや動画生成モデルの限界、現在見えているAI市場規模の数十倍の市場を生み出すより高度な応用AI市場、そして、計算力が今後も必要とされるシナリオの解像度を上げることのできる話を聞くことができます。

 そもそも、NVIDIAのGPUが大規模言語モデルの学習や推論のために開発されたものではないことは周知の事実です。しかし、今後のAIの進化――すなわち、大規模言語モデルや画像・動画生成AIを超えた性能向上やAGIやASIの実現――においては、NVIDIAがこれまで本来的に積み上げてきた技術が必要となるシナリオが、より明確に認識されるべきだと感じています。

 今回のインタビューは約1時間におよび、投稿としては長めのコンテンツとなっています。そのため、まずは前半の30分程度の内容を掲載いたします。ぜひご参考ください。


[後半はこちらから]







1. インタビュー(前半)


[アレックス・カントロウィッツ](Alex Kantrowitz)
 本日のゲストは、NVIDIAのOmniverseおよびシミュレーション技術担当副社長、レヴ・リーダンさんです。AIの次の大きな進展として注目される「AIに常識を与えるワールドモデルの追求」について、非常に興味深いお話を伺えると思います。
 レヴさん、本日はお越しいただきありがとうございます。数か月前に本社でお時間をいただきましたが、こうしてリスナーの皆さんにご紹介できるのを嬉しく思います。どうぞよろしくお願いします。


[レヴ・レバレディアン](副社長、Omniverse & Simulation Technology)
 今日はお招きいただき、ありがとうございます。


[アレックス・カントロウィッツ]
 さて、ワールドモデルの話に入る前に、今この対談をしている背景として、AIの大規模な革命(※DeepSeekの登場によって始まっている話題)があることは皆さんもご存じだと思います。そして、誰もがNVIDIAについて話しています。
 現在、決算期前で詳しい財務情報には触れませんが、技術面に関してぜひお聞きしたいことがあります。それが、ジェボンズのパラドックスについてです。最近、NVIDIAとジェボンズのパラドックスという言葉をよく耳にしますが、そもそもこのパラドックスとは何か、そしてこの考え方についてどう考えているのかお伺いできますか?


[レヴ・レバレディアン]
 私の理解では、ジェボンズのパラドックスとは、経済的な原理の一つで、何かのコストが下がると、その技術の利用が経済的に実現しやすくなり、結果的に需要が増えるというものです。この考え方は、ここ数十年の重要なコンピューティングの革新にほぼすべて当てはまると思っています。実際、NVIDIAが1993年に設立された際も、最初に取り組むべきコンピューティングの課題を非常に慎重に選びました。それがコンピュータ・グラフィックス、特にグラフィックスのレンダリング問題でした。
 この問題を選んだ理由は、レンダリングが無限の課題だからです。どれだけ計算能力を投入しても、どれだけ技術革新を重ねても、常により高い品質を求め続けるものです。私がNVIDIAに在籍している23年間で、「グラフィックスはもう十分、レンダリングももう十分で、NVIDIAの大規模GPUや高い計算能力はもう必要なくなるだろう。SoCに統合され、統合型グラフィックスとして他のチップに吸収されるだろう」という意見を何度も耳にしました。しかし、それは現実にはなりませんでした。光と物質の物理シミュレーションという根本的な課題は終わりがないからです。
 AIにおいても同じことが言えるでしょう。今のコンピュータが十分に賢い、もしくは作り出したAIの知能が十分だと言えるポイントに到達したと言えるでしょうか?私はそうは思いません。知能という課題こそ、最も終わりのないコンピューティング問題だと考えています。より多くの計算能力を投入すれば、より高度な知能が生まれ、それをさらに向上させることが可能です。AIの効率が上がれば、それがさまざまな用途において経済的な価値を高め、さらに多くの需要を生み出すことになるでしょう。


[アレックス・カントロウィッツ]
 では、AIモデルがますます効率的になっている進展についてお話しいただけますか?今とても注目されている話題ですが、ここ数年で確実にモデルがどんどん効率的になっているように感じます。特に大規模言語モデルに焦点を当てた場合、これまでどのような効率向上が見られたのか教えていただけますか?


[レヴ・レバレディアン]
 これは新しい話ではありません。ここ10年から12年ほどの間に、私たちがGPUでAlexNetを使い始めてから進んできた流れです。計算能力の推移を見れば、GPUがテンソル演算やAIに必要な計算をこなす力は、この10年でほぼ100万倍に向上しています。そして、その向上は単にハードウェアの進化だけが要因ではなく、多層的なソフトウェアアルゴリズムによるものでもあります。
 この進歩により、ハードウェアからシステム全体にわたるさまざまなレベルで、継続的かつ急速なスピードアップが、指数関数的に進んでいます。基本となるハードウェアやチップ、システムレベル、ネットワーキング、システムソフトウェア、アルゴリズム、フレームワークなど、あらゆる層が積み重なりながら効果を発揮しています。DeepSeekに見られる進歩も、この10年間続いてきた進化の曲線上にしっかりと位置づけられる素晴らしい成果といえます。


[アレックス・カントロウィッツ]
 23年間もNVIDIAにいらっしゃるんですね!そのご経験について、インタビューの後半か終わり頃にぜひ伺いたいと思っています。特に、NVIDIAの技術が外部から見て「好調だ」と評価されたり、一時は疑問視されたり、また再び注目されたりと、いわば小さなサイクルを繰り返しているように見える中で、どのような経験をされたのか非常に興味があります。ただ、まずは技術の話から始めたいと思います。
 実は、ChatGPTが登場した直後にこの番組でMetaのチーフAIサイエンティストであるヤン・ルカンさんと話したことがあり、そのときの内容を共有させてください。ヤンさんが面白い例を挙げてくれたのですが、「左手で持った紙を離したらどうなるかをChatGPTに聞いてみてください」と言ったんです。私が実際にその質問を入力してみると、とても説得力のある答えが返ってきたんですが、完全に間違っていました。テキストベースのAIモデルには物理の常識がないんです。いくらテキストで物理を教えようとしても限界があります。紙を手から離したときに何が起こるかなんて、文献には詳しく書かれていないんです。だから、現行のモデルには限界があるんですよね。
ヤンさんの主張は、真に知能のある機械を作るためには、物理や常識をAIに教える仕組みを組み込む必要があり、単なる言葉だけでは足りないというものでした。
 そこでお聞きしたいのが、現在NVIDIAが進めている取り組みです。ヤンさんが指摘したような課題に対して、NVIDIAでは世界の仕組みをAIモデルに理解させるためのイニシアチブを展開していると聞いています。その方向性について、具体的にどのようなことをされているのか教えていただきたいです。追加でいくつか質問もしたいのですが、まずはそのあたりからお話を伺えればと思います。


[レヴ・レバレディアン]
 ヤンが言ったことはまさにその通りですし、直感的にも理解しやすいですよね。AIがもし言葉、つまりデジタル化されたテキストだけで訓練されていたとしたら、物理的な世界の概念、たとえば「赤」という色が本当にどういうものなのかとか、「音を聞くこと」や「何かを触れて感じること」が何を意味するのかを知ることはできません。それらを体験したことがないからです。
 モデルを訓練する際には、基本的にそのモデルに「人生経験」を与えているようなもので、そこからパターンを見つけ出していきます。GPTや大規模言語モデルの進化で本当にすごいのは、トランスフォーマーという技術によって、複雑すぎて人間には直接定義するのが難しかった言語のルールを膨大なデータの中から自動的に引き出せるようになったことです。
 私たちはテキスト、つまり本やインターネット上のあらゆる情報を集めて、このモデルに与えました。すると、このモデルは多言語にわたって言語のパターンを理解しました。そして、言語の基本的なルールを把握したことで、新しいテキストを生成したり、与えられた文章を違うスタイルに書き直したり、異なる言語に翻訳したりと、さまざまなすばらしいことができるようになりました。しかし、現状では言葉で説明されたもの以外の現実世界の情報を知ることはできません。次のAIのステップは、この基本技術を活用し、物理的な世界のデータやその仕組みをモデルに与えることです。これにより、文法や言語のルールだけでなく、物理法則も理解できるようになるのです。
 この結果、AIは私たちの周りの物理的な世界を理解するようになります。そして、私たちが考える未来において最も価値のあるAIとは、物理的な世界、つまり私たちが体験している原子で構成された現実世界と相互作用できるAIだと考えています。現在のAIは主に、知識や情報、デジタル世界の中で簡単に表現できるものに特化しています。しかし、同じAI技術を物理的な世界に応用すれば、ロボティクスの扉が開かれます。知能を持つエージェント、さらには特定のタスクにおいて超人的な知能を持つエージェントが、現実世界で素晴らしいことを実現できるようになります。世界の市場や商取引を見てみると、知識や情報技術に関連する世界の規模は年間2兆から5兆ドルほどですが、輸送、製造、サプライチェーン、倉庫・物流、医薬品の開発など、物理的な世界に関するものは約100兆ドル規模に達しています。このようなAIを物理的な世界に応用すれば、私たちにとってより大きな価値をもたらすことになるでしょう。


[アレックス・カントロウィッツ]
 興味深いのは、ただ単に現実世界の知識を大規模言語モデルに入力して、紙を手から離したときの質問に正しく答えさせるだけではないということですね。それと同時に、現実の世界に出て動き回るロボットの基盤を作ることにも取り組んでいるんですね。


[レヴ・レバレディアン]
 そうです、これまでのテキストモデルのように単に言葉で情報を入力するわけではありません。たとえば、紙を落としたときに何が起こるのかを言葉だけで説明するのではなく、学習プロセスの中でモデルに他の感覚を与えるのです。紙が落ちる様子を映像で見せたり、物理的な世界をコンピュータ内でシミュレーションすることで、より正確で具体的な3Dの情報を提供できます。
 現在、私たちは物理シミュレーションによる仮想世界を持っており、その中で物体の位置や向き、状態などの真実のデータを取得し、それをこれらのモデルに別の形態の入力として活用できます。最終的には、さまざまな形のデータ、つまり異なる感覚に基づいて訓練された「ワールド・ファンデーション・モデル」が完成することになります。このモデルは、見る、聞く、触れて感じるといった私たちと同じ能力を持つだけでなく、動物や自然界に存在しないセンサーを使って、それ以上のことも可能にします。
 こうして、物理世界のルールが実際に統合された形で解読されます。この知識のエンコーディングが、現実世界で動くエージェント、つまり物理的なロボットの「頭脳」を構築する基礎となるのです。


[アレックス・カントロウィッツ]
 そうですね、これは最近発表された「Cosmosプロジェクト」に関することですね。Cosmosは「ワールド・ファンデーション・モデル」(世界基盤モデル)ですが、これをどれくらいの期間かけて開発してきたのか、どんな企業や開発者が利用するのか、そしてその具体的な活用方法について教えてください。


[レヴ・レバレディアン]
 私たちは約10年前から「Cosmos」に向けた取り組みを続けています。当時から、ディープラーニングによって生まれたこの新しい技術が、ロボットの頭脳を作るための重要な技術になると確信していました。そして、この技術が莫大な価値を解き放つカギになると考えていました。
 早い段階で気づいたのは、物理世界を理解し、そこで機能するモデルを訓練するためには、経験が必要だということです。そのためには、物理世界を表すデータが必要ですが、実際の世界からそのデータを集めるのは簡単ではありません。コストがかかるうえ、場合によっては非常に危険です。たとえば、自動運転車の例を考えてみてください。自動運転車はブレーキや加速、ハンドル操作によって目的地まで自律的に移動するロボットの一種です。しかし、たとえば子どもが道路に飛び出したときに、きちんと車が止まると確信するにはどうすればよいでしょうか?そのような状況を実際に現実世界でテストするのは危険すぎますよね。
 そこで、現実世界で危険な実験をするのではなく、コンピュータ内でそのシナリオをシミュレーションする方法に目を向けました。このことに早い段階で気づき、これまでに開発してきた技術、つまりコンピュータ・グラフィックスやビデオゲームエンジン、物理シミュレーションなどを活用し、物理的に正確な世界シミュレーションを構築するシステムを作り始めました。
 このシステムをOmniverseと呼んでいます。Omniverseは物理シミュレーションを作成するためのプラットフォームであり、これを使ってAIを訓練し、実際の世界に展開する前にシミュレーションでテストします。自動運転車やさまざまな種類のロボットにこのシステムを活用しています。Cosmosを構築するプロセスは、この世界シミュレーションから始まり、私たちはそのための技術基盤やインフラを長年にわたって開発してきました。
 トランスフォーマーモデルが登場し、大規模言語モデルやChatGPTがもたらした新たな可能性を目の当たりにしたとき、私たちはこの技術がロボティクスを前進させるために必要な重要な能力を解放したと感じました。それは、複雑なルールを理解できる汎用的な知能を構築する能力です。
 数年前から、私たちはそれまでに開発したシミュレーション技術やAI訓練の技術を活用し、現在のCosmosの開発を開始しました。Cosmosはいくつかの要素から成り立っています。まず、私たちが公開しているオープンウェイトのモデルがあります。このモデルは誰でも自由に利用できます。また、新しいワールド・ファンデーション・モデルを開発するための必要なツールやパイプラインも提供しています。
 さらに、私たちが訓練を始めたワールド・ファンデーション・モデルは、特に物理AIの開発において非常に高いレベルにあります。また、トークナイザーも提供しており、これ自体がAIであり、ワールド・ファンデーション・モデルの構築において重要な要素です。さらに、データ選定のためのキュレーションパイプラインも提供しています。訓練に適したデータを選ぶことが重要であり、データ選定自体にも多くのAI技術が関わっています。
 私たちはこれらすべてをオープンに公開し、物理AIの開発にコミュニティ全体が参加できるようにしています。


[アレックス・カントロウィッツ]
 誰がこれを使うのでしょうか?ロボティクスの開発者でしょうか?それとも、大規模言語モデルをベースにしたアプリケーションを少し賢くしたいと考えている人たちでしょうか?


[レヴ・レバレディアン]
 両方です。どちらも使うことになります。業界全体として、今まさに物理AIの革命の始まりにあると感じています。そして、必要なすべてを一つの企業や組織が単独で構築することは不可能です。ですから、私たちはこれをオープンな形で開発し、他の人々が私たちの基盤の上に構築したり、一緒に開発したりできるようにしています。物理世界に関わるアプリケーションを持つすべての人々が対象です。その中にはもちろんロボティクス関連の企業も含まれます。ここで言うロボティクスは広い意味で捉えており、自動運転車やロボタクシーを開発する企業、工場や倉庫向けのロボットを開発する企業も含まれます。現実世界で自律的に認識し、操作できるインテリジェントなロボットを作りたいと考えるすべての人にとって必要なものになるでしょう。
 しかし、伝統的な意味での「動き回るロボット」だけが対象ではありません。センサーを都市や建物、公共スペースなどに配置することも含まれています。これらのセンサーは、例えばセキュリティ目的や他のロボットの連携、建物やデータセンター内の気候制御やエネルギー効率の最適化のために、周囲で何が起こっているのかを理解する必要があります。
 ロボットに限らず、物理AIには私たちが通常イメージする以上に幅広い応用があります。何千もの企業がこの物理AIを活用するでしょうし、これはまだ始まりにすぎません。


[アレックス・カントロウィッツ]
 先ほど、トランスフォーマーモデルがこの道筋で重要な発展だとおっしゃいましたが、テキストから知識を得たこれらのAIモデルは、現実世界のAIにも活用できるのでしょうか?常識を理解しようとするモデルは、テキストを入力情報として活用するのですか?


[レヴ・レバレディアン]
 はい、すべての情報を入力として活用します。


[アレックス・カントロウィッツ]
 テキストとの連携について教えてください。一般知能に向けた進歩の中で、何かを「読む」ことで物理空間での意味を直感的に理解するというのはとても興味深い応用だと思いますが、どう思われますか?


[レヴ・レバレディアン]
 そうですね、その通りだと思います。そして、この仕組みは私たち人間の学び方ととても似ています。生まれたばかりのときは、誰が「お母さん」で、誰が「お父さん」なのかもわかりませんし、物を見ることすら未熟な状態です。奥行きもわからなければ、色の概念もなく、言語も知らない、何もわからない状態からスタートします。でも、複数の感覚を通して情報が一斉に押し寄せることで学んでいきますよね。
 たとえば、お母さんが自分を指さしながら「私はお母さんよ」と言うと、そのときには音声(この場合、テキストに似た情報)が耳に入ると同時に、視覚的にお母さんの姿も捉えているわけです。また、読み書きを学ぶときは、先生が文字や単語を指し示しながら発音してくれることで、シンボルとその意味との間に結びつきが生まれます。
 AIの学習も同じです。テキスト、画像、音声など、複数の種類の情報を同時に与えることで、AIはそれらを関連付けて学びます。たとえば、テキストプロンプトから画像を生成する仕組みは、トレーニングの際に画像とその画像を説明するテキストをセットで与えられたことによって実現されています。たとえば、「曇り空の下、草原に置かれた赤いボール」というテキスト情報が、視覚的な特徴と結びつけられるのです。
 ワールド・ファンデーションモデルで目指しているのは、これをさらに進化させ、より多様で豊かな情報を取り入れることです。ただし、テキストは今後も重要な役割を果たします。動画や物理世界から得た正確なデータと一緒にテキストを入力することで、世界がどのように機能しているのかを包括的に理解するモデルを構築しようとしているのです。


[アレックス・カントロウィッツ]
 これは少し長い質問ですね。すみません、他にいい聞き方が思いつかなくて。まず、どのような種類の情報(モード)をモデルに入力しているのか教えてください。それから、本当にシミュレーションのプロセスが必要なのかという点についても伺いたいです。個人的には、すごく価値のある取り組みだと思っていますし、そうだと確信しているのですが、最近の動画生成モデルの進化を見ていると少し驚かされます。
 画像生成モデルと同じように、動画生成モデルも物理的な動きをかなり理解しているように見えるんです。たとえば、画像の場合、静止した物体がどのように配置されているかを正確に捉えています。そして、動画では、草原を歩く人々や風で揺れる草の動きが自然に描写されています。これは、モデルが物理の概念を内在的に理解しているからだと思うのです。
 もちろん、ここにいらっしゃるあなたが専門家なので、この考えが正しいかどうかお聞きしたいのですが、ちょうどヤンさんが番組に数週間後に再登場する予定でして、以前の彼との会話を思い出しているところなんです。そこで、この話題についても彼に意見を聞いてみようと思っています。ヤンさんがいつも言うのは、人間の脳は無限の可能性を受け入れることができるということです。たとえば、鉛筆を手に持って空中に掲げたとき、それがどんなふうに落ちるかは無限の可能性があると認識しています。でも重要なのは、必ず落ちるということを理解している点です。
 一方で、AIの場合、異なるシナリオでトレーニングされたとしても、鉛筆が無限の形で落ちる可能性があることを理解するのは難しいように思えます。しかし、動画生成モデルはこの点についてかなりうまく対処しているようにも見えます。
 そこで、改めてお伺いしますが、モデルに入力している情報の種類にはどんなものがあり、なぜ、すでに動画生成モデルがこれほどの成果を上げているにもかかわらず、シミュレーション環境やCosmosのようなツールが必要だと考えているのでしょうか?


[レヴ・レバレディアン]
 すごく良い質問ばかりですね。まず、Cosmosのトレーニングに使っている情報のモードについてですが、主なものは動画です。これは動画生成モデルと同じです。ただし、それだけではなく、テキストも入力していますし、データから得られる追加情報やラベルも活用しています。
 特に、シミュレーターを使ってデータを合成的に生成する場合、動画の各ピクセルで何が起きているのかを完全に把握することができます。各物体までの距離や深さ、ピクセルごとの物体の識別情報などを正確に取得し、すべてをセグメント化することが可能です。これまで自動運転車などの認識モデルをトレーニングする際には、人間が何時間もの実際の動画にラベルを付ける作業が必要でしたが、この手動プロセスは不正確だったり、情報が不足していたりすることが多いのです。一方、シミュレーション環境を使えば、正確で豊富なデータを得ることができるため、その差は非常に大きいです。
 次に、動画生成モデルが物理の理解を示している点についてですが、確かに驚くべき進化です。正直なところ、私自身もその進歩には驚いています。5年前に「これほど物理的に妥当な動画が生成できるか?」と聞かれていたら、私はできないと予想していたかもしれません。でも、現実にはここまで来ました。実際、過去にAlexNetが登場した頃も、画像分類の進展を過小評価していたことがあり、その時も間違っていましたね(笑)。
 ただし、現時点の動画モデルはまだ完璧とは言えません。大きな問題の一つが「オブジェクトの永続性」です。たとえば、カメラを一度別の方向に向けてから元に戻す、という指示を与えると、最初にあった物体が消えていたり、全く別のものに変わっていたりすることがあります。これは物理法則に反する根本的な問題です。表面的にはうまくいっているように見えても、物理を本質的に深く理解しているわけではないのです。
 私はコンピュータ・グラフィックスやレンダリング、特に3Dレンダリングに携わってきた背景があり、これは物理シミュレーションそのものです。光が物質とどのように相互作用し、最終的にカメラのようなセンサーに届いて画像を生成するかをシミュレートする技術です。このため、生成された動画の中で影や反射、ライティングに誤りがあると、すぐに気づくことが多いです。一般の人の目には一見問題がないように見えることもありますが、私やCGに詳しい人、さらには一般の人でも、なんだか違和感がある、と感じることがありますよね。これは、ビジュアルエフェクト業界で長年言われている不気味の谷問題と同じで、人間は何かが人工的だと感覚的に察知するのです。
 とはいえ、今後の進歩は非常に速いと思います。現在のモデルは、物理世界の理解のうち5~10%程度しか達成していないかもしれませんが、最終的には90~95%まで引き上げることが目標です。そのために、Cosmosやシミュレーション環境のようなツールが必要になるのです。


[アレックス・カントロウィッツ]
 最近見たのは、島に津波が押し寄せる動画で、すごくリアルに見えました。もちろん、インスタグラムで見たんですけど、今のインスタって生成AIの動画ばかりじゃないですか?最初は本物かと思ってしまい、フェイクだと気づくのに少し時間がかかりました。最近はこういうことが増えていて、「これ、本物?」って立ち止まって考えたり、コメント欄をチェックして「みんな何て言ってるかな?」と確認することがあります。


[レヴ・レバレディアン]
 でも、正直なところ、人間がその判定に最適かと言えばそうではないんです。一般的に、人間はシミュレーションや動画における物理が正確かどうかを判断するのがあまり得意ではありません。だからこそ、映画の監督たちは爆発や津波など、物理法則を無視したドラマチックなシーンを描いても、観客には違和感を持たれないんです。


[アレックス・カントロウィッツ]
 それは、面白いですね。あるコメディアンが、映画『ゼロ・グラビティ』が公開されたときに、ニール・ドグラース・タイソンが科学的な誤りを指摘したことについてジョークを言っていたんです。「そう言うけど、ジョージ・クルーニーとサンドラ・ブロックが宇宙飛行士を演じてるのは気にならなかったの?」って。
 映画を見ているときは、その世界観にどっぷり浸かって、あたかも本物だと信じ込んでしまいますし、ジョージ・クルーニーが宇宙船にいるシーンを見て感情移入してしまうんです。でも、現実には彼が宇宙飛行士じゃないことはわかっています。


[レヴ・レバレディアン]
 それが良いストーリーテリングとビジュアルの力なんです。私がNVIDIAに入る前、映画業界でコンピュータ・グラフィックスの視覚効果に携わっていたので、物事をリアルに見せるためにどれだけの労力がかかるかを直接見てきました。


(後半に続く)



2. オリジナル・コンテンツ

 オリジナル・コンテンツは、以下リンクからご覧になれます。
尚、本投稿の内容は、参考訳です。また、意訳や省略、情報を補足したコンテンツを含んでいます。

Alex Kantrowitzより
(Original Published date : 2025/02/05 EST)

[出演]
  NVIDIA
    レヴ・レバレディアン(Rev Lebaredian)
    Vice President, Omniverse & Simulation Technology

  アレックス・カントロウィッツ(Alex Kantrowitz)




3. 関連コンテンツ




<御礼>

 最後までお読み頂きまして誠に有難うございます。
役に立ちましたら、スキ、フォロー頂けると大変喜び、モチベーションにもつながりますので、是非よろしくお願いいたします。 


だうじょん


<免責事項>


 本執筆内容は、執筆者個人の備忘録を情報提供のみを目的として公開するものであり、いかなる金融商品や個別株への投資勧誘や投資手法を推奨するものではありません。また、本執筆によって提供される情報は、個々の読者の方々にとって適切であるとは限らず、またその真実性、完全性、正確性、いかなる特定の目的への適時性について保証されるものではありません。 投資を行う際は、株式への投資は大きなリスクを伴うものであることをご認識の上、読者の皆様ご自身の判断と責任で投資なされるようお願い申し上げます。




いいなと思ったら応援しよう!

この記事が参加している募集