アンドリュー・ンとのAI対談
FYI、4年間のイノベーションポッドキャストへようこそ。このショーでは、テクノロジーによって可能になる破壊的イノベーションについての知的な議論を提供します。イノベーションへの投資は、それを理解することから始まるからです。詳細はark-invest.comをご覧ください。
Ark investは、破壊的イノベーションへの投資に焦点を当てた登録投資顧問会社です。このポッドキャストは情報提供のみを目的としており、投資判断の根拠として依拠すべきではありません。Arkまたはポッドキャストのゲストが保有する企業や証券に関するすべての発言は、厳密にArkが保有する信念と見解であり、いかなる証券の購入、売却、保有についてもArkによる推奨や勧告を明示的にも黙示的にも構成するものではありません。Ark Investment Managementのクライアントは、このポッドキャストで議論される証券のポジションを保有している可能性があります。
こんにちは、FYI、4年間のイノベーションポッドキャストへようこそ。私はブレット・ウィントンです。ホストで、ARK investのチーフ・フューチャリストです。私もベンチャー投資委員会のメンバーです。今日は、同じくベンチャー投資委員会のチャーリー・ロバーツも一緒です。チャーリー、こんにちは。
こんにちは、ブレット。
チャーリー、アンドリューとの素晴らしい会話がありました。アンドリューについて紹介していただけますか? 彼がなぜ重要で、AIの分野でどのような役割を果たしているのでしょうか?
はい、ありがとうございます、ブレット。アンドリューは信じられないほど優れた教育者であり、この分野のいくつかの組織の創設者、共同創設者です。彼はスタンフォード大学の教授として、多くの本当に基本的な機械学習を構築し、それが学習者の加速とイノベーションにどのように役立つかを実感しました。彼はCoreraを共同設立し、そこで最も人気のある講座の多くを教えました。これらの講座は、多くの学習者が自分自身の新しいAIとデータサイエンスのキャリアを開始するための大きな突破口となりました。
彼はGoogle Brainの共同創設者兼責任者でした。また、Baiduの元チーフサイエンティストでもありました。そして、AI Fundの共同創設者でもあります。これは、AIに特化したインキュベーター兼アクセラレーターで、特に大企業と協力しています。そのような傘下で、Landing AIのような企業を共同設立しました。Landing AIは大企業と協力して、彼らの問題に対する膨大な数の解決策を見つけ出し、トラブルシューティングを行います。
彼は公開市場と私募市場の両方に関連しており、最終的にはおそらく公開市場にも関連するでしょう。また、素晴らしいAI教育者でもあります。
そうですね。彼と話して本当に良かったのは、企業がAIシステムを実際に導入しようとしている人々と、とても具体的な経験を持っているということです。私たちの会話から学んだことで、最も驚いた点は何でしたか?
私にとっておそらく2つの大きな発見がありました。1つは、アンドリューがエージェントシステムが本当に大きな進歩を遂げていることにどれほど快適であるかということです。私たちは彼に、AGIをいつ頃期待しているのか、あるいはどれくらい先に期待しているのかについて、おそらく十分に詳しく聞かなかったかもしれません。そして、おそらくまだ存在しないAGIを説明するのと同じくらい、AGIの定義は多くあるかもしれません。しかし、確かにエージェントシステムについては、彼はそれらが本当にここにあり、今来ていると非常に自信を持っているようでした。それは技術的なリスクというよりも、むしろ実行の問題でした。
それは興味深く、最近私が他の人と交わした会話とある程度一致しています。しかし、非常に最近、おそらく過去1年以内のことです。
そして、もう1つは、オープンソースについて彼がどれほど強く感じているかということです。私は方向性的には彼がどこに落ち着くかを理解し、信じていましたが、彼は安全性を理由にオープンソースに反対する意見が、本当にロビー団体によって推進されており、むしろ不誠実な傾向があるという意見を非常によく説明し、非常に強く主張していました。
私たちは必ずしも十分な時間を割いて詳しく議論する機会がなかったかもしれませんが、彼が実際に安全性リスクがあると考える分野があるかどうか、それがバイオセキュリティなのか、あるいは他の何かなのかを掘り下げて議論することは興味深かったでしょう。彼の話し方からすると、そうではないように聞こえましたが、それをダブルクリックして、その感覚に例外があるかどうかを見るのは興味深かったでしょう。
しかし、彼は非常に興味深い点を指摘しました。オープンソースの大きな安全性の懸念の1つが、1億ドルの訓練実行のような非常に価値があり、時間のかかるリソースを悪意のある行為者に提供し、それによってテロ組織などと非対称な問題を引き起こすというものであれば、彼が言ったことや、実際にあなたやフランク・ダウニング、ジョセフ、そして内部の他のチームが主導した研究を基に、訓練のコスト低下を見ると、彼は非常に良い点を指摘しています。
もしそれらのコスト低下が続き、ただ削り取られ続けるなら、実際にはそれほど競争の場を平準化していないかもしれません。おそらく、ジェミニの訓練コストが全部で2億ドル近くかかったという事実は、何年もの複合的な削減の後では取るに足らないものになるかもしれません。
本質的に、おそらくそれさえも、これらの大規模なオープンソースモデルを作ることがより危険であるという理由の最後の砦は、消えてしまうかもしれません。そして、私はそれを彼が非常にうまく指摘したと思います。
彼は、人々が常に自分のシステムはとても危険だと言い、そしてその数年後にはオープンソースになり、そこから明らかな危険は生じず、むしろそこから多くの利益が生まれるという例を挙げました。あるいは、潜在的な危険よりも生まれる利益の方がはるかに高いのです。私はGPT-2があまりにも危険で、しばらくの間リリースできなかったことを覚えています。そして今では、文字通りGPT-2以上のもの、GPT-3クラスのシステムをおそらく電話で実行できるのです。
私にとって、彼が指摘した興味深い点は、ここでの採用とイノベーションのペースの一種の調整役が、部分的にはモデルの出力を評価する能力であるということです。これは、実際に配信を所有することがより重要であることを示唆しています。なぜなら、システムを非常に迅速に立ち上げることはできますが、それが機能するかどうかを見極める必要があり、運転中に遭遇するすべてのコーナーケースを考えてみてください。そのため、大規模な配信フットプリントへのアクセスがあれば、システムを出荷する前に自動評価を行うことができます。配信がない場合、そのようなアクセスはありません。
したがって、彼の立場では、オープンソースがおそらくAnthropicとOpenAIの競争上の優位性を大きく侵食するとしていますが、彼らが十分に大きな商業化のフットプリントを持つことができれば、それによって彼らのシステムを、非常に断片的に配布されるものよりも迅速に評価できるのではないかと私は疑問に思います。
配信について素晴らしい点を指摘していると思います。なぜなら、アンドリューも言及していたように、現在、LLMで常に推論を実行する必要があり、それらははるかに大きなモデルで、一方向の推論を実行するだけでもはるかに多くの計算を必要とするからです。そのため、配信と、配信がデータを収集するルートであることが密接に結びついています。特に、機械を使って実験を設計し、データを要求し、それを自身にフィードバックするアクティブラーニングのようなことをしている場合はそうです。
したがって、配信とデータ生成と配信が非常に密接に結合しています。これが、シリコンバレーでよく耳にするネットワーク効果とフライホイールについての話の、本当の例になります。多くの場合、それはマーケティング用語であったり、スライドで灰色に見えたりしますが、これは非常に現実的な例です。特に、エンドツーエンドの意思決定を行い、潜在的にこの種のアクティブラーニング実験を実行し、一部の特権的な配信チャネルを通じて実行するエージェントシステムと組み合わせる場合はそうです。
例えば、私たちのベンチャーファンド内のXの例では、Groで見られるようにテキスト生成を人々にライブでテストすることができます。本質的に、それは人間からのフィードバックによる強化学習の実生活版です。なぜなら、システム内の実際の活動から実際の人間のフィードバックを得ており、それがフィードバックされているからです。
そのため、私はこの種のことが大きな力をもたらし始めると思います。そして、それはアンドリューが言っていたことの多くと共鳴すると思います。
アンドリューが言ったことで私が共鳴したもう1つのことは、彼らが大企業とディスカバリーのプロセスを実行し、どの問題を解決する必要があるのか、それらの問題がどれほど大きいのか、そしてそのネイルに対して適用される可能性のあるAIのハンマーは何かを本当に理解しようとしているときに、彼らがAIが役割を果たす可能性のある使用事例と場所に圧倒されていることです。多くの場合、彼らが想像していたよりもはるかに多くのケースがあります。
私はそれが方向性的に支持しているのは、私たちがArkの内部でさまざまなブレインストーミングで多く話し合っていることだと思います。AIに対して高度にカスタマイズ可能なアプローチを持つことが最も適している企業の種類です。企業は、ポイントソリューションSaaSというよりも、プラットフォームとしてのサービスに近いものを再利用できます。本質的に、AIの潜在的な異なる部分を結び付けてソリューションを達成するための高度なカスタマイズがあります。
1つの明白な例は、よく知られているPalantirです。私は、AIが本当にその顧客にサービスを提供する能力をターボチャージしたと思います。そして、私たちは本当にその種の潜在性の果実を見ています。
実際に、アンドリューが別のポッドキャストで言っていたと思うのですが、大規模な機械学習AIデータサイエンスのようなプロジェクトの任意のコードスタック、任意のGitHubリポジトリを見ると、通常、興味深いモデリングコードはすべてのコードの5%未満です。なぜなら、ほとんどは本質的に配線だからです。非常に重要ですが、インフラストラクチャで、データをある場所から別の場所に引っ張り、すべてのライブラリが整列していることを確認するような機能です。そして、他のすべてを駆動するための多くの関数があり、多くのMLOpsがありますが、実際のモデリングのペイロードコードはごくわずかです。
Palantirが構築しているような多くのカスタマイズ可能なソリューションで起こっていることは、その多くが抽象化され、取り除かれ、テーブルから取り除かれ、非常に信頼性の高いものに置き換えられていることです。本質的に、これらの経路は以前にトリムされており、一から構築したり、非常に特定の高メンテナンスな方法で維持したりする必要がありません。
そして、これらのAIソリューションが大規模に展開されるにつれて、そのモデルがポイントソリューションの固定SaaSソリューションや、SaaSから来て自社のソリューションをよりカスタマイズ可能にしようとしている企業よりも有利であることがかなり明確になってきていると思います。
そうですね、あなたが言ったように、それは彼らのビジネスを加速させています。私は、その下にあるインフラストラクチャに投資することは、企業がAI分野で可能なソリューションに対して実際に展開するために必要なことだと主張できると思います。そのため、それはソリューションをより迅速かつスムーズにオンボードし、継続的に実行し運用することを可能にします。
アンドリューが指摘したいくつかの点から生じたもう一つの興味深い点は、私たちが本当にこれほど近くにいるのであれば、非常に保守的でデータ駆動型の彼が、意味のあるエージェントソリューションを見ることになると非常に自信を持っているのを聞くと、本質的に技術的リスクはなく、基本的に納品リスクしかないということです。これは現在または非常に近い将来に起こる可能性があります。
そして、これはB2CであれB2B、SaaS内、PaaS内、これらすべての設定において、人間が意思決定者として、おそらくスタック内でより高い位置に登り、より重要な意思決定を行う可能性がありますが、同時に現在経済的に意味のある多くのソリューションや決定から取り除かれる可能性があります。これは、多くのSaaSプロバイダーの市場参入戦略を根本的に変える可能性があります。
なぜなら、現在人間に選択を求められている多くのこと、あるいは会計部門でさえも、本質的にそのクルマの鍵がエージェントシステムに渡される可能性があるからです。そして、他のエージェントシステムに最も良いバトンパスまたは引き継ぎを提供するシステムが、市場でますます勝利することになるでしょう。私はこれが根本的な変化の波であり、おそらく長期的な予測にまだ完全に理解されていないか、考慮されていないと思います。
そうですね、モデルがAPIやSDKを本当によく埋め込んでいる必要があります。さもなければ、モデルがサービスを必要とするときにそれを呼び出さないでしょう。つまり、モデルに組み込まれているということは、B2Bの観点から見ると、有機的なGoogle検索に表示されることの新しい形態のようなものです。
その通りです。エージェントモデルが花粉を運ぶミツバチだとすると、その花はAPIにとって非常に魅力的で魅力的に見える必要があります。そして、私たちはまだそれがどのようなものになるのか、既存の世界秩序に何をもたらすのかわかりません。しかし、それがいくつかの分野にとって非常に破壊的である可能性があると想像できます。
そうですね、皆さん、インタビューをお楽しみいただけたと思います。ここで市場機会の規模について高レベルの感覚を提供しましょう。私たちは、AIソフトウェアが2030年までに13兆ドルの売上高市場になると考えています。現在の総IT支出が4〜5兆ドル程度であることを考えると、私たちがこれに非常に興味を持っている理由があります。それは、これらのAIシステムの上で途方もない量のビジネス価値が創造されると考えているからです。
したがって、このような価値を創造しようとしているビジネスと協力している人、そしてAIシステムを構築し、その約束と落とし穴の両方を見てきた長い歴史を持つ人と話すことができるのは素晴らしいことです。インタビューをお楽しみください。ご参加ありがとうございました。
こんにちは、アンドリュー。ARKの4年間のイノベーションポッドキャストへようこそ。私たちはARの未来学者であり、この議論にとてもわくわくしています。アンドリューは人工知能の分野で最も影響力のある研究者および教育者の一人です。Google Brainの共同創設者およびリーダー、Baiduのチーフサイエンティスト、Coreraの共同創設者、そしてCoreraで最も人気のある講座の多くを教えました。また、AI Fundやランディング・AIなどの複数の会社の共同創設者でもあり、いくつかの会社の取締役も務めています。
アンドリュー、私が個人的に好きな統計は、世界の1000人に1人があなたのAIコースを受講したということです。これは全コミュニティとエコシステムへの非常に大きな貢献であり、とても感動的です。さまざまなAIのトピックについて議論できることをとても楽しみにしています。
ありがとうございます。ここにいられて嬉しいです。
素晴らしいです。アンドリュー、まず私たちがいわゆるAIの旅のどこにいるかについてのあなたの見解を説明していただけますか? 外にはたくさんの議論があります。実際にかなり前から、AIは壁にぶつかっているとか、実際の生産性をもたらさない性能向上を達成しているといった議論があります。AIの能力と今後のAI能力の軌道について、あなたはどのように考えていますか? そしてそれをどのように評価していますか?
過去10〜15年間、AIは壁にぶつかっているという少数の声が常にありました。そのような発言は何度も何度も間違いであることが証明されてきたと思います。私たちは壁にぶつかるにはほど遠く、この時点で誰かがそれを真剣に言うことにさえ驚いています。
汎用技術であるAI技術は非常に進歩し、現在でも近い将来に破壊的な進歩があり、AIで実行できるタスクのセットが急速に拡大しています。現時点では、生成AIと大規模言語モデルに多くの注目が集まっています。私たちがそれらに実行させることができるタスクのセットは、実際に展開されているものをはるかに上回っています。
実際、より多くの推論能力、つまりより多くのGPUやその他のタイプのハードウェアが、より多くのAIを世界に出すためのボトルネックになっていることは非常に明確です。これは解決されることがわかっている問題です。GPUやその他のタイプのハードウェアのサプライチェーンを解決するための非常に強い金銭的な動機があります。
したがって、AIが新しい技術を発明するのを完全に止めたとしても、今後数年間でAIの展開が大幅に増加するでしょう。そしてもちろん、さらに良いニュースは、新しい技術も登場しており、それがさらに多くのアプリケーションを将来的に推進するということです。
要約すると、あなたが言っているのは、私たちが現在持っている能力は実際にはまだ商業市場に展開されていないので、それを行うだけでも多くの生産性の向上がもたらされるということですね。そして、さらに多くの能力の向上をもたらすはずのフード下のアーキテクチャの改善があるということですか?
はい、そうです。実際、私は定期的に、AIが大きなROIをもたらす可能性のあるアイデアやプロトタイプを持っている人々と話をしています。しかし、何らかの理由で、例えばGPUが十分にないとか、トークンのコストがまだ少し高すぎるとか、それを実装するための時間的余裕のあるソフトウェアエンジニアがいないなどの理由で、まだ実現されていません。
すでに、かなりのROIを生み出すと私が言えるかなり検証されたアイデアがたくさんあります。しかし、容量の種類の理由で、絶対的に今後1〜2年で解決されるはずですが、まだ展開されていません。これが、より多くの価値のあるAIプロジェクトが展開されることを100%確信している理由です。なぜなら、それらを展開する上でのボトルネックは、GPUのサプライチェーンのようなものだからです。
そして、それらのGPUが製造され、より多くの価格が展開されることになります。そして、将来の技術の例として、私はAIエージェントまたは私たちが呼ぶエージェンティックワークフローにとてもワクワクしています。これは、現在多くの人がLLMを使用している方法が、プロンプトを入力してそれが出力を吐き出すというものですが、それは少しAIに、あるいは人間に、「ある話題についてエッセイを書いてほしい」と頼むようなものです。しかし、開始から終了まで一度も戻らずに入力する必要があります。
人々はそのように書くことはできますが、私たちはそのように最高の文章を書くわけではありません。代わりに、私たちは概要を書き、概要を編集し、最初の下書きを書き、それを批評し、ウェブ研究を行うなど、より反復的なワークフローで最高の思考と文章を行います。これは私たち人間がより良い成果物を提供することを可能にする、より反復的なプロセスです。
エージェンティックワークフローまたはAIエージェントワークフローもこれを行います。私たちはすでに、多くのAIアプリケーションの精度がエージェンティックワークフローで大幅に向上しているのを見ています。繰り返しになりますが、エージェントワークフローのボトルネックの1つは、より高速な推論能力が必要だということです。なぜなら、成果物を何度も繰り返し処理する際に、何度もLLMを呼び出す必要があるからです。
しかし、再び多くの人々がこれに取り組んでいるので、サプライチェーンが改善され、AIのための、AIトレーニングだけでなくAI推論のためのより良いチップがオンラインになるにつれて、これらの多くの作業も解き放たれると非常に確信しています。
ちなみに、私はARKの報告書に大きな影響を受けました。その報告書では、トレーニング価格が年間75%、推論価格が年間86%低下すると推定していました。これらの正確な数字が正しいかどうかはわかりませんが、価格が急速に低下しているのは間違いなく見ています。そして、この低下するトレーニングと推論のコストがさらなるイノベーションを可能にすることは素晴らしいと思います。
そうですね、私たちにとって一般的な考え方は、コスト低下だけでなく、投資資金も押し込んでいるということです。そのため、コスト低下と投資資金を掛け合わせると、2〜3年で100倍または1,000倍の能力向上が期待できます。
ヤン・ルカン氏が言うように、システムはエラー率から始まり、時間とともにエラー率が低下し、エージェントシステムでさえもそうなります。そのエラー率は複合的になるので、実際には作業しているワークフローが長くなればなるほど、生産性は崩壊します。なぜなら、それは複合的なエラーだからです。現在のアーキテクチャでは、これは克服可能だと思いますか? それともエージェンティックワークフローが本当に一貫して機能するためには、さらなるアーキテクチャが必要だと思いますか?
複合的な議論、つまり5つのこと、10のこと、100のことを行う場合、それらすべてが正しくなければならないというのは、非常に単純な、私が言うところのオープンループのワークフローを行っている場合には当てはまります。その場合、確かにすべてのステップが完璧である必要があります。しかし、エージェンティックワークフローを実装すると、ステップを見直し、自身のエラーを修正することができるため、複合的な問題は大幅に改善されます。
一つの例を挙げますと、これは私自身も驚いたのですが、私は非常に単純なエージェントをセットアップしました。オンラインリサーチを行い、レポートを書くというものでした。スタンフォードのグループの前でライブデモを行っていたときのことです。何らかの理由で、その時ウェブ検索の呼び出しが失敗しました。おそらく使用していたAPIからの非常に限定的なエラーだったと思います。
私は観客の前で「しまった、これは失敗するだろう」と思いました。しかし、私の驚きに、エージェントは「ウェブ検索が失敗しました。代わりにWikipedia検索を使用しましょう」と言いました。私は完全に忘れていたのですが、ウェブ検索ツールとWikipedia検索ツールの両方を与えていたのです。
私の本当の驚きに、Pythonでセットアップしたエージェントは、ウェブ検索が失敗したときにWikipedia検索に切り替えるほど賢かったのです。そしてデモは依然として無事に完了しました。
エージェンティックワークフローでは、彼らは魔法ではありません。間違いを犯し、非常に欠陥があります。しかし、エージェンティックワークフローがあるステップで失敗し、振り返って何が起こったかを見て、自身の作業を批評し、それを修正することができるとき、それらははるかに堅牢になります。
AIと人間の類推を過度に強調したくありません。それらは非常に異なります。しかし、人間のように、私たちが多くのことを行うとき、最初は上手くいかないことがあります。しかし、振り返り、批評し、修正する能力があるため、人間ははるかに堅牢な実行能力を持っています。AIエージェントもそのようなことができるのを見てきました。
アンドリュー、真のエージェンシティを実現するために、トランスフォーマーのような規模の別のステップチェンジのアーキテクチャの改善が必要だと思いますか? それとも、LLMと強化学習、そしておそらく拡散やその他のものとの効果的な組み合わせが、十分な規模ですでにツールボックスに存在しているのでしょうか? あなたの感じでは、それで十分だと思われますか?
私は、エージェンティックワークフローがトランスフォーマーネットワークで十分に機能していると思います。MBARやSRMなど、トランスフォーマーの代替モデルに関する興味深い研究があることは知っています。これらは有望に見え、さらなる調査とテストに値します。
しかし、トランスフォーマーよりも良いモデルがあれば素晴らしいですが、絶対に必要だとは思いません。それらがあれば素晴らしいですが。
私が本当に過小評価されていると思うのは、高速推論と高速トークン生成の重要性です。最近まで起こっていたのは、多くの大企業がトレーニング用のGPUを購入するために巨額の予算を費やしていたということです。それは素晴らしかったです。それは私たちに大規模な基盤モデルを与えてくれました。独自のものもオープンソースのものもです。
しかし、私が発見したのは、非常に迅速に推論を行う能力が多くのアプリケーションにとってより大きなボトルネックになっているということです。例えば、MetaがLlama 3 70Bをリリースしたとき、それは本当に素晴らしいオープンモデルです。もしそれで10倍速く推論を行うことができれば、これらのエージェンティックワークロードをはるかに速く実行できます。
なぜなら、ChatGPTやClaudeやGeminiなどを人間として使用する場合、人間は1秒あたり約6トークンを読むことができます。そのため、1秒あたり6トークン以上を生成する必要はありません。1秒あたり10トークンを生成すれば、私が読むよりも速いです。だからそれ以上速く生成する必要はありません。
しかし、エージェンティックワークロードでは、AIが下書きを書き、それを批評し、修正します。そのため、人間が見る前に多くのトークンを生成し、多くの作業を行います。
私のチームの中には、25分の作業を行うエージェンティックワークロードを持っているものがあります。人間が見る前に25分の処理を2分の処理に圧縮できれば、それはゲームチェンジャーです。結果を20分や25分ではなく2分や1分で得られることは、ユーザー体験を大きく変えます。
だからこそ、本当に高速なトークン生成、安価で高速なトークン生成にもっと取り組むべきだと思います。それが、トレーニングへの継続的な投資とともに、AIの次の波を本当に助けると思います。トレーニングへの投資も明らかに非常に重要です。
両者は関連していますよね。AIの推論におけるコスト低下の本当に興味深いダイナミクスの1つは、システムにより多くのトレーニングドルを投入すると、Metaが行っているように、より小さなパラメータモデルにより多くの情報を圧縮できることです。そうすれば、より迅速かつ安価に実行できます。つまり、レイテンシーを減らし、推論のコストを減らすのです。
そのため、同時にパフォーマンスの向上とコストの低下を得ているのです。そして、それはトレーニングコンピュートにどれだけのお金を投入しているかの関数です。
そのすべてが役立ちます。また、大きなモデルを取る場合でも、多くの商業的なウェブサイトタイプの大規模な生成プロバイダーは、おそらく1秒あたり10トークン程度を生成しています。これは私が読むよりも速いです。ほとんどの人は1秒あたり約6トークンを読むでしょう。
しかし、現在、Anthropicのような会社は1秒あたり300トークンを生成しています。これは完全に同じではありません。モデルは異なります。しかし、私はこれらを見ています。Sama.aiもまた、1秒あたり数百トークンを生成するデモを持っています。
そして、他の半導体メーカーもあります。1つや2つだけでなく、かなり多くの企業が私に個人的に、安価で超高速なトークン生成にも取り組んでいると共有しています。
多くの企業がこれに取り組んでおり、これが多くの新しい機能を解き放つと思います。この超高速トークン生成、例えばLlama 3の70億パラメータバージョンのような大きなモデルで1秒あたり100トークン以上を生成することを考えています。これにより、本当に洗練されたことができるようになります。
実際、より多くの半導体メーカーが推論をより真剣に取り上げているのを見るのが楽しみです。
私が見た他の面白いことは、適切にGPUインフラストラクチャにトレーニングのために投資した大企業があることです。これは複数の人から聞いたことです。そして、このGPUチームが素晴らしいトレーニングインフラストラクチャを構築しました。そのチームが推論インフラストラクチャも構築するのは非常に魅力的です。
なぜなら、そのチームがトレーニングインフラストラクチャで素晴らしい仕事をしたからです。そこで彼らは推論インフラストラクチャも構築します。しかし、私が考えようとしているのは、トレーニングと推論のインフラストラクチャが同じインフラストラクチャである必要がどれほどあるのかということです。
または、十分な違いがあるのでしょうか? 新しいアーキテクチャ、ハードウェア、そしてもちろんソフトウェアも明らかに必要ですが、推論インフラストラクチャのために考慮すべきハードウェアは何でしょうか?
確かに、エンドポイントデバイスの場合は異なる必要がありますね。例えば、テスラ車にチップを搭載する場合、それは独自のスタックになります。そして、消費者の効用の観点から、その一部または多くがエンドポイントデバイスにシフトする非常に説得力のある理由があると主張できるでしょう。
そうですね、デバイス上では明らかです。そして、クラウド上でも、トレーニングと推論の間には実際に十分な違いがあり、そこから戻ってアーキテクチャやソフトウェアの種類の変更に取り組む必要があります。しかし、オンデバイスのエンドポイントに関しては、完全に同意します。
アンドリュー、あなたの最大の貢献の1つは、教育の面で、そして常に指摘してきたのは、人々や開発者が機械学習の文脈でMLOpsについて学ぶ必要性です。研究面だけでなく、MLOpsの将来の道筋として、推論の呼び出しを調整したり、推論が実行された後にトレーニングを別々に行ったりすることを見ていますか? それがあなたが向かっているところのように聞こえます。
そうですね、LLMベースのアプリケーションの多くが非常に新しいため、LLM Opsのスペースはまだかなり新しいと感じます。大規模言語モデルをどのように構築し、展開し、維持するかなどです。
AIスタックが少し変化しているのは興味深いですね。シリコンとクラウドプロバイダーがあり、そして興味深いオーケストレーションレイヤーが登場しています。例えば、Harrison ChaseがLangChainで素晴らしい仕事をしていたり、Jerry LiがLLMインデックスのオーケストレーションレイヤーで素晴らしい仕事をしています。
そして、その上に構築されたアプリケーションもあります。もう一つの興味深い点は、エージェンティックフレームワークです。これは別の種類のオーケストレーションレイヤーかもしれません。例えば、CreAIやAutoGenなどがマルチエージェントオーケストレーションレイヤーを構築しています。
AIスタック自体が変化しています。しかし、私はほとんどの時間をアプリケーションレイヤーで過ごしています。AI Fundでは、アプリケーションレイヤーに非常に多くの機会があることがわかります。一方で、基盤モデルレイヤーは非常に競争が激しいです。
誰もが数億ドル、数十億ドル、あるいはある時点では数十億ドル以上をモデルのトレーニングに注ぎ込んでいるのを見てください。それは素晴らしいセクターだと思います。確かに、いくつかの企業は非常にうまくいくでしょう。しかし、非常に競争が激しいです。
一方で、長い間、私はアプリケーションレイヤーにより焦点を当ててきました。そこには非常に豊富な機会があり、ほとんど競争がありません。実際、AI Fundでは、企業パートナーと協力して魅力的なユースケースを持ってきていますが、周りを見回すと、そのユースケースに取り組んでいる競合他社がゼロか1社程度しかないことがよくあります。
アプリケーションレイヤーには非常に多くの機会があります。
これらのアプリケーションレイヤーの企業は、基盤モデルに何を接続するかについてどのように考えていますか? 彼らは「GPT-4が機能し、今日すぐに使える」と言って、別の基盤モデルに柔軟に切り替えられるように設計していますか? それとも、LlamaをFine-tuningしているのでしょうか? アプリケーションレイヤーでの戦略と、それがスタックの下位層の競争力にどのように影響するかについて、どのように見ていますか?
それは急速に変化しています。多くのプロジェクト、大多数のプロジェクトでは、まだ単なるファネルです。概念実証から本番へと進みます。人生のほとんどのことと同様に、本番よりも概念実証の段階にあるプロジェクトの方が多いです。これは悪いサインではありません。成熟した技術でも同じことです。
しかし、概念実証段階にあるプロジェクトでは、多くのチームがGPT-4を使い始めています。そして、Claude 3も非常に競争力を持ってきています。Claude 3 Opusは本当に競争力があります。
そして、ここ数週間でLlama 3も競争力を持ってきました。もちろん、多くのチームがGoogleの方向性を持っており、一部はGemini 1.5 Proを使用するでしょう。
しかし、私が聞いている限りでは、現時点ではGPT-4を使用しているチームが圧倒的に多いです。
そして、このセクターの成長のボトルネックの1つは評価だということがわかりました。生成AIの素晴らしい点の1つは、開発コストが以前よりもはるかに低いことです。1日で魅力的なアプリケーションを構築できます。
しかし、多くのプロジェクトで見ているのは、1日で魅力的なプロトタイプを構築できても、それを適切に評価し、データを収集するのに10日かかるかもしれないということです。つまり、10倍の時間がかかります。これは楽しくありません。1日で何かを構築したのに、それを評価するのに10日かかるのです。あるいは、1週間で何かを構築したのに、それを評価するのに2ヶ月かかるかもしれません。
そのため、AIにおける評価の負債があると思います。これは実際に、人々がモデルを切り替えることを躊躇させる要因となっています。例えば、GPT-4から始めた場合、他のモデルを評価できないと、始めたものにとどまる傾向があります。
しかし、より良い評価を構築する動きが多く見られます。これにより、人々はこれらの異なるモデルをより効率的に評価できるようになります。パフォーマンスがほぼ同じなら、最も低コストのプロバイダーに移行したいと考えるでしょう。
確かに、トークンに何百万ドルも費やしている企業もあり、その場合、トークンのコスト削減は重要です。一方で、概念実証のために月に10ドルしか使っていない企業もあります。彼らは低コストのプロバイダーに切り替えるために多くの作業をする動機が少ないです。
しかし、一度拡大すれば、より良い評価があれば、人々は複数のモデルを評価し、価格とパフォーマンスのトレードオフ、そして速度のトレードオフを考慮して、自分のタスクに最も適切なものを使用することができるようになります。この分野では多くの進歩があります。
Claudeが順調であることを聞いて嬉しいです。私たちはAnthropicに非常に期待していました。それはARKベンチャーファンドから行った最初の投資の一つでした。もちろん、GPTファミリーのモデルやオープンソースなど、より広範な見通しにも非常に期待しています。
アンドリュー、現在のオープンソースに関する議論について、あなたの考えを聞かせていただけますか? 長所、短所、リスク、機会などについてです。これはほとんど極端な議論になっているようです。実際、データサイエンスや機械学習の分野で、非常に多くの情報を持ち、非常に情熱的な人々が、この特定のトピックについてこれほど極端な見解を持っているのを見たことがありません。
あなたがこの議論や論争についてどのように考えているのか、そしてそれが時間とともにどのように変化しているのか、興味深いところです。
私はオープンソースは素晴らしいと思います。そして、それを促進するためにできることはすべてすべきだと考えています。オープンソースはより多くの人々をより良くし、世界をより良くすると思います。
昨年、オープンソースを阻止しようとするロビー活動の激しさに本当に驚きました。これはアメリカのイノベーションを潰し、グローバルなイノベーションを潰すでしょう。想像できるように、基盤モデルを訓練し立ち上げるために数十億ドルを投資した少数のプレイヤーにとっては、他の誰かがそれをオープンソース化し、その非常に高価な投資の価値を拡散させるのは少し厄介です。
そのため、ロビー活動の努力は非常に激しいものでした。最初、ロビー活動の努力は「AIが支配権を握り、すべてを殺す可能性がある」というものでした。私は最近ワシントンDCにいて、様々な立法者と話をしましたが、「AIが支配権を握り、すべてを殺す」という主張は信頼性を失っています。
しかし、ロビイストは賢いので、諦めません。それは「AIが支配権を握り、すべてを殺す」から「AIが生物兵器を作り出す可能性がある」に変わりました。その後、スプレッドシートでも生物兵器を作ることができるという報告書がいくつか出ました。しかし、私たちはスプレッドシートについて心配していません。そして、AIは生物兵器の作成にそれほど役立つようには見えません。
実際、オープンAIはレポートを公開し、基本的にAIの生物兵器に対する恐れは、一部の人々が主張しようとしていたものではないことを示しました。そのため、生物兵器の議論は大幅に信頼性を失ったと思います。
しかし、ロビイストは諦めません。最新の議論は国家安全保障です。「もしオープンソース化すれば、近い競合国がアクセスできてしまう」というものです。ロビー活動の激しさと、オープンソースを阻止するという彼らのアジェンダを推し進めるために数ヶ月ごとに議論をシフトさせる意欲に驚きます。
率直に言って、私はこれらのリーダーたちの知的誠実さに対して過度に高い期待を持っていたのかもしれません。なぜこのように考えるのか説明しましょう。
オープンソースは明らかにグローバルAIスタックのサプライチェーンです。テクノロジーは国家や開発者の価値観を反映する傾向があると思います。例えば、多くの国がGoogleドキュメントを使用していますが、Googleドキュメントを見ると、共有が非常に簡単で、ロックダウンすることはかなり難しいです。エンタープライズグレードの機能でロックダウンすることはできますが、Googleドキュメントは私の個人的な見解では、Googleの内部的にとてもオープンな文化を反映しています。
例えば、iMessageを見ると、エンドツーエンドで暗号化されていることは、プライバシーを重視するという価値観の反映です。一方で、他の国では、エンドツーエンドのメッセージングアプリを開発したくないかもしれません。それは、平和を維持するという名目で政府が通信を監視できるようにするという異なる価値観を反映しているかもしれません。これは多くのアメリカ企業が目指す価値観とは異なります。
LLMについても同じことが言えると思います。民主主義国家がAIのサプライチェーンに参加しなければ、他の国が参加するでしょう。これは、他の国の誰かが「民主主義についてどう思いますか? 良いですか、悪いですか?」と尋ねたとき、私はLLMが民主主義的価値観を反映することを望みます。
これが、オープンソースを阻止しようとする試みが実際に非常に危険だと考える理由です。イノベーションにとって明らかに悪いだけでなく、アメリカや英国や欧州連合の利益にも反します。
ロビイストたちが、多くのヨーロッパの立法者たちにヨーロッパの利益に明らかに反する法律を制定するよう説得することにどれほど効果的だったかに本当に驚いています。
オープンソースに対する規制圧力は別として、将来的には、基本的にMetaがこれらのモデルのトレーニングに文字通り数百億ドルを投じ、それを自社の企業戦略のために野に放つ努力が、クローズドなLLM基盤モデル型プレーヤーの経済性を十分に低下させ、その価値チェーンの一部が時間とともにあまり利益を生まなくなると想像していますか? それはOpenAIやAnthropicのような企業が最終的にフランチャイズから商業的な収益性を生み出す能力を本当に危うくしているのでしょうか?
現時点では、純粋な基盤モデルレイヤーには課題があります。実際、あなたの報告書にあるように、コストが年間75%低下しているということは、モートを構築するのが本当に難しくなります。1億ドルを費やしてモデルをトレーニングし、1年後に競合他社が2500万ドルでできるようになり、さらに1年後にはその4分の1になるのは厄介ですよね。モートはどこにあるのでしょうか?
しかし、モートはあると思います。純粋な基盤モデルレイヤーだけでなく、他のレイヤーにもあります。消費者向けには少し異なる可能性もあります。
今日、LLMの切り替えコストは実際にかなり低いことがわかっています。プロンプトを書き直す必要があるかもしれませんが、それほど大変ではありません。しかし、これがどのように進化するかを見守る必要があります。
モートの強さを高める他の技術コンポーネントがあるかもしれません。しかし、基盤モデルだけで他に何もないとすれば、それがどれほど重要であっても、その中核部分がどれほど強いかわかりません。
Metaがこの分野に参入できた理由の一部は、ChatGPTやそれが商業化の機会が大きいことが明らかになるまで、チームは喜んで自分たちがやっていることを公開していたからだと思いますか? 「これが私たちのレシピです。これが私たちの構築方法です」と。モデルは安全上の理由でクローズドでしたが、本質的にはこれがアーキテクチャであり、私たちのアプローチ方法だと共有していました。
しかし、GPT-4以降は、誰もが「もう自分のカードは見せない」と言っています。そのため、チーム間でパフォーマンスの差別化の機会がより多くなっているのではないでしょうか? なぜなら、レシピはもはや共通して共有されていないからです。
異なる企業間での人材の流れやアイデアの流れは十分にあるので、レシピを非常に長期間秘密にしておくのは非常に難しいと思います。短期間は秘密にできるかもしれません。
これらの人材戦争も見てきました。大手テクノロジー企業がAIビジネスやクラウドビジネスを立ち上げるとき、確かに短期的な独自の技術的優位性を得ることはできます。しかし、長期的な優位性については、このピースがそれほど防御可能かどうかわかりません。
Metaがllama 3をリリースしたことは興味深いですね。あなたは安全性の名の下に物事を秘密にしておく人々について言及しましたが、AIの長期的な歴史を10年ほど振り返ってみると、ほぼ毎回、誰かが「私の技術は非常に危険なので秘密にしておく必要がある」と言った後、通常1〜2年後に誰かが似たようなものをオープンにします。そして、オープンにされたときには、はるかに多くの良いことが生まれています。
悪いことが全く起こらなかったとは言いません。オープンソースを悪用する悪意のある行為者もいますから。しかし、誰かが「私の技術は非常に危険だ」と言った後、1〜2年後にオープンなバージョンが登場すると、はるかに多くの良いことが生まれるのは明らかです。
llama 3の場合、元のバージョンは限られたコンテキストウィンドウ長を持っていました。しかし、オープンになったため、開発者たちがllama 3を非常に長い入力コンテキスト長に修正しています。クローズドモデルではできなかったことです。
オープンソースのイノベーションの力は本当に強力だと思います。そして、プロバイダーが実際にllama 3を非常に安価にトークンごとに提供できるようになったという事実。このオープンソースは非常に多くのイノベーションを生み出しています。
そして、Metaがllamaをリリースしたことについて、ソーシャルメディアで「マーク・ザッカーバーグはどんな7次元チェスをしているんだ」というメッセージを見ました。しかし、私はllamaがオープンソースでリリースされるビジネスケースは、それほど謎めいたものではないと感じています。
実際、率直に言って、MetaがPyTorchで非常に似たような動きをしたのを見ました。Metaは、おそらく当然のことながら、他社の独自プラットフォームの上に構築する必要性に敏感だったのだと思います。iOSがプライバシールールを変更したりすると、Metaのビジネスに影響を与えます。なぜならiOSは独自のプラットフォームだからです。
数年前、私の元チームがGoogle BrainでTensorFlowを構築していたとき、実際にRaj Mongaを雇いました。彼は素晴らしいリーダーで、結局TensorFlowをリードすることになりました。Rajは今でも素晴らしいエンジニアですが、支配的なディープラーニング開発プラットフォームが競合他社によって管理される可能性があるという懸念があったとき、Metaは見事にこの手を打ったと思います。
所有しようとするのではなく、オープンソースのPyTorchを作成し、それが大きな勢いを得ました。そして、正直に言って、他の誰かがみんなが構築しなければならないディープラーニングプラットフォームを管理するリスクを分散させたのです。
Metaは大規模なクラウドビジネスを運営していないので、その上にビジネスを構築するための基盤プラットフォームが自由であれば十分です。ソーシャルネットワークやコミュニケーション、広告ビジネスを通じてです。
私の友人や元チームがTensorFlowを構築したので、Metaがこの動きをPyTorchで行うのを見るのは本当に興味深かったです。そして今、ビジネスの観点から見ると、エコシステムにオープンソースの基盤モデルがあることを確実にすることがMetaの利益になるのは非常に合理的だと思います。
なぜなら、MetaはiOSのような閉じたプラットフォームの上に構築することを心配せずに、その上に構築できるからです。誰かがいつか規則を変更するかもしれません。そして、Metaは大規模なクラウドを運営していないので、APIコールを販売しようとして独自のものを保持するインセンティブが少ないのです。
非常に合理的なビジネス判断だと思います。しかし、明確にしておきたいのは、これは非常に合理的なビジネスの動きですが、Metaがこの本当に価値のあるものをオープンソース化し、無料で提供してくれたことに対する私の、そしてAIに携わる多くの人々が持つべき感謝の気持ちを決して減じるものではありません。
AIアプリケーション企業について、サム・アルトマンは「GPT-4が持つ能力レベルを想定して設計しているなら、それは大きな間違いだ。なぜなら、今年と来年にはもっと能力が高くなるから」と言っています。戦略的な状況が、OpenAIが非常に意義深い進歩を遂げ、その後6ヶ月ほど遅れて他の企業が追随するという形で展開すると予想しますか?
また、AIアプリケーション側では、潜在的に意義深く商業化可能なAIアプリケーションについて考えたり、アプローチしたりする方法が変わりますか? 基礎技術の進歩速度が速いためです。
サムは素晴らしいリーダーです。彼が学部生のころから知っていて、彼はスタンフォードの私の研究室で働いていました。OpenAIについて、私が本当に尊敬しているのは、彼らが積極的に動くということです。本当に「戦時体制」のような運営をしています。OpenAIがサムとチームを尊敬するのは、大胆に賭け、その賭けを実行する方法です。
そうすると、必ずしもすべての賭けが成功するわけではありませんが、いくつかの賭けが大きく成功すれば素晴らしい結果を出せます。OpenAIはさまざまなことに取り組んでいるようですが、彼らがやっていることすべてを推測したくはありません。
基盤モデルのトレーニングは重要だと感じています。GPT-5やその他のものがリリースされるのを楽しみにしています。GPT-4よりもはるかに能力が高くなることは間違いありません。しかし、GPT-5にもできないことがたくさんあり、その上に構築される他のアプリケーションの余地がまだたくさんあると確信しています。
私のチームは小規模な研究を行い、コーディング問題でのコード作成において、GPT-3.5にエージェンティックワークフローを適用すると、GPT-4を上回るパフォーマンスを示すことがわかりました。GPT-3.5から4への移行は非常に刺激的でしたが、その改善は、GPT-3.5でさえもエージェンティックワークフローを使用することで得られる改善に比べると小さなものでした。
GPT-5や(これは推測ですが)Claude 4やGemini 2など、それらがリリースされることを非常に楽しみにしています。内部情報はありません。これらはすべて私の推測です。しかし、現世代のモデルの上に構築された他のもの、エージェンティックワークフローなどが、非常に価値のあるビジネス課題や非常に価値のあるアプリケーション課題を解決する上で非常に遠くまで到達できると確信しています。
その質問に関連して、アンドリュー、あなたは長年にわたってヘルスケアに非常に興味を持っていると言っていましたね。家族にも医療関係者がいると思います。ムスタファ・スレイマンの著書『The Coming Wave』には、彼が考える現代版チューリングテストの例が紹介されています。
彼の例は、エージェンティックシステムに10万ドルを与え、年間100万ドルのビジネスをAmazonで生み出すように依頼したらどうなるか、というものです。これには、会社を設立し、マーケティングプランを作成し、それを開始することが必要になります。
あなたの頭の中で、ヘルスケアであれ他の分野であれ、近い将来にエージェンティックシステムに達成してほしい現代版チューリングテストはありますか?
私は、人工知能は生物学的知能とは非常に異なると感じています。両方とも本当に価値がありますが、私たちは常にAIを人間ができることと比較しようとしています。それは問題ありませんが、人間の知能とは非常に異なるため、AIが人間ができることすべてを行うのは実際にかなり難しいのです。
もちろん、AIが人間と同じことができるようになることを目指すべきです。願わくは私たちの生涯のうちにそこに到達できることを願っています。しかし、人間と同等になる以前に、すでにAIは生きている人間が誰もできないような狭い分野のタスクをはるかに上手くこなすことができ、それが多くの価値を生み出しています。
私は実際には、人間の基準に合わせようとしたり、チューリングテストの現代版を作ろうとしたりするよりも、AIが様々な産業で行えることの段階的な進歩に焦点を当てています。この進歩は非常に急速に進んでいます。
ベンチマークは、何らかの商業的アプリケーションを示唆し、それが拡大して本当に具体的で現実的なものになる限りにおいて有用ですね。あなたは非常に実践的なAIの市場への応用に焦点を当てていますが、言語以外の分野についてどう考えていますか?
言語がこれらのモデルとのインターフェースであるため、私たちは言語生成に過度に注目しているかもしれません。あなたはトークン生成の迅速さについて話しましたが、読書の場合、確かに私が情報を取り込む速度をはるかに超えることができます。しかし、視覚分野では、拡散モデルは私が必要とする速度と比べてまだ非常に遅いです。
言語以外の分野、ロボティクス、自動運転タクシー、そしてヘルスケア分野などでのアプリケーションについてどう考えていますか? どの分野での進歩の速度に期待していますか? そして、これらは注目すべき良い分野だと思いますか?
私たちはそこに向かっていると思います。テキスト革命は大規模言語モデルから始まりましたが、画像処理革命が少し遅れて来ているのを見ています。生成だけでなく、分析も含めてです。
例えば、Landing AIは大規模ビジョンモデルに多くの取り組みを行っています。今後数年のうちに、AIがテキストだけでなく画像も分析する能力が大きく進歩すると思います。AIが複数の前線で急速に進歩しているように感じます。
アプリケーションセクターに関しては、AI Fundでは実際にセクターに依存しない戦略を取ろうとしています。私たちの戦略は、AIに特化することです。AIの技術がうまく構築されていることを確認し、AIが何をできて何ができないかを確実に理解するようにしています。
しかし、AIは汎用技術であり、ヘルスケア、金融サービス、物流、教育など、ありとあらゆる分野に適用されるため、私たちはすべての、あるいは意味のある割合のセクターの専門家になることはできません。
そのため、AI Fundでは、主題の専門知識を持つ企業パートナーと協力することを好みます。これらはしばしばLPですが、LPでない場合もあります。大企業と協力することが多く、彼らは特定のセクターに深い専門知識を持っています。私たちのAIの専門知識と、彼らの特定のセクターの専門知識を組み合わせて、非常にユニークなものを構築しようとしています。
例えば、ヘルスケアの分野でも仕事をしています。最近のヘルスケアプロジェクトでは、特定の地理的地域で深い市場知識と販売知識を持つ海外の深い専門知識を持つパートナーと協力しています。これに私たちの技術的知識を組み合わせることで、アメリカ以外の特定の市場に最初に取り組むことが容易かもしれないと考えた、ヘルスケアにおいて非常にユニークなものを構築しようとしています。
選択肢は数多くあります。面白い事実を一つ挙げると、大企業と集まってブレインストーミングを行うたびに、毎回、彼らや私たち、あるいは誰もが現実的に実装するリソースをはるかに超える数のアイデアが生まれます。有望なアイデアの数は、いつも嬉しくも困ったことに、私たちが持っているリソースをはるかに超えています。
AI Fundでの経験や大企業との対話、そしてAIがどのように適用されるかについての深い理解から、5年間の時間枠で、市場がAIによって解決されると考えている大きな問題で、まだ解決されていないものはありますか? 逆に、市場や一般の人々が気づいていない、AIによって完全に解決される大きな問題はありますか?
時間がかかると思います。多くの業界でこれらの変化を起こすには時間がかかるでしょう。ディープラーニングAIで多くの産業オートメーションや反復的なタスクを行っていますが、ご存じのように、原子を動かすのは遅いです。世界のP&Lの構成を変更することを含む場合、そこに到達しますが、時間がかかる傾向があります。
ビットも驚くほど動かすのが遅いことがあります。知識、文化の変化、内部の変更管理が関係する場合です。多くのビジネスのワークフローを再考するのにどれだけ速くできるかを見てみましょう。ビットは原子よりも変更が速いと楽観的ですが、ビットを変更する際に変更管理プロセスが必要な場合、まだ数年かかることがあります。
しかし、AIは確実に多くの知識労働を変革しています。今日のすべての知識労働者は、生成AIを使用することで効率性を向上させることができます。これは素晴らしいことです。そして、より良いツールが登場すれば、選択肢はさらに大きくなるでしょう。
これは素晴らしかったです、アンドリュー。お時間をいただき、ありがとうございました。また近いうちにお会いしましょう。
はい、ありがとうございます。いつもあなたたちと話すのは本当に楽しいです。あなたたちは非常に深い知識を持っています。研究の成果に本当に感謝しています。あなたたちの研究を読むのが本当に楽しみです。
私たちも引き続き研究を続けていきます。どうぞ、すべての素晴らしい教育と仕事を続けてください。今後も協力を続けることを楽しみにしています。本当にありがとうございました、アンドリュー。
ありがとうございました、チャーリー。ありがとうございました、アンドリュー。
これでFYI、ARK investの4年間のイノベーションポッドキャストを終了します。ぜひ「いいね」をし、購読して、5つ星の評価をお願いします。来週またお会いしましょう。
これはブレット・ウィントンがサインオフします。
ARKは、ここに提示された情報が正確であり、ARKが信頼できると考える情報源から得られたものであると信じています。しかし、ARKはいかなる情報の正確性や完全性も保証せず、そのような情報はARKからの通知なしに変更される可能性があります。過去の結果は将来の結果を示すものではありません。
このポッドキャストに含まれる記述の一部は、将来の期待に関する記述および他の将来予測的な記述である可能性があり、それらはARKの現在の見解と仮定に基づいています。これらには、実際の結果、パフォーマンス、または事象が、そのような記述で表現または暗示されているものと大きく異なる原因となる可能性のある既知および未知のリスクと不確実性が含まれています。