
米中AI戦争:DeepSeekの衝撃がアメリカを目覚めさせた
中国が開発した生成AIモデル「DeepSeek-v3」と「DeepSeek-R1」は、米国主導で進んでいるAI開発競争に大きな一石を投じ、米国テクノロジー界隈で大騒ぎとなるほどで、その影響はもちろん金融市場にも波及しています。
米国のテクノロジー企業からも高い評価を得ているDeepSeekの「必要は発明の母」に代表されるアプローチは、中国での人材育成にも継続的に寄与すると見られ、単にDeepSeekの成果に留まらず、米国にとって脅威となると一般的に評価されています。
この投稿は、DeepSeekのモデル発表を機として、米国内に広がっている騒ぎにまつわる状況について、CNBCが俯瞰して説明するコンテンツを紹介するものです。
「1. 中国製AIモデルのブレークスルー」では、DeepSeekの企業背景や米国内で報道されている事実関係、また主要プレイヤーのDeepSeekに対するコメントを紹介。「2. Perplexity CEOインタビュー」では、他社が開発したAIモデルを活用した使い勝手の良いAIサービスを展開する企業の筆頭といえるPerplexity.aiのCEOアラヴィンド・スリニヴァス氏とのDeepSeekの台頭をテーマとしたロング・インタビューを紹介しています。
アラヴィンド・スリニヴァス氏の言葉からは、DeepSeekが米国にもたらした課題を冷静に受け止め、米国テクノロジー企業のこれからの道程をイメージできるような内容が紹介されています。
ここ数日の間に、Stargateプロジェクトの発表であったり、Metaが2025年度のAI投資を最大650億ドルにする旨の発表がありましたが、これらのことは、当然ながら事前に中国の動向を念頭に入れたことによるものであり、いよいよAI開発のステージの大転換を予感させる内容になっているかと思います。ご参考ください。
1. 中国製AIモデルのブレークスルー
中国が最新のAI技術で世界を追い越しました。

中国の技術開発力は、極めてシリアスに受け止められるべきだと思います。

これは、OpenAIやGoogle、Metaから生まれたのではない革新的な動きです。
シリコンバレーが騒然となっている新たなモデルが存在しています。

しかし、それは中国の研究所、DeepSeekによるものです。
この動きによって、中国のAI開発が実際にどれほど進んでいるか、大勢の人の関心を集めることになりました。

GoogleやOpenAIが何年もかけ、何億ドルも投資して開発したものを、DeepSeekはわずか2カ月で、600万ドル未満で実現したとしています。
彼らのモデルは最高水準のオープンソースモデルで、全てのアメリカの開発者たちがその技術の上で開発を進めています。

ディアドラ・ボサです。中国のAIのブレークスルーについてお伝えします。

(1) DeepSeekの成功(DeepSeek’s Triumph)
シリコンバレーを驚かせた技術革新があります。それは新たに公開された無料のオープンソースAIモデルで、市場にある最強クラスのモデルを上回る性能を見せています。しかし、それはOpenAIやAnthropicの発表ではありません。
このモデルを開発したのは、中国の研究所「DeepSeek」です。さらに驚きなのは、その開発コストです。DeepSeekは、バージョン3の開発に約560万ドルを費やしたと報じられています。一方で、OpenAIは年間で約50億ドル、Googleは2024年に500億ドルを超える資本支出を行ったと予想されています。さらに、MicrosoftはOpenAIへの投資だけで130億ドル以上を注ぎ込んでいます。それにもかかわらず、この限られた予算で構築されたDeepSeekのモデルが、米国企業が巨額を投じたこれらのモデルを上回ったのです。


DeepSeekの新たなモデルは、推論処理や計算処理の効率が非常に優れており、オープンソースとしても効果的に設計されている点で非常に印象的なものになっています。

このモデルは、MetaのLLama、OpenAIのGPT-4.0、AnthropicのClaude 3.5を、精度の面で打ち負かしました。その評価には、500問の数学問題、AIによる数学試験、コーディング競技、さらにはコード内のバグを発見し修正するテストが含まれています。また、DeepSeekは新たな推論モデル「R1」を導入し、いくつかの外部テストでOpenAIの最先端モデルを簡単に上回る成果を見せました。

本日、「Humanity's Last Exam」と呼ばれる新しい評価基準を発表しました。これは、数学、物理学、生物学、化学の教授たちが考えうる限り最難関の問題を作成したもので、AIモデルを評価するためのものです。DeepSeekのモデルは、アメリカで開発されたトップクラスのモデルに並ぶか、それを上回る成績を残しました。

さらに特筆すべきは、米国政府が中国に課している厳しい半導体規制にもかかわらず、これを成し遂げた点です。この半導体規制により、中国はNVIDIAのGPU「H100」のような強力なチップを使用できなくなり、AI開発において大きな制約を受けています。多くのスタートアップや大手テック企業がH100を確保するために躍起になっている中、DeepSeekは規制を逆手に取り、性能の劣るNVIDIAのH800を用いて最新モデルを構築しました。これにより、アメリカ政府が目指していた輸出規制による技術開発抑制を覆したのです。



彼らは、利用可能なハードウェアを最大限に活用し、それを非常に効率的に運用しました。

そもそもDeepSeekとはどのような組織なのでしょうか。その驚くべき成果にもかかわらず、研究所や創設者である梁王(Liang Wang)については、ほとんど何も知られていません。中国のメディアによると、DeepSeekは、約80億ドルの資産を運用する中国のヘッジファンド「Highflyer Quant」から誕生したとされています。
ウェブサイトには、「好奇心を持ってAGI(汎用人工知能)の謎を解明し、長期的視点で本質的な問いに答える」とシンプルなミッションを掲載しています。一方、アメリカの主要なAIスタートアップ、例えばOpenAIやAnthropicは、AIの安全性や責任に関する詳細な憲章や設立理念を掲げています。DeepSeekに連絡を試みましたが、返答はありませんでした。
彼らはどうやって優れた人材を集めたのか? また、ハードウェアやデータをどのように揃えたのか?その詳細は明らかにされておらず、公開されたこともありません。この点については、今後の解明が期待されます。
しかし、この謎は、中国とのAI競争がどれほど緊迫し、複雑化しているかを浮き彫りにしています。DeepSeekだけでなく、他にも限られたリソースで競争の場に参入している中国の著名なAIモデルが存在します。
例えば、中国の著名なAI研究者であり、かつてGoogle中国のトップを務めた李開復(Kai-Fu Lee)は、「01.AI」というスタートアップを設立しました。この企業は設立からわずか8カ月でユニコーン企業となり、2024年には約1400万ドルの収益を上げる注目企業となっています。

シリコンバレーの友人たちを驚かせたのは、単にモデルの性能だけではありませんでした。DeepSeekがたった300万ドルでモデルを訓練した一方で、GPT-4は8000万ドルから1億ドルもの費用をかけて訓練されたという事実です。

アリババのQは、わずか300万ドルでトレーニングされ、大規模言語モデルのコストを最大85%削減することに成功しました。これには、多くの開発者を引き付ける狙いがあり、このことは、この分野での競争が激化していることを示しています。

(2) 米国の弱体化(America Undermined)
中国のAIにおける進展は、AI研究におけるアメリカのリードを揺るがしています。2024年初頭、元Google CEOのエリック・シュミット氏は、中国がAIで米国より2~3年遅れていると予測していましたが、今では異なる見解を示しています。彼がABCの番組「This Week」でこう語っています。
以前は、私たちが中国より数年先行していると思っていましたが、中国はこの6か月で驚くほど追随してきています。実際、いくつかの中国のプログラム、例えば、「DeepSeek」のようなものは、私たちに並んているように見えます。

この状況は、大規模言語モデルがどれほどオープンであるべきかという点に大きな疑問を投げかけています。2022年11月にOpenAIがChatGPTを公開した際、それは前例のないもので競争相手もいませんでした。しかし今では、GoogleのGemini、AnthropicのClaude、MetaのオープンソースモデルであるLLamaなど、国内外での競争が激化しています。ゲームのルールが変わりました。強力なオープンソースモデルが広く利用可能になったことで、開発者たちは自前でモデルを構築・トレーニングする負担を回避できるようになりました。既存のモデルを基盤にすることで、少ない予算と小規模なチームでも、最前線に到達することが格段に容易になっています。
ここ2週間ほどの間に、AI研究チームは手元の資本が少なくても、はるかに野心的になりました。これまで、最前線に立つには数億ドル、あるいは10億ドルもの投資を考えなければなりませんでした。しかし、DeepSeekがシリコンバレーで示したのは、1,000万ドルから3,000万ドルで達成できるという可能性を示したのです。

このことは、OpenAIのような現在の最前線に立つ企業であっても、明日にはその地位を失う可能性があることを意味します。DeepSeekが短期間で追いついたのは、既存のAI技術を基盤にしながら進化させる手法を採用したためです。技術をゼロから生み出すのではなく、すでに存在するものを活用して改良を重ねたのです。
DeepSeekは、大規模モデルを「蒸留(distillation)」というプロセスを使って効率化しています。この蒸留とは、大規模モデルを利用して、より小規模なモデルを特定のタスクに特化して賢くする方法です。この方法は非常にコスト効率が高い手法です。
DeepSeekは、利用可能なデータセットを活用し、革新的な改良を加え、既存モデルを基盤にすることでギャップを埋めました。その結果、DeepSeekのモデルはアイデンティティ・クライシスに陥る場面もありました。直接「どのモデルなのか?」と尋ねると、「私はOpenAIによって作成されたAI言語モデルで、GPT-4アーキテクチャに基づいています」と回答します。この現象に対し、OpenAIのサム・アルトマンCEOは、モデルの公開から数日後に批判とも取れるコメントを投稿しました。

しかし、うまくいくかどうか分からない新しいこと、リスクのあること、
難しいことをするのは非常に難しいのです。
しかし、DeepSeekが行ったのは単なるコピーではなく、OpenAIの既存成果物やアーキテクチャの原則を活用しつつ、独自の改良を密かに加え、ChatGPTとの境界線を曖昧にしました。このことは、閉鎖的なモデルを提供するOpenAIのようなリーダー企業に、競争が激化する中でより高いコストの正当性を問うプレッシャーをかけることにつながりました。
この分野では、誰もが他人のやり方を真似しています。例えば、トランスフォーマーを最初に開発したのはGoogleであり、OpenAIではありません。OpenAIはそれを応用して製品化しましたが、もともと大規模言語モデルを開発したのはGoogleです。ただ、Googleはそれを優先事項としていませんでした。このように、どの観点から話すかによって見方が変わるのですが、実際のところ、それは大きな問題ではないのかもしれません。

こうした状況で、もし誰もが互いを模倣しているのだとすれば、個々の大規模言語モデルへの莫大な投資は果たして良い選択なのでしょうか。
実際、OpenAIほど多くのリスクを抱えている企業は他にありません。同社は最近の資金調達ラウンドで60億ドル超の資金を集めましたが、まだ利益を出せていません。OpenAIはモデル構築を中核事業としているため、GoogleやAmazonのようにクラウドや広告事業から資金を補うことができず、より直接的に影響を受けやすい立場にいます。そのため、OpenAIにとって重要なのは「推論」能力になります。単なるパターン認識を超え、分析や論理的な結論の導出、複雑な問題解決が可能なモデルの開発が鍵となります。現在のところ、同社のo1推論モデルは最先端と言われていますが、その優位性はいつまで続くのでしょうか。

バークレー大学の研究者たちは先週、わずか450ドルで推論モデルを構築できることを実際に示しました。このように、推論する力を持つモデルは、これまでのような巨額の費用をかけなくても開発が可能です。そのため、ゲームのルールが変わりつつある状況にあると言えるでしょう。

トップを維持するためには、資本だけでなく創造性も求められる時代が来ています。DeepSeekの画期的な成果は、OpenAIが営利モデルに移行し、かつかつてないほど人材流出に直面しているタイミングで発表されました。この状況で、OpenAIはこれまで以上の評価額でさらに資金を調達できるのでしょうか。チャマス・パリハピティヤ氏(Chamath Palihapitiya)が言うように、「AIモデルの構築は資金の罠だ」といった声もあります。



(3) 必要は発明の母(Necessity is the mother of invention)
米国政府による規制の目的は、アメリカの技術を国内に留め、競争で先んじるためにレースを減速させることでした。
私たちが目指すのは、この技術を国内に確保することです。中国をはじめとした国々が競争相手となっています。

しかし、これらの規制は結果的に中国にとって追い風となった可能性があります。
必要は発明の母と言いますが、規制のお陰で、仕組みを解明する必要に迫られ、その結果として非常に効率的な方法を生み出すことに成功しました。
少ない資本でこれほどの進歩を遂げたことは、本当に驚くべきことです。
こうした状況が中国に創造性を促し、その影響は非常に大きいものとなっています。DeepSeekはオープンソースモデルであり、開発者はその重み付けを調整したり、好みに応じたファインチューニングを行うことができます。
一度オープンソースがクローズドソースのソフトウェアに追いついたり、それを上回ったりすると、すべての開発者がオープンソースに移行するのはよく知られています。
重要なのは、オープンソースが低コストであることです。コストが低いほど、開発者にとってテクノロジー採用の魅力が高まります。
私たちの推論コストは100万トークンあたり10セントであり、これは一般的な類似モデルの30分の1の料金です。この低コストは、アプリケーション開発をより安価に実現します。たとえば、you.com(?)やPerplexityなどのアプリを作りたい場合、OpenAIに100万トークンあたり4ドル40セントを支払うか、私たちのモデルを使えばわずか10セントで済みます。

このことは、グローバルAIにおける主流モデルがオープンソースになる可能性を示唆しています。組織や国家が、協力や分散化が革新を迅速かつ効率的に推進するという考えに賛同すれば、そうした動きが加速するでしょう。中国発の安価で効率的なオープンソースモデルが広く採用されれば、ダイナミクスが大きく変わる可能性があります。
ただし、それが危険である理由は、彼らがエコシステムと「心のシェア」を掌握する可能性があるからです。
つまり、中国製のオープンソースモデルが大規模に採用されると、アメリカのリーダーシップが揺らぎ、同時に中国がグローバルなテックインフラに深く組み込まれる結果を招く可能性があります。
オープンソースにも限界があることを忘れてはいけません。現在のライセンスは開放的ですが、将来的に変更される可能性があります。ライセンスが変われば、オープンソースでなくなるかもしれません。そのため、アメリカ国内でモデル構築に取り組む人々は重要であり、Metaが果たす役割も大きいといえます。
中国のAI技術の進展がもたらすもう一つの影響は、中国共産党がナラティブ(物語)を支配する力を得ることです。中国で開発されたAIモデルは、国家によって定められたルールに従う必要があります。これらのモデルは、共産主義の核心的価値観を体現しなければならず、天安門事件や人権侵害などの歴史的事実を検閲し、中国の政治指導者に対する批判をフィルタリングすることが研究で明らかになっています。


これらAIが民主主義的価値観に基づいて構築され、民主的な目的に仕えるものになるのか、それとも独裁的なAIに向かうのかという争いです。

より効率的なモデルが開発者に広く採用され始めると、消費者向けAIアプリケーションにまで波及効果が及び、チャットボットが生成する応答の信頼性にまで影響を与える可能性があります。
現在、この技術を大規模に構築できる国は、アメリカと中国の2か国だけです。このテーマをめぐる影響とリスクは非常に大きいと言えます。
巨大な利害関係と重大な影響力を持ち、その中でアメリカのリーダーシップがかかっています。
これほど複雑で新しいトピックに関して、実際にこの分野で活動する専門家の見解を聞くことは重要です。モデルに依存しない形でPerplexityを共同創業したCEOのアラヴィンド・スリニヴァス氏は、今回の特集の中で何度も登場しましたが、彼にDeepSeekとその影響、そしてPerplexityの将来計画について30分以上のインタビューを行いました。この全体を聞く価値があると考えていますので、ぜひ視聴ください。
2. Perplexity CEOインタビュー

[ディアドラ・ボサ](CNBC)
まず、AI競争におけるアメリカと中国の状況を整理します。特に何が危機的状況なのかを説明する必要がありますね。

[アラヴィンド・スリニヴァス](Perplexity CEO)
最初に、中国にはアメリカと競争する上でいくつかの不利な点があります。第一に、ハードウェアへのアクセスが限られていることです。アメリカでは高性能なGPUを利用できる一方で、中国は前世代のGPUを利用するしかなく、それに対して工夫を行っている状況です。一般に、より大規模なモデルが自然に優位性を持つため、このような条件では、中国はハードウェア面で劣勢に立たされています。ただ、逆に言えば、「必要は発明の母」とも言えます。この制約の中で中国は効率的な解決策を生み出しているのです。
アメリカ側から見れば、中国は最高レベルのモデルを作りたいが、十分なリソースを提供されない状態で工夫するしかなかった、という状況です。しかし、数学的に不可能でない限り、より効率的な方法を模索する余地は常にあります。こうした努力が最終的に中国の強みとなり得るであろうという見方もあります。そして、中国が生み出したオープンソースモデルは、アメリカでも採用できる可能性がありますが、そもそもその効率性を生み出せる人材を育てている点で長期的に中国の優位性につながるかもしれません。
アメリカのリーダー的なオープンソースモデルとして、MetaのLLamaシリーズがあります。特にこのモデルは、パソコンで動かせるほど効率的で高性能です。ただ、例えばGPT-4と同等の性能を目指した大規模モデル(405B)は、まだ小型・低コスト・高速なオープンソースモデルと呼ぶには課題が多く、OpenAIやAnthropic、Mistralなどの強力なクローズドモデルに完全に匹敵するものではありません。
それに対して、中国の研究者たちは驚くべき効率性を達成しています。例えば、GPT-4のAPI価格の10分の1、他のモデルと比べて15分の1程度のコストで、非常に高速な性能を発揮するモデルを開発しています。具体的には、16トークン/秒や60トークン/秒の速度を持ち、品質もGPT-4と同等かそれ以上のベンチマーク結果を一部で示し、他の部分でもそれに近い性能を見せています。
さらに注目すべき点は、彼らがこのモデルをたった2048台のH800 GPU(H100 GPUに換算すると約1500台)で訓練し、約500万ドルという低予算で実現したことです。これは、GPT-4のトレーニングに必要なGPU数やコストの20~30分の1に相当します。この高い効率で開発されたモデルは、オープンソースとして無償公開され、その技術論文も発表しています。この結果、AIモデル開発におけるコスト削減や効率化の可能性について、多くの人が改めて考えさせられる状況になりました。

[ディアドラ・ボサ]
つまり、あなたが言いたいのは、価格や時間の大幅な削減、簡素化されたGPUということですね。彼らが何をしたのか理解したとき、基本的に、何が驚きでしたか?
[アラヴィンド・スリニヴァス]
私が技術論文を読んで驚いたのは、彼らが考案した数多くの利口な解決策でした。まず、彼らは、Mixture of Expertsモデルを採用してトレーニングしていました。この手法は簡単ではなく、不安定な損失スパイクが発生しやすい点や数値的な安定性に欠けることが挙げられ、トレーニングを途中で中断してチェックポイントから再開しなければならないことが多く、また、それを支えるインフラの構築も大変であり、これらが、特にOpenAIのようなアーキテクチャに追いつくのが難しい状況を作っています。しかしながら、DeepSeekでは追加的な小細工なしで、それをバランスよく解決する方法を編み出していました。
さらに、FP8(浮動小数点8ビット)のトレーニングにも取り組んでおり、どの部分を高精度で、どの部分を低精度にするかを巧みに見極めていました。私の知る限り、FP8トレーニングはまだ十分に理解されていない分野です。アメリカでも多くのトレーニングはFP16で行われていますし、OpenAIや一部の企業がFP8の研究を進めているものの実際にうまくいかせるのは難しいとされています。しかし、中国はメモリやGPUが限られているという必要性から、こうした数値的な安定性を実現する手法を編み出したのです。論文の中でも、トレーニングの大部分が安定していたと記載されており、それによりデータの追加や改良を加えてトレーニングを再実行することも可能な状態にあると言えます。そして、たった60日間でこの成果を達成したのは本当に驚きでした。
(訳注)Mixture of Experts(MoE:混合専門家)
課題を単一モデルで処理するのではなく、専門性を持ったモデルを複数階層配置し、その課題の得意なモデルに処理させて得た回答を統合してフィードバックする仕組み。
[ディアドラ・ボサ]
正直驚いたということですか?
[アラヴィンド・スリニヴァス]
間違いなく驚きました。一般的な認識、あるいは神話のようなものですが、中国はコピーが得意で、アメリカが研究論文を公開するのをやめたり、インフラやアーキテクチャの詳細を記載しなくなったり、オープンソースをやめれば、中国は追いつけなくなる、と言われることがあります。しかし実際には、DeepSeek-v3におけるいくつかの技術的な詳細は非常に優れており、Metaがそれを参考にしてLLamaに組み込む可能性もあるのではないかと感じます。これは、コピーというよりも、科学やエンジニアリングの共有という感じです。ただ、重要なのは中国が単なる模倣者ではなく、革新をも進めているという点です。
[ディアドラ・ボサ]
このモデルが何のデータでトレーニングされたのか、正確には分かっていませんよね。オープンソースではありますが、トレーニングに使用したデータの一部しか分かっていません。そして、ChatGPTの出力データを使ったのではないか、つまりただコピーしただけではという話もありますが、それを超える革新性があるということですか?
[アラヴィンド・スリニヴァス]
ええ、そうです。彼らは14.8兆トークンでトレーニングしていますが、インターネット上にはChatGPT由来のコンテンツが非常に多く存在します。例えば、LinkedInの投稿やX(旧Twitter)の投稿でも、多くのコメントがAIによって書かれているのが見て取れます。実際、LinkedInにはAIで文章を補強するツールがありますし、Google DocsやWordにもリライト機能が搭載されています。そうしたAI生成のテキストをコピーしてインターネットに投稿すると、自然とChatGPT的なトレーニング要素が含まれてしまいます。
中には「私はAI言語モデルです」といったフレーズをそのまま残して投稿する人もいます。これを完全に排除するのは非常に難しいです。X.AIもこの問題について話していたので、仮に特定のプロンプトで「あなたは誰ですか?」や「どのモデルですか?」と質問しても、それに似た応答が出ることがあるとしても、彼らの技術的な達成を過小評価すべきではないと思います。正直、そのような細かい点はあまり重要ではありません。
[ディアドラ・ボサ]
長い間、私たちは、中国はAIで遅れていると考えていましたよね。あなたもそう思っていたかもしれませんが、この状況はその競争にどのような影響を与えるのでしょうか?中国が追いついてきたと言えるのか、それともすでに追いついたのでしょうか?
[アラヴィンド・スリニヴァス]
例えば、MetaがOpenAIやAnthropicに追いつきつつある、と言うなら、同じように、中国がアメリカに追いついてきている、とも言えます。GPT-4が発表された後、中国からはアメリカよりも多くの論文が、それを再現しようとして発表されていました。それに、DeepSeekが利用できる計算リソースの量は、アメリカの博士課程の学生が使えるものと大差ありません。ちなみに、これは他を批判する意図ではありません。私たち自身についても同じです。例えば、Perplexityでは、モデルを訓練するのはコストが高すぎるし、追いつくのは無理だと判断して、そうしないことを決めました。
[ディアドラ・ボサ]
PerplexityにDeepSeekを統合する予定はありますか?
[アラヴィンド・スリニヴァス]
すでに使い始めていますよ。彼らはAPIを提供しているし、オープンソース化もしているので、私たち自身でホストすることもできます。これを使い始めることで、コストを抑えつついろいろなことができるのはいいことです。ただ、それ以上に考えているのは、優れたチームがいて、このような素晴らしいモデルを訓練できるのなら、アメリカの企業、そして私たち自身も、同じようなこと(モデル開発)をしない理由はない、ということです。
[ディアドラ・ボサ]
生成AIについては、研究者や起業家の間でよく議論されていますよね。例えば、イーロン・マスクやその他のリーダーたちが、中国は追いつけないとか、AIを制する国が経済や世界を支配するといった大きな話をしています。中国がこれだけの成果を上げられたことについて、何か懸念を感じますか?
[アラヴィンド・スリニヴァス]
まず、イーロンが、中国は追いつけないと言ったのかは分かりません。それは聞いたことがありません。
[ディアドラ・ボサ]
ただ、中国の脅威については指摘していますよね。それに、サム・アルトマンも中国を勝たせるわけにはいかない、といった発言をしています。
[アラヴィンド・スリニヴァス]
それについては、彼らの発言をそのまま受け取るだけでなく、それが彼ら自身の利害に基づいたものかを切り離して考えるべきです。私が言いたいのは、中国が追いつけないようにするために何をしても、結局は追いついてきた、ということです。
[ディアドラ・ボサ]
必要は発明の母、ということですね。
[アラヴィンド・スリニヴァス]
その通りです。そして、もっと危険なのは、中国が現時点で最高のオープンソースモデルを持ち、それをアメリカの開発者が活用していることです。それが実はもっと危険です。なぜなら、彼らがエコシステムや開発者の心を掌握してしまうからです。歴史的に、オープンソースがクローズドソースを追い抜くと、すべての開発者がそちらに移行するというのは知られていますよね。
[ディアドラ・ボサ]
LLamaが開発され、広く使われるようになったとき、ザッカーバーグを信用していいのか?という疑問がありました。でも、今は、中国を信用していいのか?という疑問に変わっているということですか?
[アラヴィンド・スリニヴァス]
オープンソースを信頼すべきです。それが重要なのです。ザッカーバーグか中国か、という問題ではありません。
[ディアドラ・ボサ]
それがオープンソースなら、中国製であっても関係ないということでしょうか?
[アラヴィンド・スリニヴァス]
要するに、自分自身でモデルを運用し、自分のコンピュータで重みを管理している限り、制御権は完全にこちら側にあるという点では問題ありません。ただし、自国の人材が他国のソフトウェアに頼り、それに費用を支払うのには、決して良い印象を持ちません。
たとえそれがオープンソースであっても、オープンソースであることがいつまでも保証されるわけではありませんよね。現在のライセンス条件が非常にオープンで有利であっても、時間が経てばクローズになる可能性がありますし、ライセンスが変更される可能性もあります。
ですから、アメリカ国内でアメリカの人材がモデル構築することが重要なのです。これがMetaの存在が重要な理由でもあります。私は、MetaがDeepSeek-v3よりも優れたモデルを構築し、それをオープンソース化するだろうと考えています。それをLLama 4と呼ぶか、LLama 3.xと呼ぶかは問題ではありません。ただ、より重要なのは、彼らを禁止したり阻止したりすることにエネルギーを注ぐのではなく、競争に勝つことを目指すべきだということです。それがアメリカ流のやり方です。ただ単に、より優れて勝つ、ということです。
[ディアドラ・ボサ]
それにしても、最近は効率的でコスト効果の高い方法で開発を進めている中国企業について、話を聞くことが増えましたが。
[アラヴィンド・スリニヴァス]
そうですね。ただ、最先端のイノベーションを真似る(fake)のは難しいものです。仮に100億ドルを調達して、その80%をコンピュータクラスターに費やすとしたら、500万ドルで作業する人々と全く同じ解決策を生み出すのは簡単ではありません。そして、もっと多くのお金を投入している人々を非難するのも意味がありません。彼らはできるだけ早く成果を上げようとしているのですから。
[ディアドラ・ボサ]
オープンソースと言っても、いろいろなバージョンがありますよね。Metaがすべてを公開していないことやDeepSeekですら完全に透明ではないと批判する声もあります。
[アラヴィンド・スリニヴァス]
そうですね。トレーニング実行を完全に再現できるべきだ、という形でオープンの定義を押し広げることはできます。ただ、それを実現するためのリソースを持つ人がどれだけいるのでしょうか? 比較してみてください。DeepSeekが技術レポートで公開した詳細は、すでにかなりの情報量です。同様に、Metaもそれを行っています。MetaのLLama 3.3の技術レポートは非常に詳細で、科学の発展に役立つものです。 彼らが共有している情報量は、他の企業が現在提供しているものと比べても、はるかに多いと言えます。
[ディアドラ・ボサ]
DeepSeekがこれを600万ドル未満で実現したことを考えると、OpenAIがGPTモデルを開発するのにかけたコストとの比較は驚くべきものがありますね。これがクローズドソースのエコシステムやその勢いにどのような影響を与えるのでしょうか? OpenAIにとってはどういう意味を持つのでしょうか?

[アラヴィンド・スリニヴァス]
はっきりしているのは、GPT-4相当かそれ以上の性能を持つオープンソースのモデルが、今年中に、しかもずっと低コストで登場するだろうということです。

[ディアドラ・ボサ]
それはOpenAIが作るのでしょうか?
[アラヴィンド・スリニヴァス]
おそらく違うでしょうね。ほぼ確実に違うと思います。でも、彼らはそれを気にしていないのではないでしょうか。彼らは、すでにo1ファミリーと呼ばれる新しいパラダイムに移行しているようです。
それについては、イリヤ・サツケバー氏(Ilya Sutskever)が言っていたことがあります。彼は、事前学習が壁になる、と言ったようなものです。まあ、正確にはその言葉ではありませんでしたが、彼の意図は明らかでした。
[ディアドラ・ボサ]
確かにそうですね。
[アラヴィンド・スリニヴァス]
事前学習の時代は終わった、という声もあります。ただ、それがスケーリングの限界に達したという意味ではないと思います。今は、スケーリングの方向性が変わってきているという話だと思います。例えば、モデルがテスト時に考える時間を増やしたり、強化学習を活用したりしています。新しいプロンプトに対してどうすればいいか分からない場合、モデルが理由を考えたり、データを集めたり、世界とやり取りしたり、ツールを駆使して対応するようにする。今後はこういう方向に進んでいくと思いますし、OpenAIもそこに注力しているように感じます。
[ディアドラ・ボサ]
これまでの、より大きく、より良いモデルという方針から、推論能力にシフトしているのですね。でも、DeepSeekも推論の方向に注力する可能性が高いという話でしたよね?
[アラヴィンド・スリニヴァス]
間違いなくそうだと思います。そのため、次にDeepSeekがどんなものを作るのか、とても楽しみです。
[ディアドラ・ボサ]
そう考えると、OpenAIの優位性、いわゆる「モート」(参入障壁)は何になるんでしょうか。
[アラヴィンド・スリニヴァス]
個人的には、まだ他社がo1のようなシステムを開発できていないことだと思います。もちろん、o1が本当に価値あるものかという議論はあります。一部のプロンプトでは確かに優れた結果を出しますが、多くの場合、Sonetとの差別化ができていないとも言えます。ただ、o3で見せたような、競争力のあるコーディング性能や、いわばAIソフトウェアエンジニアのような能力は、少なくとも注目すべき成果です。
[ディアドラ・ボサ]
とはいえ、インターネット上に推論データがどんどん増えていけば、DeepSeekが追いつくのも時間の問題ではないでしょうか?
[アラヴィンド・スリニヴァス]
それも可能性としてはありますよね。ただ、まだ誰にも分からないことです。だからこそ、不確実性がOpenAIのモートになっているのかもしれません。現時点では、同じ推論能力を持つ競合が存在しないのは確かです。ただ、年内には推論領域でも複数のプレイヤーが参入してくると私は思っています。
[ディアドラ・ボサ]
大規模言語モデルのコモディティ化が進んでいる、ということですか?
[アラヴィンド・スリニヴァス]
そういう流れはあると思います。事前学習や後処理の仕組みがコモディティ化されたのと同じように、今年はその流れが加速するでしょう。推論モデルについても、最初は1~2社がその技術を独占していても、時間とともに・・・
[ディアドラ・ボサ]
ただ、それも分からないですよね。OpenAIがまた新しい方向性を見つけて、別の進展をする可能性もあります。現時点では推論が彼らの主戦場ですが。
[アラヴィンド・スリニヴァス]
でも、こうして技術の進展が何度も何度も続くと、進展という言葉自体が持つ価値も少し薄れてしまう気がします。
[ディアドラ・ボサ]
確かに、今でも大変ですよね。事前学習の進展があったかと思えば、もう次のフェーズに移行しているわけですから。
[アラヴィンド・スリニヴァス]
確実に言えるのは、今あるモデルの推論能力やマルチモーダル対応が、今後は5~10倍も安価なモデルで再現されることです。しかもオープンソースで。それは時間の問題だと思います。ただ、テスト時に推論するモデルが極めて低コストで、例えば私たちがスマートフォンで動かせるようなものになるかどうかは、まだ見えていません。
[ディアドラ・ボサ]
DeepSeekが証明したことによって、業界全体の景色が大きく変わったように感じますが、これを中国版の「ChatGPTモメント」と呼べるのでしょうか?
[アラヴィンド・スリニヴァス]
可能性はありますね。というのも、彼ら自身、我々は遅れていない、という大きな自信を得たのではないでしょうか。たとえ計算資源を制限されても、何らかの方法で問題を克服できる、という姿勢を示したわけですから。チームとしても、このブレイクスルーの結果にかなり士気が高まったのは間違いないと思います。
[ディアドラ・ボサ]
これによって投資環境はどう変わるのでしょうか?ハイパースケーラー企業は、年間で数百億ドル単位の設備投資を行い、その規模をさらに拡大していますよね。一方で、OpenAIやAnthropicは、主にGPUのために莫大な資金を調達しています。でも、DeepSeekが示したのは、それほどの資金が必ずしも必要ではないということでしたよね?
[アラヴィンド・スリニヴァス]
確かにその通りですね。彼らはおそらく推論分野にさらに注力していくと思います。なぜなら、過去数年間に構築してきた技術が急速に低コスト化している現状では、それを正当化するために多額の資金を調達する意味が薄れているからです。
[ディアドラ・ボサ]
では、これほどの支出が必要なのか、つまり同じ量の高性能GPUが必要なのか、それともDeepSeekが示したように、低性能GPUでも推論は可能なのでしょうか?
[アラヴィンド・スリニヴァス]
現時点では「ノー」と言い切るのは難しいですね。ただ、スピード感を重視するなら高性能なチップを使い、競合よりも早く進むべきだと思います。そして、優れた人材は、最初に実現したチームで働きたいと思うものです。誰が本当のパイオニアなのか、そして誰が、後続者なのか、そこにはやはり一定の栄誉があるのでしょう。
[ディアドラ・ボサ]
それって、サム・アルトマンのツイートみたいですね。DeepSeekの成果に対する控えめな反応で、彼らはただコピーしただけだし、誰でもコピーできる、といった内容でしたよね。
[アラヴィンド・スリニヴァス]
そうですね。ただ、この分野では誰もが誰かをコピーしているとも言えます。例えば、Transformerを最初に発明したのはGoogleであって、OpenAIではありません。そしてOpenAIはそれを利用しただけとも言えます。Googleが最初の大規模言語モデルを作りましたが、それを優先的に開発しなかった。一方でOpenAIは、その技術をうまく形にしました。このように、いろいろな角度から同じことが言えるわけです。最終的には、そういった議論はあまり重要ではないのかもしれません。
[ディアドラ・ボサ]
以前、あなたに、なぜモデルを自分で作らないんですか?と質問したことがありますよね。そのとき、「そのことが栄光だ」とおっしゃいました。でも1年後、わずか1年で、その競争の激しい、しかも非常にコストのかかるレースに参加しなかった選択が、いかに賢明だったかが改めて理解できました。そして今では、誰もが求めている実用的な応用例や生成AIのキラーアプリケーションでリードされています。その決断について、またPerplexityが今後目指している方向について教えてください。

[アラヴィンド・スリニヴァス]
1年前、つまり2024年の初め頃には、例えばClaude 3.5 Sonnetのようなものさえ存在しなかったと思います。当時はGPT-4があって、他の誰もそれに追いつけなかったという状況でした。そしてマルチモーダル機能などはまだありませんでした。私の感覚では、より多くのリソースや人材を持つ人たちに挑むのは難しいと感じました。それならば、違うゲームをプレイしようと思ったのです。人々はこれらのモデルを使いたいわけで、その中でも、質問をして正確な答えを得る、情報源付きでリアルタイムで正確な情報を得る、という使い方には、まだ大きな余地があります。モデルそのものではなく、その周辺での取り組みに集中し、製品が信頼性を持って動作し、利用が拡大していくことに注力してきたというわけです。
これからもカスタムUIを構築し続けていく必要があり、やるべきことはたくさんあります。ただ、それを進める中で、モデルの性能がどんどん向上していく追い風の恩恵を受けています。実際、その結果が出ています。特にSonnet 3.5を選択した場合、Perplexity上ではハルシネーションの発生率が劇的に減りました。完全にゼロにはなっていませんが、ハルシネーションがほとんど見つからないレベルに達しています。この改善のおかげで、質問に対する回答や事実確認、リサーチ、そしてウェブ上にある情報を元に様々な質問に答えるという課題が大きく前進しました。その結果、1年の間に使用率が10倍に成長しました。

[ディアドラ・ボサ]
また、ユーザー数の面でも大きな進展がありましたよね。CNBCなどでもよく話題になりますし、大物投資家からも高い支持を得ていますよね。ジェンスン・フアン氏もそのユーザーの一人では? 先日、彼が基調講演でも触れていましたね。
[アラヴィンド・スリニヴァス]
彼は本当に熱心なユーザーなんです。言葉だけではなく、実際にかなり頻繁に使っています。
[ディアドラ・ボサ]
1年前はマネタイズについて話題にすることはありませんでした。当時はまだサービスを広めることやスケールを築くことが優先で、収益化は考えていませんでした。でも、現在は広告モデルの導入などを検討し始めていますね。
[アラヴィンド・スリニヴァス]
そうですね、現在は試験的に進めています。広告については、なぜ広告を導入すべきか、また広告があることで信頼性のある回答エンジンを維持できるのかという議論があります。ただ、私たちはこれに対してかなり慎重に取り組んでいます。例えば、回答は常に正確で偏りがなく、広告主の予算に左右されることがないようにしています。スポンサー付きの質問を表示しても、回答自体が広告主の影響を受けることはありません。スポンサー付きの質問をクリックする必要もなく、無視することも可能です。現時点ではCPM(インプレッション単価)のみを採用しているため、私たち自身もクリックを促すインセンティブはありません。長期的な視点で、Googleのようにクリックを強制する方向には進まないつもりです。
[ディアドラ・ボサ]
1年前、モデルのコモディティ化が話題になった時、それが議論を呼びましたよね。でも今ではそれが現実になっていますよね。
[アラヴィンド・スリニヴァス]
そうですね。コモディティ化は私たちにも大きな恩恵をもたらしますが、有料ユーザー向けの新しい付加価値も考えなければいけません。例えば、より高度なリサーチエージェントを提供することです。これにより、複数のステップを踏んだ推論や、15分ほど検索を行い分析的な回答を提示することが可能になります。こういった機能は今後も製品に残ります。ただ、日常的に無料ユーザーが求めるのは素早く簡潔な回答です。その部分は無料で提供し続けなければいけませんし、それに慣れているユーザーの期待にも応える必要があります。そのため、無料トラフィックを収益化する方法を考えています。
[ディアドラ・ボサ]
ユーザーの習慣を変えようとしているわけではありませんが、広告主に新しい習慣を教えようとしているのは興味深いですね。Googleのような「10のブルーリンク」の検索結果とは異なる形になりますよね。それについて広告主たちの反応はどうですか?
[アラヴィンド・スリニヴァス]
だからこそ、広告主たちは試しているのです。例えば、IntuitやDellといった企業が私たちと一緒に実験しています。みんな、この先5~10年でほとんどの人が従来の検索エンジンではなくAIに質問するようになるということを理解しています。だからこそ、早期に新しいプラットフォームやUXを学び、一緒に構築していきたいと考えているのでます。すべてが整ってから参加しよう、という姿勢ではなく、積極的に取り組んでいます。
[ディアドラ・ボサ]
今日お話しいただいた「必要は発明の母」という言葉にぴったり当てはまりますね。広告主たちもこの変化に適応する必要があると考えているようです。
アラヴィンドさん、本日はお時間をいただきありがとうございました。
[アラヴィンド・スリニヴァス]
こちらこそ、ありがとうございました。
3. 関連コンテンツ
4. オリジナル・コンテンツ
オリジナル・コンテンツは、以下リンクからご覧になれます。
尚、本投稿の内容は、参考訳です。また、意訳や省略、情報を補足したコンテンツを含んでいます。
CNBC
(Original Published date : 2025/01/24 EST)
<御礼>
最後までお読み頂きまして誠に有難うございます。
役に立ちましたら、スキ、フォロー頂けると大変喜び、モチベーションにもつながりますので、是非よろしくお願いいたします。
だうじょん
<免責事項>
本執筆内容は、執筆者個人の備忘録を情報提供のみを目的として公開するものであり、いかなる金融商品や個別株への投資勧誘や投資手法を推奨するものではありません。また、本執筆によって提供される情報は、個々の読者の方々にとって適切であるとは限らず、またその真実性、完全性、正確性、いかなる特定の目的への適時性について保証されるものではありません。 投資を行う際は、株式への投資は大きなリスクを伴うものであることをご認識の上、読者の皆様ご自身の判断と責任で投資なされるようお願い申し上げます。