見出し画像

なぜ米国のテック大手はDeepSeek AIを恐れているのか

4,474 文字

米国のテック業界ではご存知の通り、中国のDeepSeek AIが大きな話題を呼んでおり、それには正当な理由があります。彼らはOpenAIの最新モデルであるo1を上回るAIモデルをオープンソースでリリースしただけでなく、わずか500万ドルで開発し、誰もが完全無料でアクセスできるようにしました。これはもちろんOpenAIのビジネスモデル全体に大きな打撃を与え、中国がここまで早くキャッチアップするとは予想していなかった業界関係者に衝撃を与えました。
私が気づいたのは、多くの人々がこの出来事の本当の重要性を見逃しているということです。確かにアメリカのAI企業にとって悪いニュースですが、それ以上の意味があります。AIレースでアメリカが後れを取ることは、人類史上最も壊滅的な過ちの一つとなる可能性があるのです。
なぜそうなのかを理解するために、まず我々が現在いる軌道を理解する必要があります。OpenAIの5段階のAIレベルがあり、これは彼らがAIの進化をどのように予想しているかを表しています。レベル1はチャットボット、つまりGPT-3やGPT-4などの従来のLLMです。レベル2は推論者、人間レベルの問題解決能力を持つモデルです。OpenAIのo1シリーズはこのカテゴリーに入ります。
まだ全てのタスクで人間レベルの問題解決能力があるわけではありませんが、依然として推論モデルです。OpenAIのGPT-4oなどのGPTモデルとo1などのo1モデルの違いは、トレーニングに使用されるスケーリング法則にあります。GPTシリーズは学習時間計算スケーリングに基づいており、モデルのパフォーマンスを向上させるために、高品質なトレーニングデータの量を増やします。
対照的に、o1モデルシリーズはテスト時計算スケーリングに基づいており、推論時にモデルをスケールアップし、質問に答える際により多くの時間を与えることで、本質的に「考える」または可能な答えを探索する時間を増やし、予測可能な形でパフォーマンスを向上させます。この新しいテスト時スケーリングパラダイムは、特に推論を重視するベンチマークで大きな進歩をもたらしており、我々はまだ始まったばかりです。
また、GPTシリーズのように1〜2年ごとに新しいモデルが登場するのではなく、この新しいスケーリングパラダイムでは数ヶ月ごとに新しいモデルが登場するようです。
OpenAIの5段階のAIに戻りましょう。先ほど述べたようにレベル2は現在開発中で、レベル3のエージェント(行動を起こすことができるシステム)も現在開発中です。OpenAIが最近発表したOperatorは、コンピュータを制御してタスクを実行できるAIエージェントです。まだ研究プレビューの段階で利用できませんが、これはOpenAIがすでにレベル3のAI開発を開始したことを意味します。
2022年にはChat GPTが登場し、これは最初の真のレベル1 AIシステムと考えられます。そして2024年には最初の推論モデルo1が登場し、2025年にはOperatorによってレベル3エージェントの非常に初期の段階に入りました。
次はレベル4の発明者、発明を支援できるAIです。これは事態が深刻になるレベルです。なぜなら、AIが発明を支援できるということは、広範な研究を行い、複雑なタスクを自律的に実行し、物事を発明できる人間と少なくとも同じくらい良く推論できなければならないからです。これらすべてを行うことができるAIシステムは、私が人工汎用知能(AGI)と考えるものです。
これは皆さんが考えるほど遠い将来ではありません。すでにレベル3のエージェントの開発に取り組んでいるだけでなく、OpenAIのCEOであるサム・アルトマン自身が最近のブログ投稿で次のように述べています。「我々は今、従来理解されてきたAGIの構築方法を確信しており、2025年には最初のAIエージェントが労働力として参加し、企業のアウトプットを実質的に変えると信じています。」イーロン・マスクやダリオ・アモドなど、AI分野の他の著名人も最近数ヶ月でAGIの実現時期の予測を短縮しています。
これらすべてを結びつけると、AGIレースが非常に重要である理由、そしてDeepSeekの新しいモデルが業界全体を震撼させた本当の理由が分かります。考えてみてください。DeepSeekのような中国企業や、OpenAI、Anthropic、Googleなどのアメリカ企業が、AGIを達成したら最初に何をするでしょうか。どんなタスクでも平均的な人間より優れたAIシステムを使って、まず最初にAI自体の改良に取り組むでしょう。
これは、Exop AIの研究者レオポルド・アッシェンブレナーなどが主張する「知能爆発」または「技術的特異点」が始まる瞬間です。AIが人間よりもAIの構築に優れるようになる瞬間であり、本質的に自己改善の正のフィードバックループが生まれ、急速に我々の手の届かないところまで加速していきます。したがって、最初にAGIを達成した者は、理論的には急速にASI(人工超知能)を達成することができます。これは、あらゆるタスクにおいて全ての人間より優れたAIシステムです。
AnthropicのCEOであるダリオ・アモドは最近のインタビューで、業界全体に衝撃を与えた新しいDeepSeek R1モデルに関してこう語っています:「この重要な期間について、私は他のインタビューで2026年から2027年が重要な期間だと述べました。もしその時期に先行していれば、モデルは人間よりもすべての面で優れるようになります。AIの設計、AIを使ってより良いAIを作ること、AIを使ってあらゆる種類の知能や防衛技術を作ることを含めてです。だから、これは非常に重要だと思います。
輸出規制は2024年、あるいは2025年前半のチップ配分を根本的に変えるようには設計されていなかったと思います。DeepSeekのクラスターは、米国のフロンティア企業のクラスターと同じ規模です。それは決して防ぐことができなかったでしょう。」
このインタビューの別のクリップでは、彼はこの2026年から2027年の重要な期間についてさらに触れ、この時期に先行している者が永遠に先行する可能性があると主張しています:「2026年から2027年は、事実上全面的にAGIに到達する時期で、その時点で先行している者が永遠に先行することになるのでしょうか?」「潜在的にはそうです。我々はこれらのことを確実には知りませんが、地政学的に特に不確実な時期にこのようなリスクがあります。」
これが、米国がAIレースでリードを維持することが非常に重要である理由です。人類全体の利益のために不可欠だと私は主張します。超知能を最初に達成した国が持つ力は、これまでに見たことのないものです。核兵器でさえ比較になりません。
中国がこの力を持つことを想像してください。市民が文字通り社会信用スコアを持つ国です。そのようなことは起こって欲しくないと思います。ただし、記録のために申し上げておくと、私はどの政府もこの力を支配すべきではないと考えています。もし選ばなければならないとすれば、おそらく米国でしょう。
中国が完全にモデルをオープンソース化していることは、この力を誰もが手に入れることができるという点で、短期的には人類にとって良いことだと思います。しかし、長期的に見て、これらのモデルがどれだけ有能になっているかを考えると、非常に危険でもあります。
これは、皆さんの中には私に同意しない人もいるかもしれない分野です。私はAIのオープンソース化に反対しているわけではありません。ただ、この巨大な力を誰もが手にすることには大きな懸念があります。一方で、少数のアメリカのAI企業や米国政府がAIを完全に支配することも同様に懸念されます。どちらの方向に進んでも長所と短所があるのです。
皆さんはこれについてどう思うか、コメントで聞かせてください。とにかく、このAIレースでなぜ賭け金が非常に高く、なぜアメリカのAI企業であるOpenAIがDeepSeekを恐れているのか、そしてなぜあなたも恐れるべきなのかが分かったと思います。
ただし、最近の情報によると、中国は我々が考えているほど先行していないかもしれません。この記事のタイトルからわかるように、「OpenAIは自社のモデルが中国のDeepSeekの学習を助けたという証拠を持っている」と述べています。OpenAIはフィナンシャル・タイムズに対し、DeepSeekがディスティレーション(蒸留)を使用していた証拠を見つけたと述べました。これは開発者がより大きな能力を持つモデルからデータを抽出してAIモデルを学習させる一般的な手法です。GPT-4の学習に要した1億ドル以上と比べて、わずかな費用で小規模なモデルを学習させる効率的な方法です。
開発者はOpenAIのAPIを使用して自社のアプリケーションにAIを統合することはできますが、ライバルモデルを構築するために出力を蒸留することはOpenAIの利用規約違反です。OpenAIはまだ発見した証拠の詳細を提供していません。
したがって、これはまだ確認されていませんが、DeepSeekのR1モデルはそれほど印象的ではないかもしれません。なぜなら、もし彼らが本当に蒸留を使用したのであれば、これが非常に低コストで素晴らしいパフォーマンスを得られた理由となります。これは先ほど述べたように、中国が考えているほど先行していないことを示唆しています。
しかし、中国の閉ざされた扉の向こうで何が起きているのか、誰にも本当のところは分かりません。彼らは簡単に、米国が知らないチップを使って、より大規模なモデルを秘密裏に開発している可能性があり、それを公表しない十分な理由があるでしょう。
先週、トランプ大統領がプロジェクト・プロスターゲートを発表しました。これは米国のAIインフラ構築に5,000億ドルを投資するプロジェクトです。GDPの割合で測ると、アポロ計画やマンハッタン計画と同規模です。中国はもちろんこのプロジェクトを認識しており、AIレースで勝利したいのであれば、少なくともこの大規模なインフラ整備を再現しようとするはずです。そしておそらくすでに取り組んでいるでしょう。
つまり、おそらく人類が参加した中で最も重要なレースであるAIレースは加熱しており、ゴールが近づいています。誰が勝つかは分かりませんが、勝者が人類の没落ではなく、人類の利益のためにこの技術を責任を持って使用することを願っています。なぜなら、結局のところ、これは単なる勝利の問題ではなく、我々の世界の未来を形作ることなのです。
最後に、視聴していただき、ありがとうございました。この動画を楽しんでいただけたと思います。また次回お会いしましょう。

いいなと思ったら応援しよう!