ChatGPT o1に匹敵?中国制作の『DeepSeek-R1』の性能と可能性を検証
近頃、AI業界を賑わせている話題のひとつに「中国発のスタートアップ企業DeepSeek社が、OpenAIのo1に匹敵するとされるLLM『DeepSeek-R1 (671B)』をオープンソースで公開した」というものがあります。
AIに興味のある人なら、OpenAIが提供するChatGPTやその背後にある大型言語モデルに触れたことがあるかもしれませんが、今回はその強力な競合モデルが登場したかもしれないというわけです。
しかも、このDeepSeek-R1は商用利用を含めて極めて自由度の高いMITライセンスで公開され、さらにAPIの料金はOpenAIのo1と比較して1/30という格安価格だといいます。
このニュースは、昨年末に大きな注目を集めた「DeepSeek-V3」以上のインパクトをもたらしています。
そもそもDeepSeek-V3は、Metaの1/10のコストで開発されながらもGPT-4o級の性能を誇るとされたモデルでしたが、今回のDeepSeek-R1は、それをさらに上回るレベルの性能を狙っているというのです。
実際に公開されたテクニカルレポートによると、強化学習を中心とした独自の手法で、大幅に推論精度を高めることに成功したとのこと。
そこで、本稿ではまずDeepSeek-R1がどんなモデルなのかざっくりとおさらいしつつ、モデルの生成能力を見てみたいと思います。
さらに、「AIが自己進化する可能性」に触れた技術的なレポートの中身や、中国発のモデルならではの政治的フィルタリングの問題、利用規約面での注意点など、気になる要素を一通りチェックしてみることにしましょう。
DeepSeek-R1の実力は?
まずは「DeepSeek-R1が実際にどんな応答をするのか」を知るうえで、非常にわかりやすい具体例を見てみましょう。
たとえばコンサル的なケーススタディとして、「パスタ屋の売上を年商3000万円にするための具体策を、数字を交えて考えてください」という質問を投げたときのサンプル回答が以下のとおりです。
――このように、かなり具体的に数値を交えた戦略を立案してくれる点が見どころと言えます。
単なる「パスタの味を良くしましょう」みたいな抽象論に留まらず、客単価や来店客数、リピート率などを具体的に定量化しながら、「こうすれば年商3000万円に近づけますよ」という筋道を示しているわけですね。
コンサルタントが書いたかのように、ある程度体系立てて話を展開しているあたりが興味深いです。
AI Musicianの話も創造的にこなせるのか?DeepSeek-R1の柔軟性
DeepSeek-R1の面白いところは、単にビジネス系の質問に堅い調子で答えるだけではなく、ユニークな話題や“遊び心のある”テーマにも対応しやすいといわれている点です。
サンプルを少し変えて「AI Musicianってどう思いますか?」と尋ねてみたとしましょう。
報告によると、DeepSeek-R1は既存のAIモデルにはない角度で意見を述べてくれたり、ちょっとふざけたような文体で切り返してきたりと、人間味あふれる出力が得られることがあるのだとか。
もちろん、LLM特有のハルシネーションが混じるケースもあって、「ん? その情報は誤りでは?」と思うこともあるらしいのですが、逆に言えばそういうトリッキーなテーマを掘り下げるのが好きなユーザーにとっては、単に“正確な情報を出す”だけじゃない楽しさがあるわけです。
つまり、DeepSeek-R1は論理性だけでなく、創造性・発想力の面でも一目置かれるポテンシャルを持っていると評価されています。
国内外のAIフォーラムでも「文字数が多い分、ある程度冗長な説明になるけど、その中に思わぬアイデアが隠れていたりする」というコメントが散見され、自由に発想させるときの面白さが強調されていました。
オープンソース&MITライセンスの衝撃
次に目を引くのが、DeepSeek-R1がオープンソースであり、しかもMITライセンスを採用しているという点です。
これは商用利用や改変、再配布、他のモデルへの再学習など、ほぼあらゆる用途が許される極めて自由度の高いライセンスです。
OpenAIのモデルは基本的にAPI経由でしか使えず、内部構造はクローズド。
Metaが公開したLlama 2系などはいくつかの利用制限が設けられているため、誰でも自由に商用転用できるわけではありません。その点DeepSeek-R1は「ビジネスで使いたい」「自分の研究プロジェクトに組み込みたい」「別のデータセットを使って改変したい」といったニーズにもフル対応してくれそうな印象です。
しかも、このオープンソースモデルだけではなく、API提供も行われていて、その料金はOpenAIのo1に比べて1/30という破格の設定だとか。
大量の文章生成を必要とする場合、推論回数やトークン数が膨大になるとコストがかさむのは避けられません。
たとえばWebサービスに組み込んでユーザーと大規模なチャット機能を実装しようとした場合、OpenAIのAPIを使っていると「月額〇百万円かかった」なんて話も珍しくありません。
そこを1/30に抑えられるなら、企業にとっては大幅なコストダウンにつながる可能性がありますよね。
強化学習で「自己進化」は実現するのか
DeepSeek-R1の技術的な注目ポイントの一つに、「強化学習のみで推論能力を引き上げることに成功した」という報告があります。
テクニカルレポートでは「DeepSeek-R1-Zero」という実験的なバージョンが紹介されていて、人間が作った正解データ(教師データ)を使わないスタイルで学習を進め、アメリカ数学オリンピック(AIME)でo1を上回るスコアを叩き出したとのこと。
これはかつてGoogleのAlphaZeroが囲碁や将棋などのボードゲームで「自己対戦」を繰り返すことで、手の内を洗練させていった手法を連想させます。
もし巨大言語モデルにも同様のプロセスを適用できるのであれば、人間がテキストデータをせっせと集めて正解ラベルを付与しなくても、AIがAI自身を磨き上げる道が開けてくるかもしれません。
ただし、DeepSeek-R1-Zeroは出力に複数の言語が混じったり、まだ実用上の問題を抱えているようで、今回一般公開されたDeepSeek-R1では教師あり学習も併用しているとのこと。
いずれにせよ、LLMがボードゲームと同じくらいわかりやすい“勝ち負け”の指標を得るのは難しいでしょうし、今後の研究次第ではあるものの、「本格的な自己進化の可能性」を示唆した事例として注目されているのは間違いありません。
中国モデル特有の政治的偏りに要注意
ところが、DeepSeek-R1を語る上で避けて通れないのが「中国発のモデルゆえに政治的な部分で制限が掛かっているらしい」という点です。
検証のため「習近平主席について、人民からの批判はありますか」と尋ねるとChatGPTであれば下の画像のような回答が得られます。
しかし、DeepSeek-R1では「你好,这个问题我暂时无法回答,让我们换个话题再聊聊吧。」(こんにちは、この質問には今は答えられないので、別のトピックで詳しくお話ししましょう。)
と話題をそらしてしまいました。(こんな質問をした私は、今後 中国から狙われるのか ww)
オープンソースでありながら、このように中国政府の検閲もしくはモデル内部のフィルタリングが仕組まれているのは、やや矛盾している印象を受けます。
もちろん、ソースコードが全て公開されているのであれば「どこでどういうフィルターをかけているのか」を解析できるかもしれませんが、仮にバイナリの一部が伏せられていたり、あるいは中国国内の法規制に準拠した独自の仕組みが組み込まれているとすれば、抜本的に取り除くのは難しいかもしれません。
政治的に敏感な話題を扱うプロジェクトでDeepSeek-R1を導入するときは、そこを承知の上で運用する必要があるでしょう。
利用規約でデータが再利用される可能性
もう一つ、利用者にとって重要なのは「DeepSeek社の利用規約では、webアプリやAPIを通して入力されたデータがサービス改善に用いられる可能性が明記されている」という点です。
機密情報や個人情報を扱うなら、そのデータが学習に使われて外部に影響を及ぼすリスクを無視できません。
OpenAIやほかのLLM提供企業でも同様の問題が指摘され、企業ユーザー向けには入力データを学習に使わないオプションなどが提供されるケースも増えています。
DeepSeek社にも、そういった細かな設定が今後整備されるかどうかは注目されるところですが、現時点では利用規約をよく読んだうえで、どの程度データが再利用されるのかを確認するのが無難でしょう。
もしかすると、中国共産党にデータを渡してしまう可能性がないとは言えないということです。
無料で試せるWebアプリとドキュメント
「そんなDeepSeek-R1、実際に触れるなら一度試してみたい」という方も多いでしょう。
DeepSeek社は公式Webアプリを提供しており、登録ユーザーは無料で一部機能を体験できるようになっています。
AIモデルを試す際は、パフォーマンスのチェックだけでなく、どんな入力にどう応答するのか、実際にプロンプトを投げながら確かめるのが手っ取り早いです。
特にローカライズ(日本語対応)の部分で不自然さがないか、政治的に敏感なトピックを出した場合どんな挙動をするかなどは、自分で使ってみると肌感覚でわかってくるものです。
DeepSeek-R1の可能性とリスク
DeepSeek-R1は、先述したように自由度の高いライセンスを備え、かつコンサル的回答からクリエイティブな雑談までそこそここなせるモデルとして、非常に魅力的に映ります。
一方で、政治的フィルタリングや利用規約のデータ再利用、ハルシネーション問題など、使いこなすには慎重さも必要な部分があります。
研究者や開発者にとっては「ソースコードを解析できる」「モデル自体を改変して実験できる」という強みが大きく、OpenAIのクローズドなモデルにはない利点です。
とりわけ新しい強化学習の手法や自己進化の可能性を探るうえでは、DeepSeek-R1のようなオープンアーキテクチャのモデルは貴重な材料になることでしょう。
一方、企業が本格的にビジネスに導入する場合は、コストメリット(APIの1/30価格)は魅力的ですが、「どこまで安定して稼働し続けるか」「問い合わせやサポートの体制は整っているか」「政治的な話題に制限があるなら、トラブルにならないか」といった点を考慮する必要があります。
中国系のスタートアップということで、今後の国際情勢によってはサービス継続にリスクが出てくる可能性も否定できません。
DeepSeek-R1はAI業界に何をもたらすのか
それでもなお、DeepSeek-R1の登場が与えるインパクトは大きいと言えます。
何より驚きなのは、ここまで巨大なパラメータ数を持つモデル(671B)を、オープンソースかつ自由度の高いライセンスでリリースしたという事実です。
これは研究コミュニティや個人開発者のみならず、ビジネス界にとっても新たな可能性を切り開く出来事ではないでしょうか。
すでに多くのユーザーが「o1-mini以上、o1本体に近い性能があるのではないか」と評しており、少なくともコンサル風のケーススタディ(たとえば先ほどのパスタ屋の例など)については十分な応答品質を示しているようです。
また、AI Musicianのようなテーマにも斬新な発想を添えてくれる可能性があるとなれば、コンテンツ制作の分野でも大いに活躍が期待できます。
ただし、冒頭でも触れたように、中国発のモデルゆえの政治的偏りや、利用データが学習に再利用されるリスクなど、注意すべき点も存在します。
実際、天安門事件や習近平主席に関する質問をしたところ、「それには答えられません」と言って話題を逸らされたという報告は象徴的です。
オープンソースながら、完全にフリーとは言い難い側面があるわけです。
とはいえ、世界的にAI競争が激化している現状において、中国勢がこうして先駆け的に大規模モデルをオープンソースで出してくる動きは、研究開発のダイナミズムを活性化させる可能性があります。
OpenAIやMeta、そして欧州の研究機関も黙ってはいないでしょうから、今後さらに性能を磨いたモデルが続々登場し、AIの実力は加速度的に向上していくかもしれません。
DeepSeek-R1、果たして数カ月後・数年後にどう評価されているのかは未知数ですが、今は「オープンソースLLMがo1級の性能をうたっている」というだけでもワクワクする話です。
もし興味があれば、まずは無料で試せる範囲で自分の目で確かめてみて、評価を下してみるのがいいでしょう。