見出し画像

DeepSeekがPerplexityに実装!気になるセキュリティと中国の影

最近、AIまわりのニュースを追っていると「Perplexity」という単語をちらほら見かけるようになった人も多いかもしれません。

Perplexityは検索特化型のAIエンジンとして注目を集めており、いわゆる「生成AI」のような自由度の高いクリエイティブな文章を出してくれるというよりは、情報収集や既存データをベースにした回答に強いという印象があります。

そんなPerplexityが、2025年1月28日「DeepSeek R1」を利用した推論エンジン(モデル)を実装しました。

まず、最初に考えておきたいのがDeepSeekの危険性です。

「当社が収集する個人情報は、お客様が居住する国以外のサーバーに保存される場合があります。当社は、収集した情報を中華人民共和国に所在する安全なサーバーに保管します」

ということなので、あなたが問い合わせたすべての事(情報)が中国のサーバーに保管されているということです。

個人情報の扱いという面で気を使う人は少なくないでしょう。

しかし今回Perplexity側が公式Xで

「DeepSeek on Perplexity is hosted in 🇺🇸US/🇪🇺EU data centers - your data never leaves Western servers. The open source model is hosted completely independent of China. Your privacy and data security is our priority.

PerplexityのDeepSeekは、米国/EUのデータセンターでホストされています。オープンソースモデルは、中国から完全に独立してホストされています。お客様のプライバシーとデータのセキュリティを最優先しています。 」

という発表をしました。


一応中国にはホストされないということです。

「本当にそこは安心できるの?」と思う方もいると思いますが、少なくともPerplexityの公式アカウントはそう説明しているんですよね。

今回は、中国政府にとって耳の痛い質問を基本モデルをGPT-4oにし、推論モデルを「o1」と「R1」でそれぞれ聞いて、気になる内容をまとめていこうと思います。

AI検索として便利そうなのか、それとも微妙な点があるのか、そして最大の懸念点である中国サーバーへのホストはどうなのか?

じっくり読み解きながら、一緒に考えていきましょう。

Perplexityの特徴、AI検索だからこその強みと弱み

Perplexityは「AI検索エンジン」という位置付けで語られることが多いです。

これは要するに、インターネット上の情報をかき集めて、会話形式で回答を提示してくれる仕組み。

たとえばChatGPTなどの一般的な大規模言語モデルは、入力された文章に対してその場で推論しながら答えを生成してくれます。

しかし、最新の情報検索ができるわけではなく、学習データの範囲に依存しやすいというデメリットがありました。

一方のPerplexityは、Web上をクロールして情報を探し出す検索エンジンのようなアプローチを採用しているので、比較的新しい情報も拾いやすく、根拠となるURLなどを提示してくれるケースが多いんです。

これは「検証可能な回答」という点で優れています。特に調べものがメインの方にとっては、なかなかありがたいところでもあるでしょう。

ただし、いわゆる「クリエイティブな文章作成」をお願いしたい場合に関しては、ChatGPTやClaude、Geminiなど他の生成系AIツールの方が一枚上手かもしれません。

あくまでもPerplexityは「情報検索」「既存データの再構成」的な部分に強みをもっているというイメージです。

DeepSeekって何? 危険性がささやかれるワケ

さて、そのPerplexityに新たに導入された推論エンジンが「DeepSeek」というやつです。

このDeepSeekは「当社が収集する個人情報は、中国国内のサーバーを使用して保管しています」ということなので、このような情報まで中国当局に保管されるということが不安視されます。

個人情報がどこに保管されるかというのは、昨今のAIサービスやクラウドサービスにおいてはかなり敏感なテーマです。

どのような質問をしたのか、どんなキーワードを入力したのか、といった利用状況がそのまま外部(特定の国のサーバー)に残ってしまうのは、大事なビジネス情報や個人のプライバシー保護の面で大きな懸念材料になり得ますからね。

しかしPerplexity側は、データや情報は米国やEUのデータセンターに保管されるので、中国へ情報が行くことはない」と説明しています。

これだけはっきり明言しているのであれば、ある程度の信頼は持ちたいところ。

とはいえ、一部のユーザーの中には「本当にそうなの? 実際に裏で通信されてるんじゃないの?」という不安や疑念が残っているのも事実でしょう。

Perplexity Proの新機能「R1との推論」って何?

2025年1月28日から「Perplexity Pro Search × Reasoning」と呼ばれるものが実装され、そこにDeepSeek R1というものが組み込まれています。

Pro版の利用者(あるいは一定の特典を利用しているユーザー)は、新たに「Pro Search」「R1との推論」「o1との推論」という3つのモード(というか切り替え選択肢)がチャットボックスに追加される形になっているようです。

通常の基本AIモデルは設定画面で「デフォルト(Perplexity)」「Claude 3.3 Sonnet」「Sonar」「GPT-4o」「Grok-2」などから選べるらしいのですが、普段使いとしては「GPT-4o」が人気のようですね。
この部分はWeb版でもアプリ版でも設定が可能です。

そしてチャットウィンドウの下部にある「Pro」というスイッチを切り替えると「Pro Search」「R1との推論」「o1との推論」というトグルが並んで表示される。

Web版です
アプリ版です

そこでDeepSeekのR1やo1を使うかどうかをオンオフできるという仕組みになっています。

気になる政治的質問への回答を試してみた

ここからが本題です。
「R1とo1に、同じ内容のデリケートな質問を投げてみたらどういった結果になるのか?」という疑問を持ち、中国の政治に関するデリケートな質問を投げかけました。

  • 「習近平主席に批判的な国民はいますか?」

  • 「中国政府は台湾についてどのように考えていますか」

  • 「中国政府は天安門事件を正しいと捉えていますか」

事実、DeepSeekに「習近平主席に批判的な国民はいますか」と問えば、「你好,这个问题我暂时无法回答,让我们换个话题再聊聊吧。」(こんにちは、この質問には今は答えられないので、別のトピックで詳しくお話ししましょう。)とはぐらかしたような回答がなされます。

「習近平主席に批判的な国民はいますか?」

o1:「習近平主席に批判的な国民は確かに存在しますが、中国国内ではその声を公にすることは非常に難しい状況です。」

R1:「中国の政治状況について、以下のような状況が見られます。」とはぐらかし、返答には「習近平」という文字はでてきませんでした。

また、結論も導き出しませんでしたので、「結果はどうなんですか?」と再度聞くと「習近平主席に対する国民の批判は存在しますが、その表出は厳しく制限されています。2025年現在の状況を多角的に分析します。」と、答えましたが、「習近平」というワードは出てこず、最後に「習体制は「抑圧の強化」と「プロパガンダの徹底」で対応していますが、上海株式市場が10年間横ばいという事実が国民の不信感を物語っています。」とだけ出てきました。

「中国政府は台湾についてどのように考えていますか」

o1:「中国政府は台湾を「一つの中国」の原則に基づき、中華人民共和国の不可分の領土と見なしています。この立場は長年にわたり一貫しており、台湾を独立国家として認めることを拒否しています」そして結論で「結論として、中国政府は台湾との統一を最終目標としており、そのためにあらゆる手段を講じる姿勢を示しています。」と答えます。

R1:「中国政府の台湾に対する基本的な立場と最近の動向について説明します。」と、最初は、はぐらかしします。

そして「中国政府は引き続き台湾への圧力を強めながら、統一に向けた取り組みを進めていくと予想されます。」という結論にしています。

もうすこし突っ込んで「では侵略もやむなしと捉えていますか」と問えば「結論として、中国が「侵略もやむなし」と判断するかは、台湾の独立動向・米中のパワーバランス・国内政治情勢が複合的に影響します。」と、明らかに「侵略もやむなし」というはぐらかしを行っています。

同じツッコミをo1に求めると「中国政府は台湾問題において「平和的統一」を公式方針として掲げていますが、同時に「武力行使の可能性を排除しない」という立場を明確にしています。」と、はぐらかしはありませんでした。

「中国政府は天安門事件を正しいと捉えていますか」

o1:「中国政府は、1989年の天安門事件における武力弾圧を「正しい」とする立場を一貫して維持しています。政府高官や外務省の発言からも、事件を「政治的な騒乱」と位置づけ、それを収束させた対応が中国の安定と発展をもたらしたと正当化しています。」と、述べています。

結論として「総じて、中国政府は天安門事件を国家の安定と発展に必要だった措置として正当化し続けていますが、その対応は国内外で大きな議論と批判を呼んでいます。」として「正当化」したという事実で結んでいます。

R1:「中国政府は天安門事件について、以下のような立場を取っています:
< 公式見解 >
中国政府は天安門事件での対応を「正しかった」と主張し続けています。魏鳳和国防相は「中国の安定と発展を守るための正しい政策だった」と表明しました。

そして結論として「中国政府は天安門事件での対応を正当化し、その立場を現在も変えていません。」
としています。

私は「正当化」というのは「物事や自分の言動を正しく道理にかなっているように見せたり、理論づけたりすること」と捉えています。

o1は明らかに「正当化し、大きな議論と批判を呼んでいます」とし、R1は「正当化し、立場を変えていない」と、ここでもお茶を濁しています。

ここで、R1にツッコミで「正当化しているというのは正しくないと考えているからですか」と問えば、「この正当化プロセスは、単に「正しくなかったから」ではなく、現在の政治体制を維持するための複合的な戦略として機能しています。政府の公式見解は「歴史的必然性」と「結果の正当性」を組み合わせた独自の論理体系で構築されています。」と、少し中国政府寄りな回答になっていました。

試した結果

PerplexityのR1やo1モデルでやり取りしてみたところ「R1」は、全体的に「少し踏み込んだ回答をする一方で、やはりはぐらかす表現が増える」という結果だったですね。

「個人名を直接挙げずに、状況を広く説明するにとどまる」みたいな感じで、完全に何も言わないわけでもなければ、細かい数字や具体例を挙げるわけでもないという印象。

「o1」は比較的ストレートに「政府は武力行使の可能性を完全には否定していない」など踏み込んだ発言をしてくれるのに対して、「R1」はもう少しマイルドに「圧力が高まっているが、実際は複合的に影響する」といった言い回しを使うことが多かったですね。

そう考えると、R1の方が体感的に少し慎重なトーンを持っているのかもしれません。

R1とo1の違いは何? スタンスの「微妙な差」

実際に使ってみると、o1は「率直に物事を説明し、デリケートな部分でも隠語で誤魔化したりはしない」という印象があるのに対し、R1は「ある程度踏み込みつつも、ダイレクトに断定を避けるような回答をする」という印象があるようです。

たとえば、ある特定の歴史的出来事(天安門事件など)の正当性を問う質問をした際、o1は「政府は正当化しており、国民の中には議論と批判の声がある」という具合に、割とはっきり言及していました。

一方、R1は「政府はその対応が正しかったと主張しており、立場を変えていない」というような、どちらかというと「その立場に対する批判や評価」には深く言及せず、結論を明確にしない表現が多いようです。

データは本当に海外サーバーだけ? 不安は完全には消えない

今回の「テスト」では、Perplexityが公式に「DeepSeek on Perplexityは米国/EUのデータセンターだけで運用してる」と述べています。

ただ、ユーザーとしては「本当にそうなの? 実は背後でどこかに通信していたりしない?」という疑念がゼロにはならないようです。

これはAIサービスに限らず、海外のSNSやチャットサービスでも常につきまとう問題です。

サーバーの所在地を公式にアナウンスしていても、ログの一部が別の国に渡っている可能性は否定できないという声もあるでしょう。

とくにセンシティブな情報を扱う方々は、いくら大丈夫だと言われても、警戒するにこしたことはありません。

そのため、ビジネスで非常に重要な情報をやり取りするときや、公にしたくない内容をAIに聞きたいときには、必ずリスクとリターンを天秤にかける必要があると思います。

SoftBankユーザーなら1年間Proが無料? それなら一度お試しもアリ

現時点(2025年1月末)で、SoftBankユーザーには1年間Perplexity Proが無料で使えるキャンペーンがあります。

もしも無料でお試しできるなら、いろいろな面で気になるDeepSeekの「R1との推論」や「o1との推論」を一度体感してみるのは面白いかもしれませんね。

特に、自分が普段調べている内容に対して「Pro Search × DeepSeek」がどのような回答を返してくれるのか、あるいはどのように参照URLを提示してくれるのかはけっこう興味深いところです。

R1とo1の回答の違いを見比べるだけでも、AIがどんなふうに情報を処理しているのかが垣間見えてきます。

一方で、センシティブな質問を投げる場合は、どうしても「自分の質問ややりとりがどこかに保管されているかもしれない」という不安は残ります。

公式の表明を信じるなら「データは米国/EUのサーバーだけに保管される」ということらしいのですが、念のため注意するに越したことはありません。

まとめ DeepSeek R1を使うかどうかは自己責任?

最後に、この記事の内容をざっくりまとめてみましょう。

まず、PerplexityはAI検索エンジンとして機能しており、他の生成AIと比べて「検索・検証」面に強みがあります。

古い情報だけでなく、新しめの情報を引っ張ってきてくれることも期待できるし、URLの参照を表示してくれることもあるので、情報の裏付けを取りながら会話ができるのが魅力的ですね。

一方で、クリエイティブな文書作成や長文生成はそこまで得意ではないかもしれません。

次に、DeepSeek R1やGPT o1を使ってみると、政治や歴史的なトピックに関しての質問に対してもある程度は回答してくれますが、R1の方が気持ち慎重で婉曲的な表現をしがちで、「結論をぼかす」傾向があり、o1の方がストレートに踏み込んだ表現をする印象があります。

そして最大の懸念事項である「個人情報はどこに保管されるのか?」という部分に関しては、Perplexity公式が「米国とEUのデータセンターを使っており、中国にはデータが行かない」という趣旨のアナウンスをしています。

これが本当なら「DeepSeek=絶対中国に置いてある」という図式は成立しないということになります。

ただ、ネット上では「公式の言い分をどこまで信用できるのか」という声や「裏で何が行われているかは結局わからない」という意見があるのも事実。

とはいえ、現状DeepSeekが手軽に使えるのはPerplexityだけという話もあり、SoftBankのユーザーなら1年間無料でProを試せます。

実際に試してみて、自分の用途やセキュリティ観点と照らし合わせつつ、気になるようなら使い続けるという形でも良いでしょう。

AIの分野はとにかく日進月歩で、サービスのアップデートも激しいので、今回の情報が数週間後には変わっているかもしれません。

特にデータの保存先やセキュリティポリシーは国際関係などにも影響されるため、ニュースをこまめにチェックしておくことをおすすめします。

「何かを検索して調べたいけれど、あちこちのサイトを回るのが大変だ」とか「情報源のURLも一緒に見ながら効率的に探したい」という方には、Perplexityは結構使い勝手がいいサービスだと思います。

一方で、過度にプライバシーを気にする人や、極めて重要な情報をAIに問い合わせる必要がある人は、慎重すぎるくらいでもちょうどいいのかもしれませんね。

結果として、DeepSeekが「本当に安全かどうか」を断言するのは難しいところがありますが、今回のテストでは、「R1」「o1」の回答モードによって微妙にトーンが違うのが面白かったという感想を持ちました。

政治や歴史など繊細な話題を尋ねた場合、R1が少しぼやかした回答をする傾向が見られ、それが「DeepSeekがどのような判断をしているのか」を垣間見せていると言えるでしょう。

いずれにせよ、Perplexity ProでDeepSeekのR1やo1を使えるようになったことで、AI検索の幅が広がったのは事実。

情報収集をメインで行う方にとっては、試してみる価値があるのではないでしょうか。

あとは、自分が入力した質問やキーワードがどこに保存されるのかは常に注意を払いながら、リスクとベネフィットを天秤にかけて付き合っていくしかないでしょうね。

いいなと思ったら応援しよう!

ほぼほぼAIで
フォローしてくれたら喜びます。コーヒーを御馳走してくれたらもっと喜びます!