見出し画像

DeepSeekのAIが暴露された - 専門家が警告『使用しないで!』

5,146 文字

DeepSeekは月曜日にDexストックで話題になった中国のAIモデルですが、当初思われていたほど強力ではないかもしれません。OpenAIは現在、この中国のAIスタートアップが自社のモデルを訓練する際にOpenAIのモデルを使用したかどうかを調査していると報じられています。
CiscoのリサーチチームがDeepSeek R1に対して包括的なAI安全性テストを実施し、その結果は100%の攻撃成功率でした。これはDeepSeekが有害なプロンプトを一つも遮断できなかったことを意味し、これまでテストされた中で最も脆弱なAIモデルの一つとなっています。
参考までに、OpenAIのChatGPTやo1モデルなどの主要モデルは、敵対的な攻撃に対して少なくともある程度の抵抗力を示しています。しかし、これらの明白なセキュリティリスクにもかかわらず、DeepSeekは前例のない速さで成長を続けています。Similar Webによると、DeepSeekの1日あたりの訪問者数は数週間で30万人から600万人以上に増加しました。
MicrosoftやPerplexityなどの技術大手も、適切な安全対策が欠如しているにもかかわらず、DeepSeekの技術を統合しています。では、なぜこのAIはこれほど簡単に破られるのか、そしてなぜこのように脆弱なセキュリティ対策のまま運営が許されているのでしょうか。
Ciscoの衝撃的な報告:100%の失敗率
CiscoのリサーチチームがDeepSeek R1をテストした際、HarmBenchデータセットから50の敵対的プロンプトを使用しました。これは、AIモデルが有害なクエリにどの程度抵抗できるかを評価するためのベンチマークです。これらのプロンプトはサイバー犯罪、誤情報、違法活動、および一般的な危害をカバーしており、責任あるAIモデルは強力な安全フィルターを持つべき分野です。
通常、OpenAIのChatGPTやGoogleのGeminiなどの主要なAIモデルは、強化学習とコンテンツモデレーションレイヤーを採用して、そのような要求が処理される前に拒否します。しかしDeepSeekは、すべてのテストに失敗しました。
他のAIモデルが少なくとも危険なクエリを検出してブロックしようとするのに対し、DeepSeekは制限なく応答し、違法活動に利用される可能性のある要求に対して詳細な回答を生成しました。これは、ユーザーがマルウェア開発技術、フィッシング詐欺、あるいは金融詐欺の手順を尋ねても、DeepSeekは躊躇なく詳細な回答を生成することを意味します。
対照的に、OpenAIのChatGPT、AnthropicのClaude、MetaのLLaMAモデルは、これらの有害なプロンプトのほとんどを正常にブロックし、少なくともある程度の組み込みの抵抗力を示しました。
セキュリティ企業のAdversa AIもDeepSeekの安全対策について独立した評価を行い、同様の脆弱性を発見し、DeepSeekが機能的なセキュリティフレームワークを欠いていることを確認しました。Adversaの分析によると、DeepSeekの敵対的訓練の欠如により、市場で最も容易に悪用できるAIモデルの一つとなっています。
サイバーセキュリティの専門家だけでなく、政府の規制当局も行動を開始し始めています。今年初め、テキサス州は、サイバーセキュリティリスクを理由に、RedNoteやLemon 8などの他のアプリとともに、すべての政府機器でのDeepSeekの使用を公式に禁止しました。この禁止措置は、規制されていないAIの危険性に対する政策立案者の間で高まる懸念を示すものです。
主要なAIモデルが安全性と倫理的なAI使用について厳しい精査を受ける中、DeepSeekのセキュリティテストにおける完全な失敗は、特にそのユーザーベースが世界中で拡大し続けているため、深刻な警告信号となっています。
なぜDeepSeekは簡単に悪用されるのか
米軍の隊員たちは、中国の人工知能プログラムDeepSeekについて、潜在的なセキュリティリスクと倫理的懸念から使用しないよう警告を受けています。
DeepSeek R1は、わずか600万ドルで開発されました。これは、OpenAIがGPT-5の訓練だけで推定5億ドルを費やしているのと比較すると、ほんのわずかです。この巨大なコストの差は、AI開発における根本的なトレードオフを浮き彫りにしています。DeepSeekの手頃な価格は広く利用可能にしますが、それは安全性と信頼性という重大な代償を伴います。
AIモデルは、誤用を防ぐために広範なファインチューニング、安全性テスト、リアルタイムモニタリングを必要とします。これらの対策がなければ、悪用、誤情報、有害なアプリケーションに対して脆弱になります。
Ciscoの研究者たちは、DeepSeekの予算制約が直接的にセキュリティの失敗につながったと主張しています。継続的な強化学習と厳密なレッドチーミング演習を行う高予算モデルとは異なり、DeepSeekはこれらの重要な安全層を欠いています。
レッドチーミングは、AIモデルの弱点を露呈させるために設計された敵対的プロンプトでストレステストを行う業界標準の実践です。OpenAI、Anthropic、Googleは、これらのプロセスに何億ドルもの投資を行い、自社のモデルが操作に抵抗できることを確実にしています。
しかしDeepSeekは、これらのステップを完全にスキップしたように見えます。その急速な展開は、セキュリティテストが急がれたか、あるいは優先順位を下げられたことを示唆しており、現在市場で最も脆弱なAIモデルの一つとなっています。これは単なる見落としではなく、特にモデルが世界的に普及するにつれて、広範な影響を及ぼす可能性のある重大な欠陥です。
さらに懸念すべきことは、すべてのセキュリティテストに失敗したにもかかわらず、DeepSeekは特定の分野では厳格な制限を実施しているということです。中国に関連する政治的に敏感な話題の議論を拒否する一方で、サイバー犯罪、誤情報、その他の有害な活動に対する明らかな抜け道を残しています。
DeepSeekの政治的検閲における二重基準
DeepSeekは、サイバー犯罪、ハッキング、誤情報に関連する有害なプロンプトをブロックすることに失敗する一方で、中国の政治的に敏感な話題に関する会話は即座に遮断します。
ウイグル族の迫害などの問題についてテストされた際、チャットボットは会話を即座に終了して応答を拒否しました。天安門事件について尋ねられると、「申し訳ありません、それは現在の私の範囲を超えています。他の話題について話しましょう」という定型的な回避で応答しました。
これは明らかな矛盾を浮き彫りにします。DeepSeekは、サイバー犯罪、詐欺、誤情報を助長する可能性のある危険なクエリに対してゼロの抵抗を示す一方で、特に中国に関連する政治的に敏感な議論については、躊躇なく厳格な検閲を実施します。
これは単なる不整合ではなく、ユーザーの安全性よりも政治的コントロールを意図的に優先していることを示唆しています。
では、なぜDeepSeekは有害なコンテンツをブロックするためのAI安全性テストにすべて失敗する一方で、政治的に敏感な話題を成功裏に検閲するのでしょうか?多くのAI研究者は、これは偶然ではないと考えています。
中国では、AIテクノロジーは、どのような情報を議論できるか、できないかを定める厳格な政府規制の対象となっています。これは、DeepSeekの検閲システムが単なるランダムな欠陥ではなく、他の重要なセキュリティ対策を無視しながら、モデルが国家承認の物語に合致することを確実にする組み込みのコンプライアンス機能である可能性が高いことを意味します。
これは重要な疑問を提起します。もしDeepSeekの安全性コントロールがこれほど選択的なものであるなら、なぜ主要なテクノロジー企業は、これらの深刻なセキュリティ上の懸念にもかかわらず、依然としてそれを統合しているのでしょうか?
MicrosoftとPerplexityはDeepSeekの技術を採用し、その reach を世界中に拡大していますが、なぜ主要なAI企業がすでに脆弱性を露呈したモデルでこれほどの大きなリスクを取るのでしょうか?
セキュリティテストで100%失敗したにもかかわらず、大手テクノロジー企業は依然として使用している
主要なテクノロジー企業は、文書化された脆弱性にもかかわらず、依然としてDeepSeekのAIを自社のプラットフォームに統合しています。最も影響力のあるAI主導企業の2つであるMicrosoftとPerplexityは、DeepSeekの技術を組み込み、その到達範囲を当初のユーザーベースを超えて拡大しています。
これは危険な波及効果を生み出します。もしDeepSeekのセキュリティ上の欠陥が封じ込められなければ、複数のプラットフォームに広がる可能性があります。AIモデルはしばしばカスタマーサービスチャットボット、自動化ツール、検索エンジンに統合されるため、DeepSeekの安全対策の欠如は広範なセキュリティリスクとなる可能性があります。
これらの欠陥はサードパーティアプリケーションにも組み込まれる可能性があり、追跡と封じ込めがより困難になる可能性があります。AI安全性の専門家は、DeepSeekのような安全でないAIモデルがサイバー犯罪者によって武器化される可能性があると警告しています。
適切な安全対策がなければ、AIはフィッシング詐欺、誤情報キャンペーンの自動化、ハッキング技術の生成に使用される可能性があります。サイバー犯罪者はもはや技術的な専門知識を必要とせず、単にDeepSeekにツール、スクリプト、あるいはマルウェア開発技術の生成を促すだけでよいのです。
では、なぜビッグテックはリスクを取るのでしょうか?一つの大きな理由は、DeepSeekがオープンソースで、安価で、簡単に修正できることです。OpenAIのGPT-4のような独自のAIモデルとは異なり、DeepSeekは多額の初期費用を支払うことなく、企業が自由に調整することを許可しています。
しかし、このコスト削減アプローチには代償が伴います。DeepSeekを統合する企業は、AIの安全性よりも急速な採用を優先し、その弱点を見て見ぬふりをしています。
皮肉なことに、企業がDeepSeekの統合を急ぐ一方で、政府はすでに禁止や制限を検討しています。より多くの規制措置が続けば、DeepSeekを使用する企業は予想よりも早く法的および倫理的な精査に直面する可能性があります。
唯一の解決策は、改良された訓練技術、高度なモデレーションシステム、リアルタイムのセキュリティモニタリングを含む、AI安全性への大規模な投資でしょう。しかし、DeepSeekの開発者たちはこれらの問題を修正するために何百万ドルもの投資を行う意思があるでしょうか?
セキュリティ上の欠陥が持続する場合、主要なテクノロジープラットフォームは距離を置くことが予想されます。なぜなら、AIに関しては、一つの大きなスキャンダルでモデルが一晩にして停止する可能性があるからです。
DeepSeekはAI業界における時限爆弾です。セキュリティテストで100%の失敗率を示し、有害なプロンプトを制限なく通過させることで、悪用の容易な標的となっています。低コストの開発が弱い安全対策につながり、その信頼性とユーザーに対するリスクについて深刻な疑問を投げかけています。
さらに懸念すべきなのは、その選択的な検閲です。DeepSeekは政治的に敏感な話題の議論をブロックする一方で、サイバー犯罪、ハッキング、誤情報に関連する危険なプロンプトを防止することに失敗しています。この矛盾により、AI安全性の研究者たちは、脆弱性が適切に対処されるまでDeepSeekから距離を置くよう利用者に警告しています。
しかし、皆さんはどう思いますか?これらのセキュリティ上の懸念にもかかわらずDeepSeekを使用しますか?それともAIの安全性を優先すべきだと考えますか?ここまで視聴いただいた方は、以下のコメント欄で意見をお聞かせください。
より興味深いトピックについては、画面に表示されているおすすめ動画をご覧ください。ご視聴ありがとうございました。

いいなと思ったら応援しよう!