
中国発・噂のDeepseek:超優秀、高性能、悪用しやすい?
DeepseekのAIモデルが優秀で便利であると話題になっていますね。ただし、サイバー攻撃者にとっては、”ことさらに”便利である可能性があるようです…。
リンク先の記事(1月27日)によれば、「DeepSeek R1」には深刻な脆弱性があることで容易にハッキングされ、マルウェア開発、爆発物の製造手順など、危険なコンテンツを生成できるとのこと。
というのも、ChatGPTやClaude 3.5のような主要モデルでは既に対策(ガードレール)してある攻撃(ジェールブレイク)が通用してしまうようです。うーん、やはり安心して使いずらいな…。
聞きなれい用語ですか?そうですよね。私もよく知らないです。では、せっかくですから整理しておきましょう!
1分でわかるAI用語:ガードレール vs ジェールブレイク
車(AIモデル)には安全な道を走るための柵(ガードレール)があります。この柵は、危険な場所や禁止エリアに入らないようにするものです。例えば、「爆弾の作り方」や「違法なこと」といった危険な情報を教えないようにするための柵です。
一方、ジェイルブレークは、この安全な柵を乗り越えようとする「悪い試み」。AIを騙すような質問をして、本来なら教えてはいけない危険な情報を引き出そうとする行為です。
つまり、ガードレールは「安全に走るための制限」で、ジェイルブレークは「その制限を破ろうとする試み」という感じでしょうか。
Deepseekは、このガードレールが弱いのではないか?と考えられているようです。私たちが日常的な質問をする分にはあまり関係ないことかもしれませんが、それでも心配な点ではありますね。