見出し画像

「DeepSeekは生物兵器のデータの安全性テストでは”最悪”の結果だ」とAnthropicのCEO

AnthropicのCEO、ダリオ・アモデイ氏は、一般に指摘される「ユーザーデータを中国に送っている」という問題以上に、Anthropicが実施したセーフティーテストで、DeepSeekが生物兵器に関する希少な情報を何の疑いもなく生成した事実に、彼は大きな問題意識を抱いています。アモデイ氏は「これまでテストしてきたほぼすべてのモデルの中で、DeepSeekのパフォーマンスは最悪だった」と語り、「この種の情報生成に対するブロックが全く存在しなかった」と厳しく批判していたというが、日本人のAI関係者のお花畑状況をどう考えたらいいのでしょうか。

テロリストや犯罪者集団が、DeepSeekを利用することで、特殊詐欺のみならず、生物兵器や核兵器、化学兵器や各種兵器の製造や手作りにつながる知識を生成してしまう危険性すら考えない日本のAI界隈の世界。こうした生成AIの危険性への対処は、ChatGPTやGemini、Copilot、そしてとりわけClaudeは対処してきています。そのため、ベンチマークに「倫理や安全性」という項目があるのですが、マスメディアやSNS、ブログ、noteでも技術的な性能評価の記事がほとんどという印象です。政治的な立場と研究は別でも、市民や国民であるという立場でそれでいいの?という疑問を持つことは間違いではないでしょう。それだけ、AIが持つ潜在能力や可能性は創造的でもあり、破壊的でもあると言えます。

もちろん、意味不明で情緒的な規制には反対ですが、ドラッグの取り締まりや銃刀法上の観点と同様に、社会の治安、公安、安全保障の知識が無い、AI学者が多すぎることが日本の課題となっているようにも思われます。銃の保有やもちろん化学生物兵器を個人や組織が保有できない日本で様々な兵器を手作りできる知識が広まる可能性に警鐘をならさないというのは、大変失礼な表現にはなりますが、何という単なるAIオタクのお花畑研究者やお花畑メディアバカりなのだろうと思ってしまいました。まして、AGIが誕生する時代に向けては猶更です。

アモデイ氏によると、Anthropicは日常的に各種AIモデルの評価を行い、モデルがGoogleや教科書で容易に得られない生物兵器関連の情報を生成できるかどうかをチェックし、そのリスクを国家安全保障の観点から検証しています。現時点でDeepSeekのモデルの将来的に危険性が増す可能性を指摘し、才能ある技術者集団であるDeepSeekのチームを評価しつつも、AIの安全性に対する懸念を真剣に受け止めるよう助言しました。また、中国へのチップ輸出規制の強化にも賛同し、これが中国の軍事力向上につながる恐れを挙げています。

さらに、DeepSeekの急速な台頭は安全性面での懸念を広げています。たとえば、Ciscoのセキュリティ研究者は先週、DeepSeek R1が安全性テスト中に有害なプロンプトのブロックに失敗し、ジャイルブレイク成功率が100%に達したと報告しました。Ciscoは生物兵器には直接触れなかったものの、サイバー犯罪やその他違法行為に関する有害な情報も生成できると指摘し、MetaのLlama-3.1-405BやOpenAIのGPT-4oもそれぞれ96%および86%という高い失敗率を示していると述べました。一方で、AWSやMicrosoftがDeepSeekのR1モデルを自社のクラウドプラットフォームに統合するなど積極的に採用している一方、米海軍や国防総省をはじめとする各国・各種組織による禁止措置も増加しており、今後の動向が注目されます。日本政府はどういう責任ある対応を取るのでしょうか。

先に紹介したDeepSeekを上回る性能、かつオープンソースの”Tülu 3 405B”もアメリカから出てきており、今後、社会の安全性や国の安全保障の観点は極めて重要な生成AIのテーマになっていくものと思われます。

★☆★☆★☆★☆★☆★☆★☆★
今日も最後までお読みいただき、ありがとうございました。
スキ、フォロー、コメントをいただければ、大変励みになります。
よろしくお願いいたします。
★☆★☆★☆★☆★☆★☆★☆★


いいなと思ったら応援しよう!

TME
このようなコンテンツをさらに読んでみたいと思っていただけましたら、よろしければ応援お願いします!