DeepSeek-R1 関連の話題、プロバイダランキングの変動など
はじめに
DeepSeek回りの話題が早いテンポで色々出てるので、今回は、Dify関連と分けて、まずはR1関連のトピックスを羅列してみます。
Cerebrasが、1/31にDeepSeek-R1 70Bの提供を始めるとアナウンスしました。
同社は、独自の高速AIプロセッサを持ちます。さらに、100%Cerebras米国データセンターで稼働とのことです。
高速という観点では、1/31のArtificial Analysisのプロバイダランキングに、同じくDeepSeek-R1(以下、R1と記載)のプロバイダとして初登場のReplicateが、$10という強気の価格設定で登場しています。
Cerebrasの価格次第かもしれませんが、ブレークすると思います。
R1関連のプロバイダも増えています。1/31で10社がランキングに登場しています。新たに、Microsoftも加わりました。また、これらのプロバイダは、DeepSeek自身も含め、アクセスの集中などで稼働状況が大きく変わっているようです。この状況は、例えば、OpenRouterのHPなどで概要を見ることができます。
関連の話題等
Cerebrasが新たに参入
CerebrasがXに連続投稿をしています。
同社は、独自の超高速AIプロセッサをリリースしており、プロバイダとして超高速が売りです。
ただ、これまでは、取り扱えるのがオープンタイプのLLM中心ということもあり、その高速性能があまり生かされているとは言えませんでした。
今回、オープンタイプでトップランクのR1が出現したことにより、同社の存在感が大幅に増すと予想されます。
またオープンの利点を生かして下記をアピールしています。
- 100%Cerebras米国データセンターで稼働
これは現在、危惧されているデータ漏洩への対応を示していると言えます。
この分野の競合と目されるGroqや、SambaNovaなどの今後の動きが注目されます。
なお、Groqは、同社のHPのプレイグラウンドで、deepseek-r1-distill-llarma-70Bを試用することができます。
CerebrasのXへの投稿記事
以下、引用
DeepSeek R1 70B が Cerebras に登場しました!
- 1,500トークン/秒で瞬時に推論
- GPUより57倍高速
- GPT-4oやo1-miniよりも高いモデル精度
- 100%Cerebras米国データセンターで稼働
Cerebras は世界最速の推論プラットフォームです。R1 70B を 1,500 トークン/秒以上で実行します。これは GPU ソリューションの 57 倍の速度です。
Cerebras DeepSeek R1 Llama-70B は現在http://cerebras.aiで利用可能で、一部のお客様には API プレビュー アクセスを提供しています。詳細については、ブログをご覧ください。
R1関連のプロバイダがランキングに増加
Artificial Analysisのプロバイダランキングのクオリティーのソート結果を示します。
赤枠で囲んだ10社が、1/31のランキングに載ったR1のプロバイダです。
中でも、マイクロソフトと、Replicateがみだちます。
R1プロバイダの価格の順番
これら10社を価格でソーティングしてみます。
このように、価格で、Microsoftは無料、Replicateは$10で、最も高額となっています。同社がこのように強気なのは、速度だと思われます。
R1プロバイダの速度の順番
Latencyでソーティングしてみます。
同社は、0.31secと圧倒的な速度を提供しています。
先ほどのCerebrasがどのようなカカウ体系を出してくるのかが注目されます。
なお、これらのリストを見ると、前回選定したTogetherAIは、いいところがあまりないように思えます。
各プロバイダの実際の状況
一方、OpenRouterのHPをみると、実際の稼働状況についての情報が、日々更新されています。
小さな赤枠でかこんだのが黄色なのは、アクセスが非常にしにくい状況にあるのを示します。DeepSeekに殺到しているのがわかります。
これらの数字は、先ほどのランキングとは異なっています。
ただ、どうやら言えそうなのは、高いところは、扱えるトークンの量が多いとか、トークンのスループットが早い、速度が早いなどの特徴があるようです。今後、安定してきたら、それをを鑑みてプロバイダを選択する必要がありそうです。
Qwen2.5-Maxがランキングに登場
発表されて間もないQwen2.5-Maxが、早くもArtificial Analysisのランキングに登場しました。なんでこんなに早く登場できるの?という感じもします。
1/31現在は、Qualityの値は同じですが、V3の下におかれているというアリババにとっては不本意な状況です。いずれ挽回するのではないかと思われます。現時点でのn数はとても少ないと思われますので。
このLLMは、マルチモーダルです。例えば静止画像は、こんな感じです。
これは、Qwen-Chatで生成しました。
初登場にしては、かなりいい出来です。昨日のJanusProに比べれば、格段にいいとも言えます。Flux1.1proクラス程度でしょうか。
なお、現在評価されつつあるのは、むしろ動画のようです。例えばこのようなXの投稿があります。
これらについては、実際に色々と試してみてから評価したいと思います。
以上、DeepSeek関連等の情報でした。