Dify v0.14.2とAIランキングのLLMs---OpenAI vs Geminis、、DeepSeek-v3?
はじめに
昨年の12/23にDify v0.14.2がリリースされています。その前の0.14.1のリリース後、すぐにGoogleのGemini2.0Flashの新しいバージョンが出たので、早速それに対応してきました。Gemini 2.0 Flash -Thinking-exp-1219ですね。
既に、OpenAI のAPIは、o1とo1-mini等がつかえるようになっているので、Difyの最新版では、トップランキングのLLMをほぼ使えるという状況ということです。
そして、先月12月26日にDeepSeekの発表したDeepSeek-V3が年明けから話題となっています。
これは、オープンソースで、APIも超格安の料金体系なのに、Claude 3.5 Sonnet (Oct)とほぼ同等の性能を有する、との評価を得たからです。
また、1月1日に、プロバイダーのFireworksが、このDeepSeek-v3を使用可能になったことを発表しました。
そこで、DIfyのv0.14.2で、Fireworks経由で使えるようにできるか試してみました。すると、設定の、モデルを追加、でDeepSeek-v3を追加できたようなので、忘れないうちに手順等をメモしておこうと思います。
LLMs系のランキング状況等
Artificial AnalysisのLLMsランキング
まず、DepSeek-v3の位置付けを見ておきたいと思います。
1月3日のArtificial AnalysisのLLMsのランキングを示します。これは、総合能力順のソーティング結果です。
赤枠が、DeepSeek-v3です。一つ上に、オレンジ枠のClaude3.5sonnet(oct)がいます。ただし、能力の指標は、同じ80となっています。つまり同レベル。
ここで、緑で囲んだのは、私のDIfyで使えるLLMsです。AWS以外、ほぼ全てが使える状況です。もっとも、いくつかは、プロバイダ経由での契約です。
私の場合、現時点では、ちょっとずつ使えればいいので、プロバイダ契約の方が便利です。
Chatbot Arena LLM Leaderboard
ちなみに、もう一つのランキングであるChatbot Arena LLM Leaderboardの状況を示します。
こちらでは、まだDeepSeek-v3は登場していません。一つ前のv2.5が同列8位となっています。おそらく登場すれば、単独7位となるように思います。
Language Model API Providersランキング
Artificial AnalysisのAPIプロバイダのランキングを示します。
昨日の1月2日には、リストになかったFireworksが、1月3日には登場しました。これらプロバイダーは、Metaなどのオープンソース系のLLMを扱うことが多いので、性能のランキングでは、Qwen系ぐらいであまり上位に出てきませんでした。速度ランキングにすると結構上位に出てくるのですがね。
そう言った意味でも、今回のDeepSeek-v3の登場は、画期的と言えそうです。Groqなどが対応したら、相当すごいことになるかもしれません。
DeepSeek-v3のプロバイダリスト
ちなみに、OpenRouterのHPに、1月3日時点で、DeepSeek-v3のAPIを取り扱っているプロバイダのリストがありました。
これを見ると、DeepSeek自身も含め、一長一短のようです。DIfyを基準にすれば、DeepSeekかFireworksの2択となります。
先ほど述べた理由で、私の場合、DeepSeek系は今の所プロバイダ経由にしています。
ちなみに、今回気づいたのですが、OpenRouterというところは、APIベンダーの各プロバイダーと契約してユーザーとの間に立つ、というビジネスモデルのようです。
FIreworksへのDeepSeek-v3の登録
さて、本題のDIfyでの設定です。
設定画面
まず、Difyのどの画面にもある右上に注目です。
赤の四角で囲んだ、逆三角形をクリックします。
すると、下記の画面がプルダウン表示されます。
ここで、設定、をクリックします。
モデルプロバイダーの選択
これは、先ほ。どクリックした、設定、の画面です。
ここで、左側の、モデルプロバイダーをクリックします。
すると、今使えるプロバイダーが出てきます。
私の場合、既にFireworksにAPIを入力して、使える状態になっているので、このような表示となります。
初めての場合は、DIfyのマニュアル等を参照して、まずは、APIをゲットして、登録してください。
ちなみに、Fireworksは、高速対応等、いいプロバイダーではないかと思います。おすすめです。ランキングでも、各APIで比較的上位にいることが多いように思います。
それ以外、Graq, Fal, together, などもいいのではないか、と考えています。
モデルを追加
右側の、モデルを追加、をクリックします。
参考画面
以下の設定にあたっては、FireworksのHPの、DeepSeek-v3のところにある下記のプログラム例などを参考としました。
設定画面
最初のURLについては、上記で、黄色で囲んだ部分か、その下の赤の部分か、よくわかりませんでしたが、まずは、赤を選んでみました。
動作しているようなので、変えてません。
それと、tokenを上記の最大値で入力したのですが、結果、4096とLLMの画面で表示されました。これまた、動作原理等不明です。
真ん中の、短い枠の2つは、モデル名を中国語でいれるか、英語で入れるか、という意味のようです。中国名がわからないので、どちらも英語名を入れました。これは、Fireworksの表記ルールに従っています。
どちらも、deepseek-v3、でいいようです。
APIキーは各自のをご使用ください。
ともあれ、これで、Fireworks経由で、DeepSeek-v3が使えるようになりました。
実際に、フローを組み、プロンプトもいれて、動作は確認済みです。
今回は、以上です。