ログイン
会員登録
MixtureofExperts
書いてみる
関連タグ
#AI (341,845)
#LLM (7,300)
#MOE (164)
#ChatGPT (103,055)
#大規模言語モデル (2,806)
#生成AI (53,774)
人気
急上昇
新着
定番
有料のみ
7件
人気の記事一覧
最新AI「MiniMax Text」で長文処理が超簡単に!✨400万トークン対応で、長い論文やデータ分析もラクラク💖Lightning Attentionで高速&低コスト、GPT-4o並みの性能もスゴイ
葉加瀬あい (AI-Hakase)🎈動画&Note でAI解説🎥https://x.gd/F2Mvl
2週間前
128
【OpenAI、食われる?】DeepSeek-R1がすごすぎる!✨強化学習+思考プロセス付きの推論力がすごいLLMが登場!OpenAIより90%も安いのに高性能😍料金体系や使い方まで徹底解説💖
葉加瀬あい (AI-Hakase)🎈動画&Note でAI解説🎥https://x.gd/F2Mvl
13日前
112
Mergekitを使ったMoE(Mixture of Experts)作成のテクニック
はち
1年前
12
Google Colab:Mergekitによる日本語モデルMoEの作成
はち
1年前
14
混合専門家モデル(MoE):トランスフォーマーの効率とスマートな進化
0xpanda alpha lab
1年前
8
OpenAIのGPT-4のアーキテクチャへの仮説:Mixture Of Experts(MoE)による拡張性の高いLLM
鈴木いっぺい (Ippei Suzuki)
1年前
6
初心者向け解説:LLMを支えるMixture of Experts技術
Koboichi
1か月前