#大規模言語モデル
Qwen2.5-Maxとは?大規模MoEモデルの進化と可能性
カテゴリ:LLM・AI・テクノロジー
読む時間:約5分
以下の記事が気になったので簡単にまとめてみました
概要Alibaba Cloudが開発した最新の大規模Mixture-of-Experts(MoE)モデル**「Qwen2.5-Max」が公開されました。本モデルは20兆以上のトークン**を使って事前学習され、教師あり微調整(SFT)と人間のフィードバックによる強化学習(RLHF)を経ていま
カテゴリ:LLM・AI・テクノロジー
読む時間:約5分
以下の記事が気になったので簡単にまとめてみました
概要Alibaba Cloudが開発した最新の大規模Mixture-of-Experts(MoE)モデル**「Qwen2.5-Max」が公開されました。本モデルは20兆以上のトークン**を使って事前学習され、教師あり微調整(SFT)と人間のフィードバックによる強化学習(RLHF)を経ていま