🌈MyShell社が開発したJetMoE-8Bは、Metaの「Llama 2-7B」を上回る性能を持ちながら、学習コストはわずか1万分の1以下

このモデルは公共データセットのみを使用し、オープンソースであり、民生グレードのGPUでも利用可能

また凄いのきたね

いいなと思ったら応援しよう!

冥王かぜ@心理Webライター
より質の高い知識をお届けするために 自己投資として使わせていただきます。 ありがとう。