mlx-lm 0.12.0 で確認しました。
pythonのインターラクティブモードで、下記コマンドでチェック。
from mlx_lm.utils import generate_step
from mlx_lm import generate
help(generate)
help(generate_step)
generateについての説明
generate_stepについての説明
共通するのは、
repetition_penalty (float, optional) と
repetition_context_size (int, optional) が追加されて、
generation_stepの方は加えて、
top_p (float, optional) が追加されています。
top_p と temperature はどっちかを一定にして、片方だけを調整することがお勧めだということをどっかで読んで覚えがあります。
いずれも確率を指定しているので、0~1の間の値だと自分は理解しています。
あと、end of tokenの指定も覚え書きとしてサンプルをメモ
もうひとつおまけ
下で確認
import mlx_lm
help(mlx_lm)
#AI #AIとやってみた #やってみた #大規模言語モデル #mlx #MacbookPro #ローカルLLM