- 運営しているクリエイター
#LLM
bitnet.cpp を試す
tl;drMicrosoft が 1-bit LLM 推論フレームワーク bitnet.cpp を公開したよ
llama.cpp をベースにした CPU 推論対応フレームワーク
8B パラメータの 1.58-bit 量子化モデルをシングル CPU で実行可能だよ
macOS 環境におけるセットアップと実行手順を書いたよ(uv で実行確認)
英語での推論は良さそうだけど、日本語出力はちょっと
【3D×LLMメモ2】Blenderの操作をLLMに手伝ってもらう(VRMの修正)
以下の記事で、モーションの更新を試したが、モデル自体の更新が可能か挑戦する。
環境構築
VRM修正用のスクリプトの作成
以下のスクリプトをBlender上で実行し、VRMが保持しているオブジェクトの情報を抽出する。
import bpyimport osoutput_folder = r"C:\Users\XXXXX\20241005_blender"output_file = os.pa
【3D×LLMメモ1】Blenderの操作をLLMに手伝ってもらう(VRMAの修正)
VRMAをLLMが出力したスクリプトを使って、Blenderで修正することができたので、その手順を紹介する。
今回は指の修正しただけなので、全身の修正などを行う場合は、調整に時間がかかると思われる。
Blenderの環境構築
Blenderをダウンロードする。(できればv4.2.0以上)
アドオンをダウンロードするため、以下のページを表示する。
以下のようなページが表示される。
少し画
Google Colab で Gemma 2 JPN を試す
「Google Colab」で「Gemma 2 JPN」を試したのでまとめました。
1. Gemma 2 JPN「Gemma 2 JPN」は、「Gemma 2 2B」を日本語テキストに合わせてファインチューニングしたモデルです。「Gemma 2」での英語のみのクエリと同じレベルのパフォーマンスで日本語をサポートします。
2. Colabでの実行Colabでの実行手順は、次のとおりです。
(1