Google Colab で LLM-jp-3 1.8B を試す
「Google Colab」で「LLM-jp-3 1.8B」を試したので、まとめました。
1. LLM-jp-3
「LLM-jp-3」は、国立情報学研究所の大規模言語モデル研究開発センターによって開発されたLLMです。「LLM-jp-3 172B」の事前学習に使用しているコーパスで学習したモデルになります。各モデルは日本語・英語・ソースコードを重点的に学習しています。「Apache License 2.0」で提供されています。
2. Colabでの実行
Colabでの実行手順は、次のとおりです。
(1) パッケージのインストール。
# パッケージのインストール
!pip install transformers accelerate flash-attn
(2) トークナイザーとモデルの準備。
今回は「llm-jp/llm-jp-3-1.8b-instruct」を使います。
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
# トークナイザーとモデルの準備
tokenizer = AutoTokenizer.from_pretrained(
"llm-jp/llm-jp-3-1.8b-instruct"
)
model = AutoModelForCausalLM.from_pretrained(
"llm-jp/llm-jp-3-1.8b-instruct",
device_map="auto",
torch_dtype=torch.bfloat16
)
(3) 推論の実行。
# メッセージの準備
chat = [
{"role": "user", "content": "まどか☆マギカでは誰が一番かわいい?"},
]
# 推論の実行
tokenized_input = tokenizer.apply_chat_template(chat, add_generation_prompt=True, tokenize=True, return_tensors="pt").to(model.device)
with torch.no_grad():
output = model.generate(
tokenized_input,
max_new_tokens=512,
do_sample=True,
top_p=0.95,
temperature=0.1,
repetition_penalty=1.05,
)[0]
print(tokenizer.decode(output))
関連
この記事が気に入ったらサポートをしてみませんか?