Google Colab で Gemma 2 Baku 2B を試す
「Google Colab」で「Gemma 2 Baku 2B」を試したのでまとめました。
1. Gemma 2 Baku 2B
「Gemma 2 Baku 2B」は、「Gemma 2 2B」を「Chat Vector」と「ORPO」(Odds Ratio Preference Optimization) を使用してファインチューニングしたモデルです。「gemma-2 chat形式」に準拠しています。
2. Colabでの実行
Colabでの実行手順は、次のとおりです。
(1) パッケージのインストール。
# パッケージのインストール
!pip install transformers accelerate
(2) トークナイザーとモデルの準備。
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# トークナイザーとモデルの準備
tokenizer = AutoTokenizer.from_pretrained(
"rinna/gemma-2-baku-2b-it"
)
model = AutoModelForCausalLM.from_pretrained(
"rinna/gemma-2-baku-2b-it",
device_map="cuda",
torch_dtype=torch.bfloat16,
attn_implementation="eager",
)
(3) 推論の実行。
# メッセージの準備
chat = [
{ "role": "user", "content": "まどか☆マギカでは誰が一番かわいい?" },
]
prompt = tokenizer.apply_chat_template(chat, tokenize=False, add_generation_prompt=True)
# 推論の実行
input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt").to(model.device)
outputs = model.generate(
input_ids,
max_new_tokens=512,
)
response = tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True)
print(response)
この記事が気に入ったらサポートをしてみませんか?