![見出し画像](https://assets.st-note.com/production/uploads/images/111300226/rectangle_large_type_2_e07964ed5a9e4044614320f23dc3ba28.png?width=1200)
Lora覚書
インストール方法
解説動画
num_cpu_threads_per_process
=Train batch size(同時学習枚数)=1枚の学習回数=フォルダの頭につけてる数字
たぶん小さい方がいい品質のよいLoraは1-3くらいで相手のスペックもわからないので小さい方がよさそう。
bach per epoch
画像枚数×同時学習枚数/バッチサイズ
350-500くらいが適当かもしれない。試してないけど。
step数
バッチサイズで割らずに4000-7000くらい?
コピー機LoRA
LoRAは元モデルとの差分を煮詰めて出来る?みたいなので、1枚目を完璧にコピーする過学習モデルを作った後に画像を加工してコピー機モデルで学習を行うと差分がとれるらしい。
ほんわりとしたグロー効果をつけるLoRAを付けようとしたが失敗した。
加工後の画像をめちゃくちゃわかりやすくなるよう効果を強めにかけるべきだったのかもしれない。
元画像を強く認識した書き込み増・色味がオレンジ色に・目がやや大きく好みになる・手がやや下手になるLoraが完成した…なにこれ…
学習の道は険しい…
でも3060で10分もかからずできる学習×2回で出来るのでコピー機Loraの魅力はよくわかった。早いと調整も早く終わるね!
hypernetworkもやってみたが3時間半かかって微妙なものができるので、どうせ微妙なものできるならLoraでいいのかなあと思うなどした。