sd-scriptsのオプションをmarkdownテーブルにしてみました
python sdxl_train.py --helpの出力をgeminiで処理しました。
markdownビューワーで見てネ(自分はvscodeでみてます)。
※geminiで処理したので間違ってる部分があったらゴメンネ。
| オプション | 日本語 | 英語 |
|---|---|---|
| -h, --help | ヘルプメッセージを表示して終了 | show this help message and exit |
| --console_log_level {DEBUG, INFO, WARNING, ERROR, CRITICAL} | ログレベルを設定する。デフォルトはINFO | Set the logging level, default is INFO |
| --console_log_file CONSOLE_LOG_FILE | 標準エラー出力ではなくファイルにログを出力する | Log to a file instead of stderr |
| --console_log_simple | シンプルなログ出力 | Simple log output |
| --v2 | Stable Diffusion 2.0のモデルを読み込む | load Stable Diffusion v2.0 model |
| --v_parameterization | v-parameterization学習を有効にする | enable v-parameterization training |
| --pretrained_model_name_or_path PRETRAINED_MODEL_NAME_OR_PATH | 学習元モデル、Diffusers形式モデルのディレクトリまたはStableDiffusionのckptファイル | pretrained model to train, directory to Diffusers model or StableDiffusion checkpoint |
| --tokenizer_cache_dir TOKENIZER_CACHE_DIR | Tokenizerをキャッシュするディレクトリ(ネット接続なしでの学習のため) | directory for caching Tokenizer (for offline training) |
| --train_data_dir TRAIN_DATA_DIR | 学習画像データのディレクトリ | directory for train images |
| --cache_info | メタ情報(キャプションとサイズ)をキャッシュしてデータセット読み込みを高速化する。DreamBooth方式のみ有効 | cache meta information (caption and image size) for faster dataset loading. only available for DreamBooth |
| --shuffle_caption | 区切られたcaptionの各要素をshuffleする | shuffle separated caption |
| --caption_separator CAPTION_SEPARATOR | captionの区切り文字 | separator for caption |
| --caption_extension CAPTION_EXTENSION | 読み込むcaptionファイルの拡張子 | extension of caption files |
| --caption_extention CAPTION_EXTENTION | 読み込むcaptionファイルの拡張子(スペルミスを残してあります) | extension of caption files (backward compatibility) |
| --keep_tokens KEEP_TOKENS | captionのシャッフル時に、先頭からこの個数のトークンをシャッフルしないで残す(トークンはカンマ区切りの各部分を意味する) | keep heading N tokens when shuffling caption tokens (token means comma separated strings) |
| --keep_tokens_separator KEEP_TOKENS_SEPARATOR | captionを固定部分と可変部分に分けるためのカスタム区切り文字。この区切り文字より前のトークンはシャッフルされない。指定しない場合、'--keep_tokens'が固定部分のトークン数として使用される。 | A custom separator to divide the caption into fixed and flexible parts. Tokens before this separator will not be shuffled. If not specified, '--keep_tokens' will be used to determine the fixed number of tokens. |
| --secondary_separator SECONDARY_SEPARATOR | captionのセカンダリ区切り文字。この区切り文字はcaptionのドロップやシャッフル後にcaption_separatorに置き換えられる | a secondary separator for caption. This separator is replaced to caption_separator after dropping/shuffling caption |
| --enable_wildcard | captionのワイルドカードを有効にする(例:'{image\|picture\|rendition}') | enable wildcard for caption (e.g. '{image\|picture\|rendition}') |
| --caption_prefix CAPTION_PREFIX | captionのテキストの先頭に付ける文字列 | prefix for caption text |
| --caption_suffix CAPTION_SUFFIX | captionのテキストの末尾に付ける文字列 | suffix for caption text |
| --color_aug | 学習時に色合いのaugmentationを有効にする | enable weak color augmentation |
| --flip_aug | 学習時に左右反転のaugmentationを有効にする | enable horizontal flip augmentation |
| --face_crop_aug_range FACE_CROP_AUG_RANGE | 学習時に顔を中心とした切り出しaugmentationを有効にするときは倍率を指定する(例:2.0, 4.0) | enable face-centered crop augmentation and its range (e.g. 2.0, 4.0) |
| --random_crop | ランダムな切り出しを有効にする(顔を中心としたaugmentationを行うときに画風の学習用に指定する) | enable random crop (for style training in face-centered crop augmentation) |
| --debug_dataset | デバッグ用に学習データを画面表示する(学習は行わない) | show images for debugging (do not train) |
| --resolution RESOLUTION | 学習時の画像解像度('サイズ'指定、または'幅, 高さ'指定) | resolution in training ('size' or 'width, height') |
| --cache_latents | VRAM削減のためにlatentをメインメモリにcacheする(augmentationは使用不可) | cache latents to main memory to reduce VRAM usage (augmentations must be disabled) |
| --vae_batch_size VAE_BATCH_SIZE | latentのcache時のバッチサイズ | batch size for caching latents |
| --cache_latents_to_disk | VRAM削減のためにlatentをディスクにcacheする(augmentationは使用不可) | cache latents to disk to reduce VRAM usage (augmentations must be disabled) |
| --enable_bucket | 複数解像度学習のためのbucketを有効にする | enable buckets for multi aspect ratio training |
| --min_bucket_reso MIN_BUCKET_RESO | bucketの最小解像度 | minimum resolution for buckets |
| --max_bucket_reso MAX_BUCKET_RESO | bucketの最大解像度 | maximum resolution for buckets |
| --bucket_reso_steps BUCKET_RESO_STEPS | bucketの解像度の単位、8で割り切れる値を推奨します | steps of resolution for buckets, divisible by 8 is recommended |
| --bucket_no_upscale | 画像を拡大せずbucketを作成します | make bucket for each image without upscaling |
| --token_warmup_min TOKEN_WARMUP_MIN | タグ数をN個から増やしながら学習する | start learning at N tags (token means comma separated strinfloatgs) |
| --token_warmup_step TOKEN_WARMUP_STEP | N(N<1ならNmax_train_steps)ステップでタグ長が最大になる。デフォルトは0(最初から最大) | tag length reaches maximum on N steps (or Nmax_train_steps if N<1) |
| --dataset_class DATASET_CLASS | 任意のデータセットを用いるときのクラス名 (package.module.Class) | dataset class for arbitrary dataset (package.module.Class) |
| --caption_dropout_rate CAPTION_DROPOUT_RATE | captionをdropoutする割合 | Rate out dropout caption(0.01.0) |
| --caption_dropout_every_n_epochs CAPTION_DROPOUT_EVERY_N_EPOCHS | captionを指定エポックごとにdropoutする | Dropout all captions every N epochs |
| --caption_tag_dropout_rate CAPTION_TAG_DROPOUT_RATE | カンマ区切りのタグをdropoutする割合 | Rate out dropout comma separated tokens(0.01.0) |
| --reg_data_dir REG_DATA_DIR | 正則化画像データのディレクトリ | directory for regularization images |
| --in_json IN_JSON | データセットのmetadataのjsonファイル | json metadata for dataset |
| --dataset_repeats DATASET_REPEATS | キャプションでの学習時にデータセットを繰り返す回数 | repeat dataset when training with captions |
| --output_dir OUTPUT_DIR | 学習後のモデル出力先ディレクトリ | directory to output trained model |
| --output_name OUTPUT_NAME | 学習後のモデルの拡張子を除くファイル名 | base name of trained model file |
| --huggingface_repo_id HUGGINGFACE_REPO_ID | huggingfaceにアップロードするリポジトリ名 | huggingface repo name to upload |
| --huggingface_repo_type HUGGINGFACE_REPO_TYPE | huggingfaceにアップロードするリポジトリの種類 | huggingface repo type to upload |
| --huggingface_path_in_repo HUGGINGFACE_PATH_IN_REPO | huggingfaceにアップロードするファイルのパス | huggingface model path to upload files |
| --huggingface_token HUGGINGFACE_TOKEN | huggingfaceのトークン | huggingface token |
| --huggingface_repo_visibility HUGGINGFACE_REPO_VISIBILITY | huggingfaceにアップロードするリポジトリの公開設定('public'で公開、'private'またはNoneで非公開) | huggingface repository visibility ('public' for public, 'private' or None for private) |
| --save_state_to_huggingface | huggingfaceにstateを保存する | save state to huggingface |
| --resume_from_huggingface | huggingfaceから学習を再開する(例: --resume {repo_id}/{path_in_repo}:{revision}:{repo_type}) | resume from huggingface (ex: --resume {repo_id}/{path_in_repo}:{revision}:{repo_type}) |
| --async_upload | huggingfaceに非同期でアップロードする | upload to huggingface asynchronously |
| --save_precision {None, float, fp16, bf16} | 保存時に精度を変更して保存する | precision in saving |
| --save_every_n_epochs SAVE_EVERY_N_EPOCHS | 学習中のモデルを指定エポックごとに保存する | save checkpoint every N epochs |
| --save_every_n_steps SAVE_EVERY_N_STEPS | 学習中のモデルを指定ステップごとに保存する | save checkpoint every N steps |
| --save_n_epoch_ratio SAVE_N_EPOCH_RATIO | 学習中のモデルを指定のエポック割合で保存する(たとえば5を指定すると最低5個のファイルが保存される) | save checkpoint N epoch ratio (for example 5 means save at least 5 files total) |
| --save_last_n_epochs SAVE_LAST_N_EPOCHS | 指定エポックごとにモデルを保存するとき最大Nエポック保存する(古いチェックポイントは削除する) | save last N checkpoints when saving every N epochs (remove older checkpoints) |
| --save_last_n_epochs_state SAVE_LAST_N_EPOCHS_STATE | 最大Nエポックstateを保存する(--save_last_n_epochsの指定を上書きする) | save last N checkpoints of state (overrides the value of --save_last_n_epochs) |
| --save_last_n_steps SAVE_LAST_N_STEPS | 指定ステップごとにモデルを保存するとき、このステップ数経過するまで保存する(このステップ数経過したら削除する) | save checkpoints until N steps elapsed (remove older checkpoints if N steps elapsed) |
| --save_last_n_steps_state SAVE_LAST_N_STEPS_STATE | 指定ステップごとにstateを保存するとき、このステップ数経過するまで保存する(このステップ数経過したら削除 する。--save_last_n_stepsを上書きする) | save states until N steps elapsed (remove older states if N steps elapsed, overrides --save_last_n_steps) |
| --save_state | optimizerなど学習状態も含めたstateをモデル保存時に追加で保存する | save training state additionally (including optimizer states etc.) when saving model |
| --save_state_on_train_end | optimizerなど学習状態も含めたstateを学習完了時に保存する | save training state (including optimizer states etc.) on train end |
| --resume RESUME | 学習再開するモデルのstate | saved state to resume training |
| --train_batch_size TRAIN_BATCH_SIZE | 学習時のバッチサイズ | batch size for training |
| --max_token_length {None, 150, 225} | text encoderのトークンの最大長(未指定で75、150または225が指定可) | max token length of text encoder (default for 75, 150 or 225) |
| --mem_eff_attn | CrossAttentionに省メモリ版attentionを使う | use memory efficient attention for CrossAttention |
| --torch_compile | torch.compile を使う | use torch.compile (requires PyTorch 2.0) |
| --dynamo_backend {eager, aot_eager, inductor, aot_ts_nvfuser, nvprims_nvfuser, cudagraphs, ofi, fx2trt, onnxrt} | dynamoのbackendの種類(デフォルトは inductor) | dynamo backend type (default is inductor) |
| --xformers | CrossAttentionにxformersを使う | use xformers for CrossAttention |
| --sdpa | CrossAttentionにsdpaを使う(PyTorch 2.0が必要) | use sdpa for CrossAttention (requires PyTorch 2.0) |
| --vae VAE | VAEを入れ替える場合、VAEのcheckpointファイルまたはディレクトリ | path to checkpoint of vae to replace |
| --max_train_steps MAX_TRAIN_STEPS | 学習ステップ数 | training steps |
| --max_train_epochs MAX_TRAIN_EPOCHS | 学習エポック数(max_train_stepsを上書きします) | training epochs (overrides max_train_steps) |
| --max_data_loader_n_workers MAX_DATA_LOADER_N_WORKERS | DataLoaderの最大プロセス数(小さい値ではメインメモリの使用量が減りエポック間の待ち時間が減りますが、データ読み込みは遅くなります) | max num workers for DataLoader (lower is less main RAM usage, faster epoch start and slower data loading) |
| --persistent_data_loader_workers | DataLoader のワーカーを持続させる (エポック間の時間差を少なくするのに有効だが、より多くのメモリを消費する可能性 がある) | persistent DataLoader workers (useful for reduce time gap between epoch, but may use more memory) |
| --seed SEED | 学習時の乱数のseed | random seed for training |
| --gradient_checkpointing | grandient checkpointingを有効にする | enable gradient checkpointing |
| --gradient_accumulation_steps GRADIENT_ACCUMULATION_STEPS | 学習時に逆伝播をする前に勾配を合計するステップ数 | Number of updates steps to accumulate before performing a backward/update pass |
| --mixed_precision {no, fp16, bf16} | 混合精度を使う場合、その精度 | use mixed precision |
| --full_fp16 | 勾配も含めてfp16で学習する | fp16 training including gradients |
| --full_bf16 | 勾配も含めてbf16で学習する | bf16 training including gradients |
| --fp8_base | base modelにfp8を使う | use fp8 for base model |
| --ddp_timeout DDP_TIMEOUT | DDPのタイムアウト(分、Noneでaccelerateのデフォルト) | DDP timeout (min, None for default of accelerate) |
| --ddp_gradient_as_bucket_view | DDPでgradient_as_bucket_viewを有効にする | enable gradient_as_bucket_view for DDP |
| --ddp_static_graph | DDPでstatic_graphを有効にする | enable static_graph for DDP |
| --clip_skip CLIP_SKIP | text encoderの後ろからn番目の層の出力を用いる(nは1以上) | use output of nth layer from back of text encoder (n>=1) |
| --logging_dir LOGGING_DIR | ログ出力を有効にしてこのディレクトリにTensorBoard用のログを出力する | enable logging and output TensorBoard log to this directory |
| --log_with {tensorboard, wandb, all} | ログ出力に使用するツール (allを指定するとTensorBoardとWandBの両方が使用される) | what logging tool(s) to use (if 'all', TensorBoard and WandB are both used) |
| --log_prefix LOG_PREFIX | ログディレクトリ名の先頭に追加する文字列 | add prefix for each log directory |
| --log_tracker_name LOG_TRACKER_NAME | ログ出力に使用するtrackerの名前、省略時はスクリプトごとのデフォルト名 | name of tracker to use for logging, default is script-specific default name |
| --wandb_run_name WANDB_RUN_NAME | wandb ログに表示される特定の実行の名前 | The name of the specific wandb session |
| --log_tracker_config LOG_TRACKER_CONFIG | ログ出力に使用するtrackerの設定ファイルのパス | path to tracker config file to use for logging |
| --wandb_api_key WANDB_API_KEY | WandB APIキーを指定して学習開始前にログインする(オプション) | specify WandB API key to log in before starting training (optional). |
| --noise_offset NOISE_OFFSET | Noise offsetを有効にしてこの値を設定する(有効にする場合は0.1程度を推奨) | enable noise offset with this value (if enabled, around 0.1 is recommended) |
| --noise_offset_random_strength | noise offsetにおいて、0からnoise_offsetの間でランダムな強度を使用します。 | use random strength between 0noise_offset for noise offset. |
| --multires_noise_iterations MULTIRES_NOISE_ITERATIONS | Multires noiseを有効にしてこのイテレーション数を設定する(有効にする場合は6-10程度を推奨) | enable multires noise with this number of iterations (if enabled, around 6-10 is recommended) |
| --ip_noise_gamma IP_NOISE_GAMMA | input perturbation noiseを有効にする。正則化に使用される。推奨値: 0.1程度 (arxiv.org/abs/2301.11706 より) | enable input perturbation noise. used for regularization. recommended value: around 0.1 (from arxiv.org/abs/2301.11706) |
| --ip_noise_gamma_random_strength | input perturbation noiseにおいて、0からip_noise_gammaの間でランダムな強度を使用します。 | Use random strength between 0ip_noise_gamma for input perturbation noise. |
| --multires_noise_discount MULTIRES_NOISE_DISCOUNT | Multires noiseのdiscount値を設定する(--multires_noise_iterations指定時のみ有効) | set discount value for multires noise (has no effect without --multires_noise_iterations) |
| --adaptive_noise_scale ADAPTIVE_NOISE_SCALE | latentの平均値の絶対値 * この値をnoise_offsetに加算する(Noneの場合は無効、デフォルト) | add latent mean absolute value * this value to noise_offset (disabled if None, default) |
| --zero_terminal_snr | noise schedulerのbetasを修正して、zero terminal SNRを強制する | fix noise scheduler betas to enforce zero terminal SNR |
| --min_timestep MIN_TIMESTEP | U-Net学習時のtime stepの最小値を設定する(0999で指定、省略時はデフォルト値(0)) | set minimum time step for U-Net training (0999, default is 0) |
| --max_timestep MAX_TIMESTEP | U-Net学習時のtime stepの最大値を設定する(11000で指定、省略時はデフォルト値(1000)) | set maximum time step for U-Net training (11000, default is 1000) |
| --loss_type {l2, huber, smooth_l1} | 使用する損失関数の種類(L2、Huber、またはsmooth L1)、デフォルトはL2 | The type of loss function to use (L2, Huber, or smooth L1), default is L2 |
| --huber_schedule {constant, exponential, snr} | Huber損失のスケジューリング方法(constant、exponential、またはSNRベース)。loss_typeが'huber'または'smooth_l1'の場合に有効、デフォルトは snr | The scheduling method for Huber loss (constant, exponential, or SNR-based). Only used when loss_type is 'huber' or 'smooth_l1'. default is snr |
| --huber_c HUBER_C | Huber損失のパラメータ。loss_typeがhuberまたはsmooth l1の場合に有効。デフォルト は0.1 | The huber loss parameter. Only used if one of the huber loss modes (huber or smooth l1) is selected with loss_type. default is 0.1 |
| --lowram | メインメモリが少ない環境向け最適化を有効にする。たとえばVRAMにモデルを読み込む等(ColabやKaggleなどRAMに比べてVRAMが多い環境向け) | enable low RAM optimization. e.g. load models to VRAM instead of RAM (for machines which have bigger VRAM than RAM such as Colab and Kaggle) |
| --highvram | VRAMが少ない環境向け最適化を無効にする。たとえば各latentのキャッシュ後のCUDAキャッシュクリアを行わない等(VRAMが多い環境向け) | disable low VRAM optimization. e.g. do not clear CUDA cache after each latent caching (for machines which have bigger VRAM) |
| --sample_every_n_steps SAMPLE_EVERY_N_STEPS | 学習中のモデルで指定ステップごとにサンプル出力する | generate sample images every N steps |
| --sample_at_first | 学習前にサンプル出力する | generate sample images before training |
| --sample_every_n_epochs SAMPLE_EVERY_N_EPOCHS | 学習中のモデルで指定エポックごとにサンプル出力する(ステップ数指定を上書きします) | generate sample images every N epochs (overwrites n_steps) |
| --sample_prompts SAMPLE_PROMPTS | 学習中モデルのサンプル出力用プロンプトのファイル | file for prompts to generate sample images |
| --sample_sampler {ddim, pndm, lms, euler, euler_a, heun, dpm_2, dpm_2_a, dpmsolver, dpmsolver++, dpmsingle, k_lms, k_euler, k_euler_a, k_dpm_2, k_dpm_2_a} | サンプル出力時のサンプラー(スケジューラ)の種類 | sampler (scheduler) type for sample images |
| --config_file CONFIG_FILE | ハイパーパラメータを引数ではなく.tomlファイルで渡す | using .toml instead of args to pass hyperparameter |
| --output_config | 引数を.tomlファイルに出力する | output command line args to given .toml file |
| --metadata_title METADATA_TITLE | メタデータに書き込まれるモデルタイトル、省略時はoutput_name | title for model metadata (default is output_name) |
| --metadata_author METADATA_AUTHOR | メタデータに書き込まれるモデル作者名 | author name for model metadata |
| --metadata_description METADATA_DESCRIPTION | メタデータに書き込まれるモデル説明 | description for model metadata |
| --metadata_license METADATA_LICENSE | メタデータに書き込まれるモデルライセンス | license for model metadata |
| --metadata_tags METADATA_TAGS | メタデータに書き込まれるモデルタグ、カンマ区切り | tags for model metadata, separated by comma |
| --prior_loss_weight PRIOR_LOSS_WEIGHT | 正則化画像のlossの重み | loss weight for regularization images |
| --conditioning_data_dir CONDITIONING_DATA_DIR | 条件付けデータのディレクトリ | conditioning data directory |
| --masked_loss | 損失計算時にマスクを適用する。datasetにはconditioning_data_dirが必要 | apply mask for calculating loss. conditioning_data_dir is required for dataset. |
| --deepspeed | deepspeed trainingを有効にする | enable deepspeed training |
| --zero_stage {0, 1, 2, 3} | 利用可能なオプションは0, 1, 2, 3です。 | Possible options are 0, 1, 2, 3. |
| --offload_optimizer_device {None, cpu, nvme} | 利用可能なオプションはnone\|cpu\|nvmeです。ZeROステージ2と3でのみ適用可能です。 | Possible options are none\|cpu\|nvme. Only applicable with ZeRO Stages 2 and 3. |
| --offload_optimizer_nvme_path OFFLOAD_OPTIMIZER_NVME_PATH | 利用可能なオプションは/nvme\|/local_nvmeです。ZeROステージ3でのみ適用可能です。 | Possible options are /nvme\|/local_nvme. Only applicable with ZeRO Stage 3. |
| --offload_param_device {None, cpu, nvme} | 利用可能なオプションはnone\|cpu\|nvmeです。ZeROステージ3でのみ適用可能です。 | Possible options are none\|cpu\|nvme. Only applicable with ZeRO Stage 3. |
| --offload_param_nvme_path OFFLOAD_PARAM_NVME_PATH | 利用可能なオプションは/nvme\|/local_nvmeです。ZeROステージ3でのみ適用可能です。 | Possible options are /nvme\|/local_nvme. Only applicable with ZeRO Stage 3. |
| --zero3_init_flag | 大規模モデル構築のためのdeepspeed.zero.Initを有効にするかどうかを示すフラグです。ZeRO Stage-3でのみ適用可能です。 | Flag to indicate whether to enable deepspeed.zero.Init for constructing massive models.Only applicable with ZeRO Stage-3. |
| --zero3_save_16bit_model | 16ビットモデルを保存するかどうかを示すフラグです。ZeRO Stage-3でのみ適用可能です。 | Flag to indicate whether to save 16-bit model. Only applicable with ZeRO Stage-3. |
| --fp16_master_weights_and_gradients | fp16_master_and_gradientsは、オプティマイザの状態をfp32に保ちながら、fp16マスターと勾配を保持することをサポートする必要があります。 | fp16_master_and_gradients requires optimizer to support keeping fp16 master and gradients while keeping the optimizer states in fp32. |
| --optimizer_type OPTIMIZER_TYPE | オプティマイザの種類: AdamW (default), AdamW8bit, PagedAdamW, PagedAdamW8bit, PagedAdamW32bit, Lion8bit, PagedLion8bit, Lion, SGDNesterov, SGDNesterov8bit, DAdaptation(DAdaptAdamPreprint), DAdaptAdaGrad, DAdaptAdam, DAdaptAdan, DAdaptAdanIP, DAdaptLion, DAdaptSGD, AdaFactor | Optimizer to use |
| --use_8bit_adam | 8bit Adamオプティマイザを使う(bitsandbytesのインストールが必要) | use 8bit AdamW optimizer (requires bitsandbytes) |
| --use_lion_optimizer | Lionオプティマイザを使う( lion-pytorch のインストールが必要) | use Lion optimizer (requires lion-pytorch) |
| --learning_rate LEARNING_RATE | 学習率 | learning rate |
| --max_grad_norm MAX_GRAD_NORM | 勾配正規化の最大norm、0でclippingを行わない | Max gradient norm, 0 for no clipping |
| --optimizer_args [OPTIMIZER_ARGS ...] | オプティマイザの追加引数(例: "weight_decay=0.01 betas=0.9, 0.999 ...") | additional arguments for optimizer (like "weight_decay=0.01 betas=0.9, 0.999 ...") |
| --lr_scheduler_type LR_SCHEDULER_TYPE | 使用するスケジューラ | custom scheduler module |
| --lr_scheduler_args [LR_SCHEDULER_ARGS ...] | スケジューラの追加引数(例: "T_max=100") | additional arguments for scheduler (like "T_max=100") |
| --lr_scheduler LR_SCHEDULER | 学習率のスケジューラ: linear, cosine, cosine_with_restarts, polynomial, constant (default), constant_with_warmup, adafactor | scheduler to use for learning rate |
| --lr_warmup_steps LR_WARMUP_STEPS | 学習率のスケジューラをウォームアップするステップ数(デフォルト0) | Number of steps for the warmup in the lr scheduler (default is 0) |
| --lr_scheduler_num_cycles LR_SCHEDULER_NUM_CYCLES | cosine with restartsスケジューラでのリスタート回数 | Number of restarts for cosine scheduler with restarts |
| --lr_scheduler_power LR_SCHEDULER_POWER | polynomialスケジューラでのpolynomial power | Polynomial power for polynomial scheduler |
| --dataset_config DATASET_CONFIG | 詳細な設定用の設定ファイル | config file for detail settings |
| --min_snr_gamma MIN_SNR_GAMMA | 低いタイムステップでの高いlossに対して重みを減らすためのgamma値、低いほど効果が強く、論文では5が推奨 | gamma for reducing the weight of high loss timesteps. Lower numbers have stronger effect. 5 is recommended by paper. |
| --scale_v_pred_loss_like_noise_pred | v-prediction lossをnoise prediction lossと同じようにスケーリングする | scale v-prediction loss like noise prediction loss |
| --v_pred_like_loss V_PRED_LIKE_LOSS | v-prediction lossをこの値をかけたものをlossに加算する | add v-prediction like loss multiplied by this value |
| --debiased_estimation_loss | debiased estimation loss | debiased estimation loss |
| --weighted_captions | 「[token]」、「(token)」「(token:1.3)」のような重み付きキャプションを有効にする。カンマを括弧内に入れるとシャッフルやdropoutで重みづけがおかしくなるので注意 | Enable weighted captions in the standard style (token:1.3). No commas inside parens, or shuffle/dropout may break the decoder. |
| --no_metadata | メタデータを出力先モデルに保存しない | do not save metadata in output model |
| --save_model_as {None, ckpt, pt, safetensors} | モデル保存時の形式(デフォルトはsafetensors) | format to save the model (default is .safetensors) |
| --unet_lr UNET_LR | U-Netの学習率 | learning rate for U-Net |
| --text_encoder_lr TEXT_ENCODER_LR | Text Encoderの学習率 | learning rate for Text Encoder |
| --network_weights NETWORK_WEIGHTS | 学習するネットワークの初期重み | pretrained weights for network |
| --network_module NETWORK_MODULE | 学習対象のネットワークのモジュール | network module to train |
| --network_dim NETWORK_DIM | モジュールの次元数(ネットワークにより定義は異なります) | network dimensions (depends on each network) |
| --network_alpha NETWORK_ALPHA | LoRaの重み調整のalpha値、デフォルト1(旧バージョンと同じ動作をするにはnetwork_dimと同じ値を指定) | alpha for LoRA weight scaling, default 1 (same as network_dim for same behavior as old version) |
| --network_dropout NETWORK_DROPOUT | 訓練時に毎ステップでニューロンをdropする(0またはNoneはdropoutなし、1は全ニューロンをdropout) | Drops neurons out of training every step (0 or None is default behavior (no dropout), 1 would drop all neurons) |
| --network_args [NETWORK_ARGS ...] | ネットワークへの追加の引数 | additional arguments for network (key=value) |
| --network_train_unet_only | U-Net関連部分のみ学習する | only training U-Net part |
| --network_train_text_encoder_only | Text Encoder関連部分のみ学習する | only training Text Encoder part |
| --training_comment TRAINING_COMMENT | メタデータに記録する任意のコメント文字列 | arbitrary comment string stored in metadata |
| --dim_from_weights | dim (rank)をnetwork_weightsで指定した重みから自動で決定する | automatically determine dim (rank) from network_weights |
| --scale_weight_norms SCALE_WEIGHT_NORMS | 重みの値をスケーリングして勾配爆発を防ぐ(1が初期値としては適当) | Scale the weight of each key pair to help prevent overtraing via exploding gradients. (1 is a good starting point) |
| --base_weights [BASE_WEIGHTS ...] | 学習前にあらかじめモデルにマージするnetworkの重みファイル | network weights to merge into the model before training |
| --base_weights_multiplier [BASE_WEIGHTS_MULTIPLIER ...] | 学習前にあらかじめモデルにマージするnetworkの重みの倍率 | multiplier for network weights to merge into the model before training |
| --no_half_vae | mixed precisionでも fp16/bf16 VAEを使わずfloat VAEを使う | do not use fp16/bf16 VAE in mixed precision (use float VAE) |
| --cache_text_encoder_outputs | text encoderの出力をキャッシュする | cache text encoder outputs |
| --cache_text_encoder_outputs_to_disk | text encoderの出力をディスクにキャッシュする | cache text encoder outputs to disk |
ここから先は
0字
¥ 100
この記事が気に入ったらチップで応援してみませんか?