训练用模型

pretrained_model_name_or_path

底模路径

v2

底模为 sd2.0 以后的版本需要启用

数据集设置

train_data_dir

训练数据集路径

reg_data_dir

正则化数据集路径,默认不使用正则化图像

prior_loss_weight

正则化 - 先验损失权重

resolution

训练图片分辨率,宽x高。支持非正方形,但必须是 64 倍数。

enable_bucket

启用 arb 桶以允许非固定宽高比的图片

min_bucket_reso

arb 桶最小分辨率

max_bucket_reso

arb 桶最大分辨率

保存设置

output_name

模型保存名称

output_dir

模型保存文件夹

save_model_as

模型保存格式

save_precision

模型保存精度

save_every_n_epochs

每 N epoch(轮)自动保存一次模型

训练相关参数

max_train_epochs

最大训练 epoch(轮数)

train_batch_size

批量大小

gradient_checkpointing

梯度检查点

gradient_accumulation_steps

梯度累加步数

network_train_unet_only

仅训练 U-Net

network_train_text_encoder_only

仅训练文本编码器

学习率与优化器设置

learning_rate

总学习率,在分开设置 U-Net 与文本编码器学习率后这个值失效。

unet_lr

U-Net 学习率

text_encoder_lr

文本编码器学习率

lr_scheduler

学习率调度器设置

optimizer_type

优化器设置

min_snr_gamma

最小信噪比伽马值,如果启用推荐为 5

lr_scheduler_num_cycles

重启次数

optimizer_args_custom

自定义 optimizer_args,一行一个

网络设置

network_module

训练网络模块

network_weights

从已有的 LoRA 模型上继续训练,填写路径

network_dim

网络维度,常用 4~128,不是越大越好

network_alpha

常用与 network_dim 相同的值或者采用较小的值,如 network_dim 的一半 防止下溢。使用较小的 alpha 需要提升学习率。

network_dropout

dropout 概率

network_args_custom

自定义 network_args,一行一个

enable_block_weights

启用分层学习率训练(只能在 networks.lora 中使用,与其他网络模块不兼容)

训练预览图设置

enable_preview

启用训练预览图,会消耗更多显存拖慢速度

日志设置

log_with

日志模块

log_prefix

日志前缀

log_tracker_name

日志追踪器名称

logging_dir

日志保存文件夹

caption(Tag)选项

caption_extension

Tag 文件扩展名

shuffle_caption

训练时随机打乱 tokens

weighted_captions

使用带权重的 token,不推荐与 shuffle_caption 一同开启

keep_tokens

在随机打乱 tokens 时,保留前 N 个不变

max_token_length

最大 token 长度

caption_dropout_rate

丢弃全部标签的概率,对一个图片概率不使用 caption 或 class token

caption_dropout_every_n_epochs

每 N 个 epoch 丢弃全部标签

caption_tag_dropout_rate

按逗号分隔的标签来随机丢弃 tag 的概率

噪声设置

noise_offset

在训练中添加噪声偏移来改良生成非常暗或者非常亮的图像,如果启用推荐为 0.1

multires_noise_iterations

多分辨率(金字塔)噪声迭代次数 推荐 6-10。无法与 noise_offset 一同启用

multires_noise_discount

多分辨率(金字塔)衰减率 推荐 0.3-0.8,须同时与上方参数 multires_noise_iterations 一同启用

高级设置

seed

随机种子

clip_skip

CLIP 跳过层数 玄学

速度优化选项

mixed_precision

训练混合精度

xformers

启用 xformers

lowram

低内存模式 该模式下会将 U-net、文本编码器、VAE 直接加载到显存中

cache_latents

缓存图像 latent

cache_latents_to_disk

缓存图像 latent 到磁盘

persistent_data_loader_workers

保留加载训练集的worker,减少每个 epoch 之间的停顿。对内存要求更大

LoRA 训练 专家模式

你所热爱的 就是你的参数

参数预览
pretrained_model_name_or_path = "./sd-models/model.ckpt" v2 = false train_data_dir = "./train/aki" prior_loss_weight = 1 resolution = "512,512" enable_bucket = true min_bucket_reso = 256 max_bucket_reso = 1_024 output_name = "aki" output_dir = "./output" save_model_as = "safetensors" save_precision = "fp16" save_every_n_epochs = 2 max_train_epochs = 10 train_batch_size = 1 gradient_checkpointing = false network_train_unet_only = false network_train_text_encoder_only = false learning_rate = 0.0001 unet_lr = 0.0001 text_encoder_lr = 0.00001 lr_scheduler = "cosine_with_restarts" optimizer_type = "AdamW8bit" lr_scheduler_num_cycles = 1 network_module = "networks.lora" network_dim = 32 network_alpha = 32 network_dropout = 0 log_with = "tensorboard" logging_dir = "./logs" caption_extension = ".txt" shuffle_caption = true weighted_captions = false keep_tokens = 0 max_token_length = 255 seed = 1_337 clip_skip = 2 mixed_precision = "fp16" xformers = true lowram = false cache_latents = true cache_latents_to_disk = false persistent_data_loader_workers = true
Output