训练用模型

pretrained_model_name_or_path

底模路径

数据集设置

train_data_dir

训练数据集路径

reg_data_dir

正则化数据集路径,默认不使用正则化图像

resolution

训练图片分辨率,宽x高。支持非正方形,但必须是 64 倍数。

保存设置

output_name

模型保存名称

output_dir

模型保存文件夹

save_every_n_epochs

每 N epoch(轮)自动保存一次模型

训练相关参数

max_train_epochs

最大训练 epoch(轮数)

train_batch_size

批量大小

学习率与优化器设置

unet_lr

U-Net 学习率

text_encoder_lr

文本编码器学习率

lr_scheduler

学习率调度器设置

optimizer_type

优化器设置

lr_scheduler_num_cycles

重启次数

训练预览图设置

enable_preview

启用训练预览图,会消耗更多显存拖慢速度

网络设置

network_weights

从已有的 LoRA 模型上继续训练,填写路径

network_dim

网络维度,常用 4~128,不是越大越好

network_alpha

常用与 network_dim 相同的值或者采用较小的值,如 network_dim 的一半。使用较小的 alpha 需要提升学习率。

caption 选项

shuffle_caption

训练时随机打乱 tokens

keep_tokens

在随机打乱 tokens 时,保留前 N 个不变

LoRA 训练 新手模式

默认设置为你准备好了所有需要的参数,只需要你修改底模路径、训练集路径、训练轮数即可一键训练模型。

参数预览
pretrained_model_name_or_path = "./sd-models/model.ckpt" train_data_dir = "./train/aki" resolution = "512,512" enable_bucket = true min_bucket_reso = 256 max_bucket_reso = 1_024 output_name = "aki" output_dir = "./output" save_model_as = "safetensors" save_every_n_epochs = 2 max_train_epochs = 10 train_batch_size = 1 network_train_unet_only = false network_train_text_encoder_only = false learning_rate = 0.0001 unet_lr = 0.0001 text_encoder_lr = 0.00001 lr_scheduler = "cosine_with_restarts" optimizer_type = "AdamW8bit" lr_scheduler_num_cycles = 1 network_module = "networks.lora" network_dim = 32 network_alpha = 32 logging_dir = "./logs" caption_extension = ".txt" shuffle_caption = true keep_tokens = 0 max_token_length = 255 seed = 1_337 prior_loss_weight = 1 clip_skip = 2 mixed_precision = "fp16" save_precision = "fp16" xformers = true cache_latents = true persistent_data_loader_workers = true
Output