学习率正常区间

学习率是神经网络训练过程中的关键超参数,用于控制模型权重更新的幅度。

正常区间方面:

对于一般情况,建议在 0.000006 到 0.00000175 之间选择。 学习率过高(如 1e-4 即 0.0001)会出现过拟合,导致图片和素材太相似;学习率过低(如 1e-5 即 0.00001)会出现不拟合,图片和素材没关系。

学习率的影响:

学习率越大,权重更新幅度越大,训练速度越快,越容易过拟合,可能更不稳定,在局部最优解附近震荡,无法收敛。 学习率越小,权重更新幅度越小,训练速度越慢,越容易找到最优解,相对更稳定,有可能陷入局部最优解爬不出坑。

学习率的调节基本不会影响显存的使用。

在 LORA 模型训练中:

unet_lr 基本跟 lr 数值一样即可。 text_encoder_lr 需要通过实践具体情况来测试更改。 lr_scheduler 提供了多种可选的调度策略,基本只用“constant_with_warmup”。 lr_warmup_steps 一般不动。 lr_restart_cycles 一般不动。

学习率可以类比为学习一门技能的速度,速度过快可能会错过细节或理解不深刻,速度过慢可能会浪费时间或失去耐性,因此其大小需要根据具体情况进行调整,以获得最佳学习效果。

0
分享到:
没有账号? 忘记密码?