lora微调(微调啥意思)

LoRA 微调相关内容如下:

基于 LoRA 微调的模型参数见:基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过PEFT加载预训练模型参数和微调模型参数,示例代码中,base_model_name_or_path 为预训练模型参数保存路径,finetune_model_path 为微调模型参数保存路径。 LoRA 微调脚本见:train/sft/finetune_lora.sh,具体实现代码见train/sft/finetune_clm_lora.py,单机多卡的微调可以通过修改脚本中的–include localhost:0 来实现。 在 ComfyUI AnimateDiff 中,有一个关键的 lora 对图像模型进行了微调,lora 地址为 https://huggingface.co/guoyww/animatediff/blob/main/v3_sd15_adapter.ckpt 。关于 lora 的强度,强度越高,画面越稳定,但需在合理范围。

0
分享到:
没有账号? 忘记密码?