lora 继续训练
一般正常lora训练完模型后我们只保存其lora参数,然后与base模型进行合并。记录一下训练完保存lora后,继续再对lora训练的步骤。
base_model = AutoModelForCausalLM.from_pretrained(base_model_id)
base_model.enable_input_require_grads()
model = PeftModel.from_pretrained(base_model, peft_adapter_path)
for name, param in model.named_parameters():if 'lora' in name or 'Lora' in name:param.requires_grad = True
其中peft_adapter_path
即为之前保存的lora模型路径。
参考:
1、https://github.com/huggingface/peft/issues/184
2、参考2