LLM-微调:Peft库--get_peft_model()-->在llm基座模型的基础上注入Lora模块(加载流程)【注入的Lora模块的初始参数是随机初始化的】
一、site-packages-->peft-->mapping.py-->get_peft_model()defget_peft_model(model:PreTrainedModel,peft_config:PeftConfig,adapter_name:str="default")->PeftModel:"""ReturnsaPeftmodelobjectfromamodelandaconf