简介
由于大型预训练模型的规模,微调大型预训练模型的成本通常高得令人望而却步。参数高效微调 (PEFT) 方法只需微调少量(额外)模型参数而不是所有模型参数,即可使大型预训练模型有效地适应各种下游应用。这大大降低了计算和存储成本。最近最先进的PEFT技术实现了与完全微调的模型相当的性能。
PEFT 与 Transformers 集成,可轻松进行模型训练和推理,与 Diffusers 集成,方便地管理不同的适配器,与 Accelerate 集成,用于大型模型的分布式训练和推理。
查看 PEFT 适配器 API 参考部分,了解受支持的 PEFT 方法列表,并阅读适配器、软提示和 IA3 概念指南,详细了解这些方法的工作原理。
快速入门
安装PEFT
从 pip 安装 PEFT:
pip install peft
加载和微调
通过将基本模型和 PEFT 配置包装在 get_peft_model
中,准备使用 PEFT 方法(如 LoRA)进行训练的模型。对于 bigscience/mt0-large 模型,您只训练了 0.19% 的参数!
from transformers import AutoModelForSeq2SeqLM
from peft import get_peft_config, get_peft_model, LoraConfig, TaskType
model_name_or_path = "bigscience/mt0-large"
tokenizer_name_or