微调预训练模型
一、说明
使用预训练模型有显着的好处。它可以降低计算成本和碳足迹,并允许您使用最先进的模型,而无需从头开始训练。 🤗 Transformers 提供了针对各种任务的数千个预训练模型的访问权限。当您使用预训练模型时,您可以在特定于您的任务的数据集上对其进行训练。这被称为微调,是一种非常强大的训练技术。在本教程中,您将使用您选择的深度学习框架微调预训练模型:
- 使用 🤗 Transformers Trainer微调预训练模型。
- 使用 Keras 微调 TensorFlow 中的预训练模型。
二、在本机 PyTorch 中微调预训练模型。
在微调预训练模型之前,请下载数据集并准备进行训练。之前的教程向您展示了如何处理训练数据,现在您有机会测试这些技能!
2.1 加载数据
首先加载Yelp 评论数据集:
from datasets import load_dataset
dataset = load_dataset("yelp_review_full")
dataset["train"][100]
{‘label’: 0,
‘text’: ‘My expectations for McDonalds are t rarely high. But for one to still fail so spectacularly…that takes something special!\nThe cashier took my friends’s order, then promptly ignored me. I had to force myself in front of a cashier who opened his register to wait on the person BEHIND me. I waited over five minutes for a gigantic order that included precisely one kid’s meal. After watching two people who ordered after me be handed their food, I asked where mine was. The manager started yelling at the cashiers for \“serving off their orders\” when they didn’t have their food. But neither cashier was anywhere near those controls, and the manager was the one serving food to customers and clearing the boards.\nThe manager was rude when giving me my order. She didn’t make sure that I had everything ON MY RECEIPT, and never even had the decency to apologize that I felt I was getting poor service.\nI’ve eaten at various McDonalds restaurants for over 30 years. I’ve worked at more than one location. I expect bad days, bad moods, and the occasional mistake. But I have yet to have a decent experience at this store. It will remain a place I avoid unless someone in my party needs to avoid illness from low blood sugar. Perhaps I should go back to the racially biased service of Steak n Shake instead!’}
正如您现在所知,您需要一个分词器来处理文本,并包含填充和截断策略来处理任何可变序列长度。要一步处理数据集,请使用 🤗 Datasetsmap方法对整个数据集应用预处理函数:
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
def tokenize_function(examples):return tokenizer(examples["text"], padding="max_length", truncation=True)
tokenized_datasets = dataset.map(tokenize_function, batched=True)
如果您愿意,您可以创建完整数据集的较小子集进行微调以减少所需的时间:
small_train_dataset = tokenized_datasets["train"].shuffle(seed=42).select(range(1000))
small_eval_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(1000))
2.2 训练
此时,您应该按照与您要使用的框架相对应的部分进行操作。您可以使用右侧边栏中的链接跳转到您想要的链接 - 如果您想隐藏给定框架的所有内容,只需使用该框架块右上角的按钮即可!
2.2.1 使用 PyTorch Trainer 进行训练
Transformers 提供了针对训练Transformers 模型进行优化的Trainer类,让您可以更轻松地开始训练,而无需手动编写自己的训练循环。 Trainer API 支持多种训练选项和功能,例如日志记录、梯度累积和混合精度。
首先加载模型并指定预期标签的数量。从 Yelp Review数据集卡中,您知道有五个标签:
from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained("bert-base-cased", num_labels=5)
您将看到有关未使用某些预训练权重以及某些权重被随机初始化的警告。别担心,这是完全正常的! BERT 模型的预训练头被丢弃,并替换为随机初始化的分类头。您将在序列分类任务中微调这个新模型头,将预训练模型的知识传递给它。
2.3 训练超参数
接下来,创建一个TrainingArguments类,其中包含您可以调整的所有超参数以及用于激活不同训练选项的标志。对于本教程,您可以从默认的训练超参数开始,但请随意尝试这些参数以找到最佳设置。
指定保存训练检查点的位置:
from transformers import TrainingArguments
training_args = TrainingArguments(output_dir="test_trainer")
2.4 评价
Trainer在训练期间不会自动评估模型性能。您需要向Trainer传递一个函数来计算和报告指标。 🤗 Evaluate库提供了一个简单的accuracy函数,您可以使用evaluate.load(有关更多信息,请参阅此快速教程)函数加载:
import numpy as np
import evaluate
metric = evaluate.load("accuracy")
呼吁compute计算metric您的预测的准确性。在将预测传递给 之前compute,您需要将 logits 转换为预测(记住所有 Transformers 模型都返回 logits):
def compute_metrics(eval_pred):logits, labels = eval_predpredictions = np.argmax(logits, axis=-1)return metric.compute(predictions=predictions, references=labels)
如果您想在微调期间监控评估指标,请evaluation_strategy在训练参数中指定参数以在每个周期结束时报告评估指标:
from transformers import TrainingArguments, Trainer
training_args = TrainingArguments(output_dir="test_trainer", evaluation_strategy="epoch")
2.5 训练类
使用您的模型、训练参数、训练和测试数据集以及评估函数创建一个Trainer对象:
trainer = Trainer(model=model,args=training_args,train_dataset=small_train_dataset,eval_dataset=small_eval_dataset,compute_metrics=compute_metrics,)
然后通过调用train()微调您的模型:
trainer.train()
三、使用 Keras 训练 TensorFlow 模型
您还可以使用 Keras API 在 TensorFlow 中训练 🤗 Transformers 模型!
3.1 为 Keras 加载数据
当您想要使用 Keras API 训练 🤗 Transformers 模型时,您需要将数据集转换为 Keras 理解的格式。如果您的数据集很小,您可以将整个数据转换为 NumPy 数组并将其传递给 Keras。在做任何更复杂的事情之前,让我们先尝试一下。
首先,加载数据集。我们将使用GLUE 基准测试中的 CoLA 数据集,因为它是一个简单的二进制文本分类任务,并且现在只进行训练分割。
from datasets import load_datasetdataset = load_dataset("glue", "cola")
dataset = dataset["train"] # Just take the training split for now
接下来,加载分词器并将数据分词为 NumPy 数组。请注意,标签已经是 0 和 1 的列表,因此我们可以直接将其转换为 NumPy 数组,而无需标记化!
from transformers import AutoTokenizertokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
tokenized_data = tokenizer(dataset["sentence"], return_tensors="np", padding=True)
# Tokenizer returns a BatchEncoding, but we convert that to a dict for Keras
tokenized_data = dict(tokenized_data)labels = np.array(dataset["label"]) # Label is already an array of 0 and 1
最后,加载 、compile和fit模型。请注意,Transformers 模型都有一个默认的与任务相关的损失函数,因此您不需要指定一个,除非您想要:
from transformers import TFAutoModelForSequenceClassification
from tensorflow.keras.optimizers import Adam# Load and compile our model
model = TFAutoModelForSequenceClassification.from_pretrained("bert-base-cased")
# Lower learning rates are often better for fine-tuning transformers
model.compile(optimizer=Adam(3e-5)) # No loss argument!model.fit(tokenized_data, labels)
当您使用模型时,您不必向模型传递损失参数compile()!如果此参数留空,Huging Face 模型会自动选择适合其任务和模型架构的损失。如果您愿意,您始终可以通过自己指定损失来覆盖此设置!
这种方法对于较小的数据集非常有效,但对于较大的数据集,您可能会发现它开始成为问题。为什么?因为标记化数组和标签必须完全加载到内存中,并且因为 NumPy 不处理“锯齿状”数组,所以每个标记化样本都必须填充到整个数据集中最长样本的长度。这将使您的数组变得更大,并且所有这些填充令牌也会减慢训练速度!
3.2 将数据加载为 tf.data.Dataset
如果您想避免减慢训练速度,可以改为加载数据tf.data.Dataset。尽管您可以tf.data根据需要编写自己的 管道,但我们有两种方便的方法来执行此操作:
prepare_tf_dataset():这是我们在大多数情况下推荐的方法。因为它是模型上的一种方法,所以它可以检查模型以自动找出哪些列可用作模型输入,并丢弃其他列以创建更简单、性能更高的数据集。
to_tf_dataset:此方法更加底层,当您想要通过准确指定要包含哪些columns和label_cols来精确控制数据集的创建方式时非常有用。
在使用prepare_tf_dataset()之前,您需要将分词器输出作为列添加到数据集,如以下代码示例所示:
def tokenize_dataset(data):# Keys of the returned dictionary will be added to the dataset as columnsreturn tokenizer(data["text"])
dataset = dataset.map(tokenize_dataset)
请记住,拥抱脸部数据集默认存储在磁盘上,因此这不会增加您的内存使用量!添加列后,您可以从数据集中流式传输批次并向每个批次添加填充,与填充整个数据集相比,这大大减少了填充标记的数量。
tf_dataset = model.prepare_tf_dataset(dataset["train"], batch_size=16, shuffle=True, tokenizer=tokenizer)
请注意,在上面的代码示例中,您需要传递标记生成器,prepare_tf_dataset以便它可以在加载批次时正确填充批次。如果数据集中的所有样本长度相同并且不需要填充,则可以跳过此参数。如果您需要做一些比填充样本更复杂的事情(例如,破坏掩码语言建模的标记),您可以使用参数collate_fn来传递一个函数,该函数将被调用以将样本列表转换为批处理并应用您需要的任何预处理想。请参阅我们的 示例或 笔记本来了解这种方法的实际效果。
创建 后tf.data.Dataset,您可以像以前一样编译并拟合模型:
model.compile(optimizer=Adam(3e-5)) # No loss argument!
model.fit(tf_dataset)
Trainer负责训练循环,并允许您在一行代码中微调模型。对于喜欢编写自己的训练循环的用户,您还可以在本机 PyTorch 中微调 🤗 Transformers 模型。
此时,您可能需要重新启动笔记本或执行以下代码来释放一些内存:
del model
del trainer
torch.cuda.empty_cache()
接下来,手动进行后处理tokenized_dataset以准备训练。
删除该text列,因为模型不接受原始文本作为输入:
tokenized_datasets = tokenized_datasets.remove_columns([ "text" ])
将列重命名label为 ,labels因为模型期望将参数命名为labels:
tokenized_datasets = tokenized_datasets.rename_column( "标签" , "标签" )
设置数据集的格式以返回 PyTorch 张量而不是列表:
tokenized_datasets.set_format( "pytorch" )
然后创建数据集的较小子集(如前所示)以加快微调速度:
small_train_dataset = tokenized_datasets["train"].shuffle(seed=42).select(range(1000))
small_eval_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(1000))
3.3 数据加载器
为您的训练和测试数据集创建一个DataLoader,以便您可以迭代批量数据:
from torch.utils.data import DataLoader
train_dataloader = DataLoader(small_train_dataset, shuffle=True, batch_size=8)
eval_dataloader = DataLoader(small_eval_dataset, batch_size=8)
使用预期标签数量加载模型:
from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained("bert-base-cased", num_labels=5)
3.4 优化器和学习率调度器
创建优化器和学习率调度器来微调模型。让我们使用AdamWPyTorch 的优化器:
from torch.optim import AdamW
optimizer = AdamW(model.parameters(), lr=5e-5)
从 Trainer 创建默认学习率调度程序:
from transformers import get_schedulernum_epochs = 3
num_training_steps = num_epochs * len(train_dataloader)
lr_scheduler = get_scheduler(name="linear", optimizer=optimizer, num_warmup_steps=0, num_training_steps=num_training_steps
)
最后,如果您有权使用 GPU,请指定使用 GPU 的设备。否则,CPU 上的训练可能需要几个小时而不是几分钟。
import torchdevice = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")
model.to(device)
如果您没有像Colaboratory或SageMaker StudioLab这样的托管笔记本,可以免费访问云 GPU 。
3.5 训练循环
要跟踪您的训练进度,请使用tqdm库在训练步骤数上添加进度条:
from tqdm.auto import tqdmprogress_bar = tqdm(range(num_training_steps))model.train()
for epoch in range(num_epochs):for batch in train_dataloader:batch = {k: v.to(device) for k, v in batch.items()}outputs = model(**batch)loss = outputs.lossloss.backward()optimizer.step()lr_scheduler.step()optimizer.zero_grad()progress_bar.update(1)
3.6 评价
就像您向Trainer添加评估函数一样,您在编写自己的训练循环时也需要执行相同的操作。但这次您将累积所有批次并在最后计算指标,而不是在每个时期add_batch结束时计算和报告指标。
import evaluatemetric = evaluate.load("accuracy")
model.eval()
for batch in eval_dataloader:batch = {k: v.to(device) for k, v in batch.items()}with torch.no_grad():outputs = model(**batch)logits = outputs.logitspredictions = torch.argmax(logits, dim=-1)metric.add_batch(predictions=predictions, references=batch["labels"])metric.compute()
四、结论
本篇基本上描绘了如何实现微调,更多微调示例请参考:
🤗 Transformers Examples包括在 PyTorch 和 TensorFlow 中训练常见 NLP 任务的脚本。
🤗 Transformers Notebooks包含有关如何针对 PyTorch 和 TensorFlow 中的特定任务微调模型的各种笔记本。