1. 背景:
使用 mindspore 学习神经网络,打卡第8天;
2. 训练的内容:
为了微调(fine-tune)和后续的模型推理与部署,因此需要保存模型的参数,本小结主要训练保存模型。
3. 常见的用法小节:
模型的保存与加载:
- 保存与加载模型的参数
- 保存与加载模型的统一的中间结果
3.1 定义网络:
定义网络
import numpy as np
import mindspore
from mindspore import nn
from mindspore import Tensordef network():model = nn.SequentialCell(nn.Flatten(),nn.Dense(28*28, 512),nn.ReLU(),nn.Dense(512, 512),nn.ReLU(),nn.Dense(512, 10))return model
3.2 保存与加载模型参数
保存模型参数与加载模型参数
# 保存模型使用save_checkpoint接口,传入网络和指定的保存路径
model = network()
mindspore.save_checkpoint(model, "model.ckpt")# 要加载模型权重,需要先创建相同模型的实例,然后使用load_checkpoint和load_param_into_net方法加载参数
model = network()
param_dict = mindspore.load_checkpoint("model.ckpt")
param_not_load, _ = mindspore.load_param_into_net(model, param_dict)
print(param_not_load)
3.3 保存与加载模型推理的中间结果
MindSpore 提供了云侧(训练)和端侧(推理)统一的中间表示(Intermediate Representation,IR)。可使用export接口直接将模型保存为MindIR
# MindIR同时保存了Checkpoint和模型结构,
# 因此需要定义输入Tensor来获取输入shape。
model = network()
inputs = Tensor(np.ones([1, 1, 28, 28]).astype(np.float32))
mindspore.export(model, inputs, file_name="model", file_format="MINDIR")# 已有的MindIR模型可以方便地通过load接口加载,传入nn.GraphCell即可进行推理。# nn.GraphCell 仅支持图模式
mindspore.set_context(mode=mindspore.GRAPH_MODE)
graph = mindspore.load("model.mindir")
model = nn.GraphCell(graph)
outputs = model(inputs)
print(outputs.shape)
4. 相关链接:
- https://xihe.mindspore.cn/events/mindspore-training-camp
- https://gitee.com/mindspore/docs/blob/r2.3.0rc2/tutorials/source_zh_cn/beginner/save_load.ipynb