昇思25天学习打卡营第2天
文章目录
- 昇思25天学习打卡营第2天
- 网络构建
- 定义模型类
- 模型层
- nn.Flatten
- nn.Dense
- nn.ReLU
- nn.SequentialCell
- nn.Softmax
- 模型参数
- 函数式自动微分
- 函数与计算图
- 微分函数与梯度计算
- Stop Gradient
- Auxiliary data
- 神经网络梯度计算
- 问题集合
- 打卡记录
网络构建
神经网络模型是由神经网络层和Tensor操作构成的,mindspore.nn提供了常见神经网络层的实现,在MindSpore中,Cell类是构建所有网络的基类,也是网络的基本单元。一个神经网络模型表示为一个Cell
,它由不同的子Cell
构成。使用这样的嵌套结构,可以简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。
下面我们将构建一个用于Mnist数据集分类的神经网络模型。
%%capture captured_output
# 实验环境已经预装了mindspore==2.2.14,如需更换mindspore版本,可更改下面mindspore的版本号
!pip uninstall mindspore -y
!pip install -i https://pypi.mirrors.ustc.edu.cn/simple mindspore==2.2.14
import mindspore
from mindspore import nn, ops
定义模型类
当我们定义神经网络时,可以继承nn.Cell
类,在__init__
方法中进行子Cell的实例化和状态管理,在construct
方法中实现Tensor操作。
construct
意为神经网络(计算图)构建,相关内容详见使用静态图加速。
class Network(nn.Cell):def __init__(self):super().__init__()self.flatten = nn.Flatten()self.dense_relu_sequential = nn.SequentialCell(nn.Dense(28*28, 512, weight_init="normal", bias_init="zeros"),nn.ReLU(),nn.Dense(512, 512, weight_init="normal", bias_init="zeros"),nn.ReLU(),nn.Dense(512, 10, weight_init="normal", bias_init="zeros"))def construct(self, x):x = self.flatten(x)logits = self.dense_relu_sequential(x)return logits
构建完成后,实例化Network对象,并查看其结构。
model = Network()
print(model)结果输出:
Network<(flatten): Flatten<>(dense_relu_sequential): SequentialCell<(0): Dense<input_channels=784, output_channels=512, has_bias=True>(1): ReLU<>(2): Dense<input_channels=512, output_channels=512, has_bias=True>(3): ReLU<>(4): Dense<input_channels=512, output_channels=10, has_bias=True>>>
我们构造一个输入数据,直接调用模型,可以获得一个十维的Tensor输出,其包含每个类别的原始预测值。
model.construct()
方法不可直接调用。
X = ops.ones((1, 28, 28), mindspore.float32)
logits = model(X)
# print logits
logits结果输出:
Tensor(shape=[1, 10], dtype=Float32, value=
[[-4.94648516e-03, 6.39686594e-04, 3.57396412e-03 ... -4.10500448e-03, -7.01633748e-03, 6.29030075e-03]])
在此基础上,我们通过一个nn.Softmax层实例来获得预测概率。
pred_probab = nn.Softmax(axis=1)(logits)
y_pred = pred_probab.argmax(1)
print(f"Predicted class: {y_pred}")结果输出:
Predicted class: [5]
模型层
本节中我们分解上节构造的神经网络模型中的每一层。首先我们构造一个shape为(3, 28, 28)的随机数据(3个28x28的图像),依次通过每一个神经网络层来观察其效果。
input_image = ops.ones((3, 28, 28), mindspore.float32)
print(input_image.shape)结果输出:
(3, 28, 28)
nn.Flatten
实例化nn.Flatten层,将28x28的2D张量转换为784大小的连续数组。
flatten = nn.Flatten()
flat_image = flatten(input_image)
print(flat_image.shape)结果输出:
(3, 784)
nn.Dense
nn.Dense为全连接层,其使用权重和偏差对输入进行线性变换。
layer1 = nn.Dense(in_channels=28*28, out_channels=20)
hidden1 = layer1(flat_image)
print(hidden1.shape)结果输出:
(3, 20)
nn.ReLU
nn.ReLU层给网络中加入非线性的激活函数,帮助神经网络学习各种复杂的特征。
print(f"Before ReLU: {hidden1}\n\n")
hidden1 = nn.ReLU()(hidden1)
print(f"After ReLU: {hidden1}")结果输出:
Before ReLU: [[-0.37948617 -0.8374544 -0.22633247 -0.64436615 -0.2843644 0.11379201-0.3698791 0.04172596 0.96715826 0.43453223 -0.5601988 -0.360088830.01049499 0.01675031 0.20502056 -1.1604757 1.7001557 -0.02686205-0.7600101 1.0095801 ][-0.37948617 -0.8374544 -0.22633247 -0.64436615 -0.2843644 0.11379201-0.3698791 0.04172596 0.96715826 0.43453223 -0.5601988 -0.360088830.01049499 0.01675031 0.20502056 -1.1604757 1.7001557 -0.02686205-0.7600101 1.0095801 ][-0.37948617 -0.8374544 -0.22633247 -0.64436615 -0.2843644 0.11379201-0.3698791 0.04172596 0.96715826 0.43453223 -0.5601988 -0.360088830.01049499 0.01675031 0.20502056 -1.1604757 1.7001557 -0.02686205-0.7600101 1.0095801 ]]After ReLU: [[0. 0. 0. 0. 0. 0.113792010. 0.04172596 0.96715826 0.43453223 0. 0.0.01049499 0.01675031 0.20502056 0. 1.7001557 0.0. 1.0095801 ][0. 0. 0. 0. 0. 0.113792010. 0.04172596 0.96715826 0.43453223 0. 0.0.01049499 0.01675031 0.20502056 0. 1.7001557 0.0. 1.0095801 ][0. 0. 0. 0. 0. 0.113792010. 0.04172596 0.96715826 0.43453223 0. 0.0.01049499 0.01675031 0.20502056 0. 1.7001557 0.0. 1.0095801 ]]
nn.SequentialCell
nn.SequentialCell是一个有序的Cell容器。输入Tensor将按照定义的顺序通过所有Cell。我们可以使用SequentialCell
来快速组合构造一个神经网络模型。
seq_modules = nn.SequentialCell(flatten,layer1,nn.ReLU(),nn.Dense(20, 10)
)logits = seq_modules(input_image)
print(logits.shape)结果输出:
(3, 10)
nn.Softmax
最后使用nn.Softmax将神经网络最后一个全连接层返回的logits的值缩放为[0, 1],表示每个类别的预测概率。axis
指定的维度数值和为1。
softmax = nn.Softmax(axis=1)
pred_probab = softmax(logits)
模型参数
网络内部神经网络层具有权重参数和偏置参数(如nn.Dense
),这些参数会在训练过程中不断进行优化,可通过 model.parameters_and_names()
来获取参数名及对应的参数详情。
print(f"Model structure: {model}\n\n")for name, param in model.parameters_and_names():print(f"Layer: {name}\nSize: {param.shape}\nValues : {param[:2]} \n")结果输出:Model structure: Network<(flatten): Flatten<>(dense_relu_sequential): SequentialCell<(0): Dense<input_channels=784, output_channels=512, has_bias=True>(1): ReLU<>(2): Dense<input_channels=512, output_channels=512, has_bias=True>(3): ReLU<>(4): Dense<input_channels=512, output_channels=10, has_bias=True>>>Layer: dense_relu_sequential.0.weight
Size: (512, 784)
Values : [[-0.01491369 0.00353318 -0.00694948 ... 0.01226766 -0.000144230.00544263][ 0.00212971 0.0019974 -0.00624789 ... -0.01214037 0.00118004-0.01594325]] Layer: dense_relu_sequential.0.bias
Size: (512,)
Values : [0. 0.] Layer: dense_relu_sequential.2.weight
Size: (512, 512)
Values : [[ 0.00565423 0.00354313 0.00637383 ... -0.00352688 0.002629490.01157355][-0.01284141 0.00657666 -0.01217057 ... 0.00318963 0.00319115-0.00186801]] Layer: dense_relu_sequential.2.bias
Size: (512,)
Values : [0. 0.] Layer: dense_relu_sequential.4.weight
Size: (10, 512)
Values : [[ 0.0087168 -0.00381866 -0.00865665 ... -0.00273731 -0.003916230.00612853][-0.00593031 0.0008721 -0.0060081 ... -0.00271535 -0.00850481-0.00820513]] Layer: dense_relu_sequential.4.bias
Size: (10,)
Values : [0. 0.]
更多内置神经网络层详见mindspore.nn API。
函数式自动微分
神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分能够计算可导函数在某点处的导数值,是反向传播算法的一般化。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。
MindSpore使用函数式自动微分的设计理念,提供更接近于数学语义的自动微分接口grad
和value_and_grad
。下面我们使用一个简单的单层线性变换模型进行介绍。
%%capture captured_output
# 实验环境已经预装了mindspore==2.2.14,如需更换mindspore版本,可更改下面mindspore的版本号
!pip uninstall mindspore -y
!pip install -i https://pypi.mirrors.ustc.edu.cn/simple mindspore==2.2.14
import numpy as np
import mindspore
from mindspore import nn
from mindspore import ops
from mindspore import Tensor, Parameter
函数与计算图
计算图是用图论语言表示数学函数的一种方式,也是深度学习框架表达神经网络模型的统一方法。我们将根据下面的计算图构造计算函数和神经网络。
在这个模型中,𝑥 为输入,𝑦 为正确值,𝑤 和 𝑏 是我们需要优化的参数。
x = ops.ones(5, mindspore.float32) # input tensor
y = ops.zeros(3, mindspore.float32) # expected output
w = Parameter(Tensor(np.random.randn(5, 3), mindspore.float32), name='w') # weight
b = Parameter(Tensor(np.random.randn(3,), mindspore.float32), name='b') # bias
我们根据计算图描述的计算过程,构造计算函数。
其中,binary_cross_entropy_with_logits 是一个损失函数,计算预测值和目标值之间的二值交叉熵损失。
def function(x, y, w, b):z = ops.matmul(x, w) + bloss = ops.binary_cross_entropy_with_logits(z, y, ops.ones_like(z), ops.ones_like(z))return loss
执行计算函数,可以获得计算的loss值。
loss = function(x, y, w, b)
print(loss)结果输出:
1.0899742
微分函数与梯度计算
为了优化模型参数,需要求参数对loss的导数: ∂ loss ∂ w \frac{\partial \operatorname{loss}}{\partial w} ∂w∂loss和 ∂ loss ∂ b \frac{\partial \operatorname{loss}}{\partial b} ∂b∂loss,此时我们调用mindspore.grad
函数,来获得function
的微分函数。
这里使用了grad
函数的两个入参,分别为:
fn
:待求导的函数。grad_position
:指定求导输入位置的索引。
由于我们对 w w w和 b b b求导,因此配置其在function
入参对应的位置(2, 3)
。
使用
grad
获得微分函数是一种函数变换,即输入为函数,输出也为函数。
grad_fn = mindspore.grad(function, (2, 3))
执行微分函数,即可获得 w w w、 b b b对应的梯度。
grads = grad_fn(x, y, w, b)
print(grads)结果输出:
(Tensor(shape=[5, 3], dtype=Float32, value=
[[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01]]), Tensor(shape=[3], dtype=Float32, value= [ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01]))
Stop Gradient
通常情况下,求导时会求loss对参数的导数,因此函数的输出只有loss一项。当我们希望函数输出多项时,微分函数会求所有输出项对参数的导数。此时如果想实现对某个输出项的梯度截断,或消除某个Tensor对梯度的影响,需要用到Stop Gradient操作。
这里我们将function
改为同时输出loss和z的function_with_logits
,获得微分函数并执行。
def function_with_logits(x, y, w, b):z = ops.matmul(x, w) + bloss = ops.binary_cross_entropy_with_logits(z, y, ops.ones_like(z), ops.ones_like(z))return loss, z
grad_fn = mindspore.grad(function_with_logits, (2, 3))
grads = grad_fn(x, y, w, b)
print(grads)结果输出:
(Tensor(shape=[5, 3], dtype=Float32, value=
[[ 1.13657820e+00, 1.29819274e+00, 1.12972713e+00],[ 1.13657820e+00, 1.29819274e+00, 1.12972713e+00],[ 1.13657820e+00, 1.29819274e+00, 1.12972713e+00],[ 1.13657820e+00, 1.29819274e+00, 1.12972713e+00],[ 1.13657820e+00, 1.29819274e+00, 1.12972713e+00]]), Tensor(shape=[3], dtype=Float32, value= [ 1.13657820e+00, 1.29819274e+00, 1.12972713e+00]))
可以看到求得 w w w、 b b b对应的梯度值发生了变化。此时如果想要屏蔽掉z对梯度的影响,即仍只求参数对loss的导数,可以使用ops.stop_gradient
接口,将梯度在此处截断。我们将function
实现加入stop_gradient
,并执行。
def function_stop_gradient(x, y, w, b):z = ops.matmul(x, w) + bloss = ops.binary_cross_entropy_with_logits(z, y, ops.ones_like(z), ops.ones_like(z))return loss, ops.stop_gradient(z)
grad_fn = mindspore.grad(function_stop_gradient, (2, 3))
grads = grad_fn(x, y, w, b)
print(grads)结果输出:
(Tensor(shape=[5, 3], dtype=Float32, value=
[[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01]]), Tensor(shape=[3], dtype=Float32, value= [ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01]))
可以看到,求得 w w w、 b b b对应的梯度值与初始function
求得的梯度值一致。
Auxiliary data
Auxiliary data意为辅助数据,是函数除第一个输出项外的其他输出。通常我们会将函数的loss设置为函数的第一个输出,其他的输出即为辅助数据。
grad
和value_and_grad
提供has_aux
参数,当其设置为True
时,可以自动实现前文手动添加stop_gradient
的功能,满足返回辅助数据的同时不影响梯度计算的效果。
下面仍使用function_with_logits
,配置has_aux=True
,并执行。
grad_fn = mindspore.grad(function_with_logits, (2, 3), has_aux=True)
grads, (z,) = grad_fn(x, y, w, b)
print(grads, z)结果输出:
(Tensor(shape=[5, 3], dtype=Float32, value=
[[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01]]), Tensor(shape=[3], dtype=Float32, value= [ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01])) [-0.3650626 2.1383815 -0.45075506]
可以看到,求得 w w w、 b b b对应的梯度值与初始function
求得的梯度值一致,同时z能够作为微分函数的输出返回。
神经网络梯度计算
前述章节主要根据计算图对应的函数介绍了MindSpore的函数式自动微分,但我们的神经网络构造是继承自面向对象编程范式的nn.Cell
。接下来我们通过Cell
构造同样的神经网络,利用函数式自动微分来实现反向传播。
首先我们继承nn.Cell
构造单层线性变换神经网络。这里我们直接使用前文的 w w w、 b b b作为模型参数,使用mindspore.Parameter
进行包装后,作为内部属性,并在construct
内实现相同的Tensor操作。
# Define model
class Network(nn.Cell):def __init__(self):super().__init__()self.w = wself.b = bdef construct(self, x):z = ops.matmul(x, self.w) + self.breturn z
接下来我们实例化模型和损失函数。
# Instantiate model
model = Network()
# Instantiate loss function
loss_fn = nn.BCEWithLogitsLoss()
完成后,由于需要使用函数式自动微分,需要将神经网络和损失函数的调用封装为一个前向计算函数。
# Define forward function
def forward_fn(x, y):z = model(x)loss = loss_fn(z, y)return loss
完成后,我们使用value_and_grad
接口获得微分函数,用于计算梯度。
由于使用Cell封装神经网络模型,模型参数为Cell的内部属性,此时我们不需要使用grad_position
指定对函数输入求导,因此将其配置为None
。对模型参数求导时,我们使用weights
参数,使用model.trainable_params()
方法从Cell中取出可以求导的参数。
grad_fn = mindspore.value_and_grad(forward_fn, None, weights=model.trainable_params())
loss, grads = grad_fn(x, y)
print(grads)结果输出:
(Tensor(shape=[5, 3], dtype=Float32, value=
[[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01],[ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01]]), Tensor(shape=[3], dtype=Float32, value= [ 1.36578202e-01, 2.98192710e-01, 1.29727080e-01]))
执行微分函数,可以看到梯度值和前文function
求得的梯度值一致。
问题集合
问题1:
【MindSpore】Ascend环境运行mindspore脚本报:Malloc device memory failed…
解决方案传送门
当【解决方案传送门】中的方案1切换未被占用的device不可行时,可以采用方案2,同样通过如下命令可以查询到哪些进程占用了。
npu-smi info
见图可知是进程号为315的进程占用了大部分Process memory,通过kill {pid} 杀死进程即可。