目录
一、网络框架介绍
二、导包
三、定义卷积神经网络
3.1 代码展示
3.2 定义网络的目的
3.3 Pytorch搭建网络
四、测试网络效果
一、网络框架介绍
网络理解:
将32*32大小的灰度图片(下述的代码中输入为32*32大小的RGB彩色图片),输入到网络中;经过第一次卷积C1,变成了6通道、28*28大小的一个特征向量;通过一次下采样S2,变成了6通道、14*14大小的一个特征向量,其宽高相当于折损了一般;经过第二次卷积C3,变成了16通道、10*10大小的一个特征向量;通过第二次下采样S4,变成了16通道、5*5大小的一个特征向量;最后三层全连接输出。
①Convolutious(卷积):涉及到输入、输出与很多参数的设置,需要初始化。
②Subsampling(下采样):该网络中使用的是最大池化下采样的方法,最大池化下采样的和维2*2大小。
最大池化:Max Pooling,取窗口内的最大值作为输出。
③Full Connection(全连接):需要初始化。
二、导包
import torch # torch基础库
import torch.nn as nn # torch神经网络库
import torch.nn.functional as F
三、定义卷积神经网络
3.1 代码展示
class Net(nn.Module):# 初始化def __init__(self):super(Net,self).__init__()self.conv1 = nn.Conv2d(3,6,5)self.conv2 = nn.Conv2d(6,16,5)self.fc1 = nn.Linear(16*5*5,120)self.fc2 = nn.Linear(120,84)self.fc3 = nn.Linear(84,10)# 前向传播def forward(self,x):x = self.conv1(x)x = F.relu(x)x = F.max_pool2d(x,(2,2))x = F.max_pool2d(F.relu(self.conv2(x)),2)x = x.view(-1,x.size()[1:].numel())x = F.relu(self.fc1(x)) # 进入全连接层需要进行激活函数x = F.relu(self.fc2(x))x = self.fc3(x) # 最后一层为输出层,要输出结果,不需要进行激活return x
3.2 定义网络的目的
希望网络有科学系参数,通过输入数据的训练让相关参数不断更新、梯度下降到一个合适的值,之后输入新的图片,可以进行分类或者预测。
3.3 Pytorch搭建网络
Pytorch搭建网络通常会采用类进行管理,可取名为Net(该名字可以更换),通常需要继承nn.Model类(相当于在Net中将Model定义好的方法直接进行使用)。搭建网络通常包括两个函数:
①初始化函数(含有默认参数):实例化这个类的时候会自动执行的一部分,这里面放网络需要初始化的内容。
def __init__(self)
A. super(Net,self).__init__():在该函数中通常需要进行多继承操作,相当于把Model类里面继承的类以及全部的类的方法都继承下来,供Net去使用;
B. nn.Conv2d(3,6,5):2d卷积核的函数,只涉及三个参数,其余参数使用默认值;第一个参数为输入的通道数,第二个参数为输出特征向量的通道数,第三个参数为卷积核大小(使用output公式进行计算 W-F+1=28,W=32,F=5 );
:其中W是指宽高,F是指所求的ColorSize的大小,P是指Padding—像图片外面补边,让它去遍历,默认为0;S是指步长,卷积核遍历图片的步长,默认为1;
C. nn.Linear(16*5*5,120):全连接层的初始化,涉及两个参数(输入特征的维数大小和输出特征的维数大小),全连接层需要对特征做一个拉平,将每一个特征拉平,将上一个特征向量拉为一条直线,送给全连接层;
②前向传播函数:需实现前向回归逻辑,相当于完成整个网络运行的逻辑,x是指输入,相当于上图中的input。
def forward(self,x)
A. F.relu(x):relu激活函数,激活之后网络具有非线性的分离能力;
B. tensor[batch,channel,H,W]: channel是指通道数,例如RBG三通道这些概念、H是指高,W是指宽,batch是指有几批这样的数据;
C. F.max_pool2d(x,(2,2)):最大池化下采样对x进行处理;
D. x.view(-1,x.size()[1:].numel()):进行拉平、展平之后给全连接层,对当前的输入数据x进行一个形式转换,输入行和列,这里所对应的列等于self.fc1 = nn.Linear(16*5*5,120)这里所对应的行,为x.size切片之后数据的乘积;行信息根据批次信息自动生成,-1让程序自动生成这个行;为什么要切1,对于tensor信息来说,将batch切掉,channel、H、W相乘等于16*5*5;
注意: Pytorch处理的都是张量(张量是神经网络所使用的主要数据结构)数据。
四、测试网络效果
相当于打印网络初始化部分,也可以与网络结构相对应检查一下。
net = Net()
print(net)
参考:Pytorch逐行代码入门学习_哔哩哔哩_bilibili