一、分类任务
构建分类网络模型
- 必须继承nn.Module且在其构造函数中需调用nn.Module的构造函数
- 无需写反向传播函数,nn.Module能够利用autograd自动实现反向传播
- Module中的可学习参数可以通过named_parameters()返回迭代器
from torch import nn
import torch.nn.functional as F# 构建自己的网络
class Mnist_NN(nn.Module):def __init__(self):super().__init__()self.hidden1 = nn.Linear(784,128)self.hidden2 = nn.Linear(128,256)self.out = nn.Linear(25,10)# 前向传播def forward(self,x):x = F.relu(self.hidden1(x))x = F.relu(self.hidden2(x))x = self.out(x)return xnet = Mnist_NN()
print(net)# 打印定义好的名字里的权重和偏置项
for name,parameter in net.named_parameters():print(name,parameter,parameter.size())
二、Dataset与DataLoader
from torch.utils.data import TensorDataset
from torch.utils.data import DataLoader
from torch import optimtrain_ds = TensorDataset(x_train,y_train)
train_dl = DataLoader(train_ds,batch_size=bs,shuffle=True)valid_ds = TensorDataset(x_valid,y_valid)
valid_dl = DataLoader(valid_ds,batch_size=bs * 2)def get_data(train_ds,valid_ds):return (DataLoader(train_ds,batch_size=bs,shuffle=True),DataLoader(valid_ds,batch_size=bs * 2),)def get_model():model = Mnist_NN()return model,optim.SGD(model.parameters(),lr = 0.01)
train_dl,valid_dl = get_data(train_ds,valid_ds)
model,opt = get_model()
三、卷积神经网络
3.1卷积网络应用
- 检测任务
- 分类与检索
- 超分辨率重构
- 无人驾驶
- 人脸识别
3.2卷积网络与传统网络的区别
左:传统神经网络
右:卷积神经网络
整体架构:
输入层:数据输入
卷积层:提取特征
池化层:压缩特征
全连接层:通过一组权重参数,将输入层与隐层连接起来
卷积之后得到的值要加上偏置值bias
卷积层涉及参数:
- 滑动窗口步长:窗口移动跳跃的格数
- 卷积核尺寸:例3*3
- 边缘填充:
- 卷积核个数:
3.3 池化层:
最大池化:
3.4卷积网络的构建
- 一般卷积层,relu层,池化层可以写成一个套餐
- 注意卷积最后结构还是一个特征图,需要把图转换成向量才能做分类或者回归任务
案例代码如下:
class CNN(nn.Module):def __init__(self):super(CNN, self).__init__()self.conv1 = nn.Sequential(nn.Conv2d(in_channels=1, #灰度图out_channels=16, #要得到多少个特征图kernel_size=5, #卷积核大小stride=1, #步长padding=2,),nn.ReLU(), #relu层nn.MaxPool2d(kernel_size=2), #进行池化操作)self.conv2 = nn.Sequential(nn.Conv2d(16,32,5,1,2), #输出(32,14,14)nn.ReLU(),nn.MaxPool2d(2),)self.out = nn.Linear(32 * 7 * 7 * 10) #全连接层得到的结果def forward(self,x):x = self.conv1(x)x = self.conv2(x)x = x.view(x.size(0),-1)output = self.out(x)return output