Pytorch深度学习实践(9)卷积神经网络

卷积神经网络

全连接神经网络

神经网络中全部是线性模型,是由线性模型串联起来的

全连接网络又叫全连接层

卷积神经网络

在全连接神经网络中,由于输入必须是一维向量,因此在处理图像时必须要对图像矩阵进行拉伸成一维的形式,这必然会导致损失一些空间信息

为了保证空间信息的完整性,因此我们需要使用卷积神经网络,直接出入图片,进行模型训练

基本步骤如下:

输入 – 卷积 – 下采样 – 卷积 – 下采样 – 全连接层 – 输出

在这里插入图片描述

其中,卷积和下采样工作称为特征提取 feature extraction,全连接层的工作叫做分类器 classification

图像

图像分为三个维度:

  • 通道(rgb

即表示为 C × H × W C×H×W C×H×W

卷积的运算

单通道卷积

在输入中,拿出和卷积核大小一致的矩阵,与卷积核进行数乘,让后放到输出的第一个单元格内
在这里插入图片描述

然后使用卷积核依次对输入进行遍历,最终填满所有的输出

在这里插入图片描述

多通道卷积

每一个通道都配有一个卷积核,对每个通道进行卷积操作,最后把所有通道的输出进行相加,得到最终的输出

原始图像几个通道,卷积核就要有几层

在这里插入图片描述

对于多通道图像,图像可以看作是立体的,卷积核也可以看作是立体的,经过卷积之后把各通道的输出相加,最终得到一个二维的张量
在这里插入图片描述

为了在训练过程中使得输出也具有多个通道,因此使用多个3维的卷积核

在这里插入图片描述

卷积层的设计

卷积核

三要素:

  • 输入的通道数
  • 输出的通道数
  • 卷积核尺寸的大小
# 实例化卷积层
conv_layer = torch.nn.Conv2d(in_channels, out_channels, kernel_size = kernel_size)
# 设置卷积核权重 (batch_sie, channel, w, h) = (1, 1, 3, 3)
kernel = torch.Tensor([1, 2, 3, 4, 5, 6, 7, 8, 9]).view(1, 1, 3, 3)
conv_layer.weight.data = kernel.data

通过卷积核后输出的大小: m × n × k e r n e l _ s i z e w i d t h × k e r n e l _ s i z e h e i g h t m×n×kernel\_size_{width}×kernel\_size_{height} m×n×kernel_sizewidth×kernel_sizeheight

其中, m m m为批量 b a t c h batch batch大小, n n n为通道数

padding填充

通过设置padding,即对原始图像进行填充,进而控制输出的大小,填充的部分一般默认用0代替

在这里插入图片描述

一般来说,如果卷积核是 3 × 3 3×3 3×3,则padding一圈,如果卷积核是 5 × 5 5×5 5×5,则padding两圈

卷积核大小为 n × n,则padding n / 2 n / 2 n/2(整除)圈

conv_layer = torch.nn.Conv2d(in_channels,  # 输入通道数out_channels, # 输出通道数kernel_size = kernel_size, # 卷积核大小padding = 1,  # 填充层数bias = False) # 不使用偏置

stride步长

每次遍历原始图像时的步长,可以有效地降低图像的宽度和高度

conv_layer = torch.nn.Conv2d(1, 1,kernel_size = 3, # 卷积核大小padding = 1,  # 填充层数stride=2,  #步长bias = False) # 不使用偏置

下采样

一般使用最大池化层,即MaxPooling

最大池化层步长默认大小为 2 × 2 2×2 2×2

先将输入按照步长大小分割,形成多个部分,然后再在各个部分中取最大值,作为输出
在这里插入图片描述

maxpooling_layer = torch.nn.MaxPool2d(kernel_size=2)

代码实战

使用卷积神经网络处理MNIST

构造卷积神经网络如下所示:
在这里插入图片描述

  • 卷积层不需要知道输入输出的大小
  • 但最后的全连接层(线性模型)需要定义输出输出的大小

在这里插入图片描述

不使用GPU版本

import torch
import matplotlib.pyplot as plt
from torchvision import transforms
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F########## 准备数据集 ##########
batch_size = 64
## 实例化转换器
transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307,), (0.3081,))
])
train_dataset = datasets.MNIST(root='./dataset/mnist/',train=True,download=False,transform=transform)
train_loader = DataLoader(train_dataset,shuffle=True,batch_size=batch_size)
test_dataset = datasets.MNIST(root='./dataset/mnist/',train=False,download=False,transform=transform)
test_loader = DataLoader(test_dataset, batch_size=batch_size)########## 定义模型 ##########
class Net(torch.nn.Module):def __init__(self):super(Net, self).__init__()self.conv1 = torch.nn.Conv2d(1, 10, kernel_size=5) # 卷积层1self.conv2 = torch.nn.Conv2d(10, 20, kernel_size=5) # 卷积层2self.pooling = torch.nn.MaxPool2d(2)  # 池化层self.fc = torch.nn.Linear(320, 10)  # 全连接层def forward(self, x):batch_size = x.size(0)## 先输入卷积层 在输入池话层 最后输入到relu中做非线性变换# 1x = F.relu(self.pooling(self.conv1(x)))# 2x = F.relu(self.pooling(self.conv2(x)))## 全连接层# 先把输入平铺 flatten 操作x = x.view(batch_size, -1)x = self.fc(x)return xmodel = Net()########## 损失函数核优化器定义 ##########
criterion = torch.nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr = 0.01, momentum=0.5)########## 模型训练 ##########
def train(epoch):running_loss = 0.0for batch_index, data in enumerate(train_loader, 0):inputs, target = dataoptimizer.zero_grad()# forwardoutputs = model(inputs)loss = criterion(outputs, target)# backwardloss.backward()# updateoptimizer.step()running_loss += loss.item()if batch_index % 300 == 299:print('[%d %5d] loss: %.3f' % (epoch + 1, batch_index + 1, running_loss / 300))running_loss = 0.0########## 模型测试 ##########
def test():correct = 0total = 0with torch.no_grad():for data in test_loader:inputs, target = dataoutputs = model(inputs)_, predicted = torch.max(outputs.data, dim=1)total += target.size(0)correct += (predicted == target).sum().item()print('Accuracy on test set: %d %%' % (100 * correct / total))return 100 * correct / total######### main ##########
if __name__ == '__main__':accuracy_history = []epoch_history = []for epoch in range(50):train(epoch)accuracy = test()accuracy_history.append(accuracy)epoch_history.append(epoch)plt.plot(epoch_history, accuracy_history)plt.xlabel('epoch')plt.ylabel('accuracy(%)')plt.show()

使用GPU版本

  • 设置模型训练设备

    device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
    
  • 把模型放入GPU

    model.to(device)
    
  • 把数据放入GPU

    inputs, target = inputs.to(device), target.to(device)
    
import torch
import matplotlib.pyplot as plt
from torchvision import transforms
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F########## 准备数据集 ##########
batch_size = 64
## 实例化转换器
transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307,), (0.3081,))
])
train_dataset = datasets.MNIST(root='./dataset/mnist/',train=True,download=False,transform=transform)
train_loader = DataLoader(train_dataset,shuffle=True,batch_size=batch_size)
test_dataset = datasets.MNIST(root='./dataset/mnist/',train=False,download=False,transform=transform)
test_loader = DataLoader(test_dataset, batch_size=batch_size)########## 定义模型 ##########
class Net(torch.nn.Module):def __init__(self):super(Net, self).__init__()self.conv1 = torch.nn.Conv2d(1, 10, kernel_size=5) # 卷积层1self.conv2 = torch.nn.Conv2d(10, 20, kernel_size=5) # 卷积层2self.pooling = torch.nn.MaxPool2d(2)  # 池化层self.fc = torch.nn.Linear(320, 10)  # 全连接层def forward(self, x):batch_size = x.size(0)## 先输入卷积层 在输入池话层 最后输入到relu中做非线性变换# 1x = F.relu(self.pooling(self.conv1(x)))# 2x = F.relu(self.pooling(self.conv2(x)))## 全连接层# 先把输入平铺 flatten 操作x = x.view(batch_size, -1)x = self.fc(x)return xmodel = Net()
## 使用gpu
if torch.cuda.is_available():print("使用gpu训练")
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
## 将模型放入设备
model.to(device)
########## 损失函数核优化器定义 ##########
criterion = torch.nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr = 0.01, momentum=0.5)########## 模型训练 ##########
def train(epoch):running_loss = 0.0for batch_index, data in enumerate(train_loader, 0):inputs, target = data## 将数据放入设备inputs, target = inputs.to(device), target.to(device)optimizer.zero_grad()# forwardoutputs = model(inputs)loss = criterion(outputs, target)# backwardloss.backward()# updateoptimizer.step()running_loss += loss.item()if batch_index % 300 == 299:print('[%d %5d] loss: %.3f' % (epoch + 1, batch_index + 1, running_loss / 300))running_loss = 0.0########## 模型测试 ##########
def test():correct = 0total = 0with torch.no_grad():for data in test_loader:inputs, target = data## 将数据放入设备inputs, target = inputs.to(device), target.to(device)outputs = model(inputs)_, predicted = torch.max(outputs.data, dim=1)total += target.size(0)correct += (predicted == target).sum().item()print('Accuracy on test set: %d %%' % (100 * correct / total))return 100 * correct / total######### main ##########
if __name__ == '__main__':accuracy_history = []epoch_history = []for epoch in range(50):train(epoch)accuracy = test()accuracy_history.append(accuracy)epoch_history.append(epoch)plt.plot(epoch_history, accuracy_history)plt.xlabel('epoch')plt.ylabel('accuracy(%)')plt.show()

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/50076.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【算法】布隆过滤器

一、引言 在现实世界的计算机科学问题中,我们经常需要判断一个元素是否属于一个集合。传统的做法是使用哈希表或者直接遍历集合,但这些方法在数据量较大时效率低下。布隆过滤器(Bloom Filter)是一种空间效率极高的概率型数据结构&…

【NPU 系列专栏 2.8 -- 特斯拉 FDS NPU 详细介绍 】

请阅读【嵌入式及芯片开发学必备专栏】 文章目录 特斯拉 NPU 芯片介绍FSD(Full Self-Driving)芯片 简介FSD主要特点FSD 详细参数FSD 应用场景特斯拉 Hardware 3.0 芯片 简介Hardware 3.0主要特点Hardware 3.0 详细参数Hardware 3.0应用场景特斯拉自研 NPU 的优势优化设计高度…

【数学建模】——matplotlib简单应用

目录 1.绘制带有中文标签和图例的正弦和余弦曲线 2. 绘制散点图 1.修改散点符号与大小 2.修改颜色 3.绘制饼状图 4.在图例中显示公式 5.多个图形单独显示 6.绘制有描边和填充效果的柱状图 7.使用雷达图展示学生成绩 8.绘制三维曲面 9.绘制三维曲线 10.设置…

定制化即时通讯企业级移动门户解决方案,WorkPlus IM系统让工作事半功倍

随着移动设备的普及和移动办公的兴起,企业越来越需要一种定制化的即时通讯企业级移动门户解决方案来提高工作效率和团队协作效果。WorkPlus IM系统作为一种创新的解决方案,为企业提供了一个个性化定制、高度安全和高效便捷的移动门户平台。本文将对定制化…

BFF:优化前后端协作设计模式

BFF:优化前后端协作设计模式 BFF是什么 BFF即 Backends For Frontends (服务于前端的后端)。是一种介于前端和后端之间一种重要的通信设计模式。它旨在解决前端与后端协作中的复杂性问题。 背景 行业背景:传统前端应用(如Web应用、移动应…

微服务-MybatisPlus下

微服务-MybatisPlus下 文章目录 微服务-MybatisPlus下1 MybatisPlus扩展功能1.1 代码生成1.2 静态工具1.3 逻辑删除1.4 枚举处理器1.5 JSON处理器**1.5.1.定义实体****1.5.2.使用类型处理器** **1.6 配置加密(选学)**1.6.1.生成秘钥**1.6.2.修改配置****…

网络安全防御【IPsec VPN搭建】

目录 一、实验拓扑图 二、实验要求 三、实验思路 四、实验步骤: 修改双机热备的为主备模式: 2、配置交换机LSW6新增的配置: 3、防火墙(FW4)做相关的基础配置: 4、搭建IPsec VPN通道 (1…

Java代码基础算法练习-求杨辉三角第n行的值-2024.07.27

任务描述&#xff1a; 给定一个非负整数n&#xff0c;生成「杨辉三角」的第n行。&#xff08;1<n<10&#xff09;在「杨辉三角」中&#xff0c;每 个数是它左上方和右上方的数的和。 &#xff08;提示&#xff0c;第一列数值为1&#xff0c;如数组下标用i,j表示&#xf…

独占电脑资源来执行一个应用

1. 背景 在人工智能时代&#xff0c;随着神经网络的发展&#xff0c;训练人工智能模型需要越来越多的硬件资源&#xff0c;例如&#xff0c;利用10万条棋局数据、使用一台PC电脑、完整地训练一次确定性神经网络五子棋模型&#xff0c;需要花费一年半的时间。随着训练数据的增长…

APP逆向 day23司小宝逆向

一.前言 今天也是讲最后一个基础知识点了&#xff0c;ptrace占坑&#xff0c;这个也算是一个坑&#xff0c;今天通过这个案例和大家讲一下&#xff0c;今天这个案例我们来整验证码登录&#xff0c;版本选择4.7.8 二.抓包分析 抓包发现&#xff0c;请求头里的东西通过改包发现…

Spring Boot:图书管理系统(一)

1.编写用户登录接口 代码&#xff1a; package com.example.demo;import jakarta.servlet.http.HttpSession; import org.springframework.util.StringUtils; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotatio…

技术成神之路:设计模式(九)备忘录模式

介绍 备忘录模式&#xff08;Memento Pattern&#xff09;是一种行为设计模式&#xff0c;它允许在不破坏封装性的前提下捕获和恢复对象的内部状态。通过备忘录模式&#xff0c;可以在程序运行过程中保存和恢复对象的某个状态&#xff0c;从而实现“撤销”等功能。 1.定义 备忘…

【BUG】已解决:UnicodeDecodeError: ‘utf-8’ codec can’t decode bytes in position 10

UnicodeDecodeError: ‘utf-8’ codec can’t decode bytes in position 10 目录 UnicodeDecodeError: ‘utf-8’ codec can’t decode bytes in position 10 【常见模块错误】 【解决方案】 欢迎来到英杰社区https://bbs.csdn.net/topics/617804998 欢迎来到我的主页&#x…

使用python内置的虚拟环境

在一台机器上安装了太多的第三方python库&#xff0c;它们依赖相同的库可能版本不同&#xff0c;就会造成某些第三方库崩溃&#xff0c;之前可以使用的库可能就会坏掉不能用了&#xff0c;所以可以使用虚拟环境运行不同的程序&#xff0c;python有内置的虚拟环境&#xff1b; …

前端八股文 promise async await 的理解

promise是什么 Promise 是异步编程的一种解决方案&#xff0c;比传统的解决方案——回调函数和事件——更合理和更强大。 目的 解析 吴优编程 &#xff08;解决异步编程中的嵌套问题的&#xff0c;将嵌套的格式 用peomise 写成同步&#xff09; promise.then() 是成功后继…

Cocos Creator2D游戏开发(4)-飞机大战(2)-编辑器界面

编辑器几个重要板块 参考: https://docs.cocos.com/creator/3.8/manual/zh/editor/ (1) 场景编辑器: 仅看2D视图: 按钮作用依次是: 平移, 旋转,缩放,矩形变换,增量吸附工具,最后三个,前俩是变换工具,最后一个是布局组件 矩形变换: 中心点和锚点切换 以后用到慢慢整吧! (2)层…

AI服务器产业链研究分析

AI服务器产业链初探 一、AI服务器的技术架构与构成 AI服务器的主要构成包括&#xff1a; 芯片种类丰富&#xff0c;包括X86、ARM、MIPS等架构的CPU&#xff0c;以及GPU、FPGA、ASIC和NPU等。 内存&#xff1a;DRAM、HBM&#xff08;高带宽存储&#xff09;。 本地存储&#…

前端开发调试工具推荐分类整理

具体前往&#xff1a;前端调试工具分类整理汇总

黑马Java零基础视频教程精华部分_6_字符串

系列文章目录 文章目录 系列文章目录前言一、API是什么&#xff1f; API帮助文档案例&#xff1a;API文档练习Step1&#xff1a;查找文档中Scanner内容。Step2&#xff1a;学习文档中Scanner内容。 二、字符串String类1、String概述总结&#xff1a; 创建String对象的两种方式2…

java学习--String类StringBuffer类StringBuilder类

String类简介 关系图&#xff1a; value不可修改的是value指向的地址&#xff0c;因为可以value为一个数组&#xff0c;而数组名其实就相当于一个指针&#xff0c;指向着一块地址&#xff0c;然后在指向的地址里存放相应的值&#xff0c;值可以任意是什么&#xff0c;但是地址不…