【Pytorch神经网络实战案例】10 搭建深度卷积神经网络

 
识别黑白图中的服装图案(Fashion-MNIST)https://blog.csdn.net/qq_39237205/article/details/123379997基于上述代码修改模型的组成

1 修改myConNet模型

1.1.1 修改阐述

将模型中的两个全连接层,变为全局平均池化层。

1.1.2 修改结果

### 1.5 定义模型类
class myConNet(torch.nn.Module):def __init__(self):super(myConNet, self).__init__()# 定义卷积层self.conv1 = torch.nn.Conv2d(in_channels = 1 ,out_channels = 6,kernel_size = 3)self.conv2 = torch.nn.Conv2d(in_channels = 6,out_channels = 12,kernel_size = 3)self.conv3 = torch.nn.Conv2d(in_channels = 12, out_channels=10, kernel_size = 3) # 分为10个类def forward(self,t):# 第一层卷积和池化处理t = self.conv1(t)t = F.relu(t)t = F.max_pool2d(t, kernel_size=2, stride=2)# 第二层卷积和池化处理t = self.conv2(t)t = F.relu(t)t = F.max_pool2d(t, kernel_size=2, stride=2)# 第三层卷积和池化处理t = self.conv3(t)t = F.avg_pool2d(t,kernel_size = t.shape[-2:],stride = t.shape[-2:]) # 设置池化区域为输入数据的大小(最后两个维度),完成全局平均化的处理。return t.reshape(t.shape[:2])

2 代码

import  torchvision
import torchvision.transforms as transforms
import pylab
import torch
from matplotlib import pyplot as plt
import torch.utils.data
import torch.nn.functional as F
import numpy as np
import os
os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"# 定义显示图像的函数
def imshow(img):print("图片形状",np.shape(img))img = img/2 +0.5npimg = img.numpy()plt.axis('off')plt.imshow(np.transpose(npimg,(1,2,0)))### 1.1 自动下载FashionMNIST数据集
data_dir = './fashion_mnist' # 设置存放位置
transform = transforms.Compose([transforms.ToTensor()]) # 可以自动将图片转化为Pytorch支持的形状[通道,高,宽],同时也将图片的数值归一化
train_dataset = torchvision.datasets.FashionMNIST(data_dir,train=True,transform=transform,download=True)
print("训练集的条数",len(train_dataset))### 1.2 读取及显示FashionMNIST数据集中的数据
val_dataset = torchvision.datasets.FashionMNIST(root=data_dir,train=False,transform=transform)
print("测试集的条数",len(val_dataset))
##1.2.1 显示数据集中的数据
im = train_dataset[0][0].numpy()
im = im.reshape(-1,28)
pylab.imshow(im)
pylab.show()
print("当前图片的标签为",train_dataset[0][1])### 1.3 按批次封装FashionMNIST数据集
batch_size = 10 #设置批次大小
train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(val_dataset, batch_size=batch_size, shuffle=False)### 1.4 读取批次数据集
## 定义类别名称
classes = ('T-shirt', 'Trouser', 'Pullover', 'Dress', 'Coat', 'Sandal', 'Shirt', 'Sneaker', 'Bag', 'Ankle_Boot')
sample = iter(train_loader) # 将数据集转化成迭代器
images,labels = sample.next() # 从迭代器中取得一批数据
print("样本形状",np.shape(images)) # 打印样本形状
# 输出 样本形状 torch.Size([10, 1, 28, 28])
print("样本标签",labels)
# 输出 图片形状 torch.Size([3, 32, 302])
imshow(torchvision.utils.make_grid(images,nrow = batch_size)) # 数据可视化:make_grid()将该批次的图片内容组合为一个图片,用于显示,nrow用于设置生成图片中每行的样本数量
print(','.join('%5s' % classes[labels[j]] for j in range(len(images))))
# 输出 Trouser,Trouser,Dress,  Bag,Shirt,Sandal,Shirt,Dress,  Bag,  Bag### 1.5 定义模型类
class myConNet(torch.nn.Module):def __init__(self):super(myConNet, self).__init__()# 定义卷积层self.conv1 = torch.nn.Conv2d(in_channels = 1 ,out_channels = 6,kernel_size = 3)self.conv2 = torch.nn.Conv2d(in_channels = 6,out_channels = 12,kernel_size = 3)self.conv3 = torch.nn.Conv2d(in_channels = 12, out_channels=10, kernel_size = 3) # 分为10个类def forward(self,t):# 第一层卷积和池化处理t = self.conv1(t)t = F.relu(t)t = F.max_pool2d(t, kernel_size=2, stride=2)# 第二层卷积和池化处理t = self.conv2(t)t = F.relu(t)t = F.max_pool2d(t, kernel_size=2, stride=2)# 第三层卷积和池化处理t = self.conv3(t)t = F.avg_pool2d(t,kernel_size = t.shape[-2:],stride = t.shape[-2:]) # 设置池化区域为输入数据的大小(最后两个维度),完成全局平均化的处理。return t.reshape(t.shape[:2])if __name__ == '__main__':network = myConNet() # 生成自定义模块的实例化对象#指定设备device = torch.device("cuda:0"if torch.cuda.is_available() else "cpu")print(device)network.to(device)print(network) # 打印myConNet网络
### 1.6 损失函数与优化器criterion = torch.nn.CrossEntropyLoss()  #实例化损失函数类optimizer = torch.optim.Adam(network.parameters(), lr=.01)
### 1.7 训练模型for epoch in range(2):  # 数据集迭代2次running_loss = 0.0for i, data in enumerate(train_loader, 0):  # 循环取出批次数据 使用enumerate()函数对循环计数,第二个参数为0,表示从0开始inputs, labels = datainputs, labels = inputs.to(device), labels.to(device)  #optimizer.zero_grad()  # 清空之前的梯度outputs = network(inputs)loss = criterion(outputs, labels)  # 计算损失loss.backward()  # 反向传播optimizer.step()  # 更新参数running_loss += loss.item()### 训练过程的显示if i % 1000 == 999:print('[%d, %5d] loss: %.3f' %(epoch + 1, i + 1, running_loss / 2000))running_loss = 0.0print('Finished Training')
### 1.8 保存模型torch.save(network.state_dict(),'./models/CNNFashionMNist.PTH')### 1.9 加载模型,并且使用该模型进行预测network.load_state_dict(torch.load('./models/CNNFashionMNist.PTH')) # 加载模型# 使用模型dataiter = iter(test_loader) # 获取测试数据images, labels = dataiter.next()inputs, labels = images.to(device), labels.to(device)imshow(torchvision.utils.make_grid(images, nrow=batch_size)) # 取出一批数据进行展示print('真实标签: ', ' '.join('%5s' % classes[labels[j]] for j in range(len(images))))# 输出:真实标签:  Ankle_Boot Pullover Trouser Trouser Shirt Trouser  Coat Shirt Sandal Sneakeroutputs = network(inputs) # 调用network对输入样本进行预测,得到测试结果outputs_, predicted = torch.max(outputs, 1) # 对于预测结果outputs沿着第1维度找出最大值及其索引值,该索引值即为预测的分类结果print('预测结果: ', ' '.join('%5s' % classes[predicted[j]] for j in range(len(images))))# 输出:预测结果:  Ankle_Boot Pullover Trouser Trouser Pullover Trouser Shirt Shirt Sandal Sneaker### 1.10 评估模型# 测试模型class_correct = list(0. for i in range(10)) # 定义列表,收集每个类的正确个数class_total = list(0. for i in range(10)) # 定义列表,收集每个类的总个数with torch.no_grad():for data in test_loader: # 遍历测试数据集images, labels = datainputs, labels = images.to(device), labels.to(device)outputs = network(inputs) # 将每个批次的数据输入模型_, predicted = torch.max(outputs, 1) # 计算预测结果predicted = predicted.to(device)c = (predicted == labels).squeeze() # 统计正确的个数for i in range(10): # 遍历所有类别label = labels[i]class_correct[label] = class_correct[label] + c[i].item() # 若该类别正确则+1class_total[label] = class_total[label] + 1 # 根据标签中的类别,计算类的总数sumacc = 0for i in range(10): # 输出每个类的预测结果Accuracy = 100 * class_correct[i] / class_total[i]print('Accuracy of %5s : %2d %%' % (classes[i], Accuracy))sumacc = sumacc + Accuracyprint('Accuracy of all : %2d %%' % (sumacc / 10.)) # 输出最终的准确率

输出:

Accuracy of T-shirt : 72 %
Accuracy of Trouser : 96 %
Accuracy of Pullover : 75 %
Accuracy of Dress : 72 %
Accuracy of  Coat : 75 %
Accuracy of Sandal : 90 %
Accuracy of Shirt : 35 %
Accuracy of Sneaker : 93 %
Accuracy of   Bag : 92 %
Accuracy of Ankle_Boot : 92 %
Accuracy of all : 79 %

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/469369.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【Pytorch神经网络理论篇】 14 过拟合问题的优化技巧(一):基本概念+正则化+数据增大

同学你好!本文章于2021年末编写,获得广泛的好评! 故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现, Pytorch深度学习理论篇(2023版)目录地址…

MTK 8127平台使用busybox

一、什么是BusyBox ? BusyBox 是标准 Linux 工具的一个单个可执行实现。BusyBox 包含了一些简单的工具,例如 cat 和 echo,还包含了一些更大、更复杂的工具,例如 grep、find、mount 以及 telnet。有些人将 BusyBox 称为 Linux 工具…

【Pytorch神经网络理论篇】 15 过拟合问题的优化技巧(二):Dropout()方法

同学你好!本文章于2021年末编写,获得广泛的好评! 故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现, Pytorch深度学习理论篇(2023版)目录地址…

【Pytorch神经网络理论篇】 16 过拟合问题的优化技巧(三):批量归一化

同学你好!本文章于2021年末编写,获得广泛的好评! 故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现, Pytorch深度学习理论篇(2023版)目录地址…

【Pytorch神经网络理论篇】 17 循环神经网络结构:概述+BP算法+BPTT算法

同学你好!本文章于2021年末编写,获得广泛的好评! 故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现, Pytorch深度学习理论篇(2023版)目录地址…

【Pytorch神经网络理论篇】 18 循环神经网络结构:LSTM结构+双向RNN结构

同学你好!本文章于2021年末编写,获得广泛的好评! 故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现, Pytorch深度学习理论篇(2023版)目录地址…

【Pytorch神经网络理论篇】 19 循环神经网络训练语言模型:语言模型概述+NLP多项式概述

同学你好!本文章于2021年末编写,获得广泛的好评! 故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现, Pytorch深度学习理论篇(2023版)目录地址…

常见排序算法的C#实现

排序算法常见的有直接排序、冒泡排序、快速排序、基数排序、归并排序等&#xff0c;下面是实现的代码&#xff0c;仅供参考。 #region DirectSort/// <summary>/// 直接排序./// 第一次从R[0]~R[n-1]中选取最小值&#xff0c;与R[0]交换&#xff0c;/// 第二次从R[1]~R[n…

【Pytorch神经网络实战案例】11 循环神经网络结构训练语言模型并进行简单预测

1 语言模型步骤 简单概述&#xff1a;根据输入内容&#xff0c;继续输出后面的句子。 1.1 根据需求拆分任务 (1)先对模型输入一段文字&#xff0c;令模型输出之后的一个文字。(2)将模型预测出来的文字当成输入&#xff0c;再放到模型里&#xff0c;使模型预测出下一个文字&…

【Pytorch神经网络理论篇】 20 神经网络中的注意力机制

同学你好&#xff01;本文章于2021年末编写&#xff0c;获得广泛的好评&#xff01; 故在2022年末对本系列进行填充与更新&#xff0c;欢迎大家订阅最新的专栏&#xff0c;获取基于Pytorch1.10版本的理论代码(2023版)实现&#xff0c; Pytorch深度学习理论篇(2023版)目录地址…

【Pytorch神经网络实战案例】12 利用注意力机制的神经网络实现对FashionMNIST数据集图片的分类

1、掩码模式&#xff1a;是相对于变长的循环序列而言的&#xff0c;如果输入的样本序列长度不同&#xff0c;那么会先对其进行对齐处理&#xff08;对短序列补0&#xff0c;对长序列截断&#xff09;&#xff0c;再输入模型。这样&#xff0c;模型中的部分样本中就会有大量的零…

爬虫实战学习笔记_4 网络请求urllib3模块:发送GET/POST请求实例+上传文件+IP代理+json+二进制+超时

1 urllib3模块简介 urllib3是一个第三方的网络请求模块&#xff08;单独安装该模块&#xff09;&#xff0c;在功能上比Python自带的urllib强大。 1.1了解urllib3 urllib3库功能强大&#xff0c;条理清晰的用于HTTP客户端的python库&#xff0c;提供了很多Python标准库里所没…

C. Jon Snow and his Favourite Number DP + 注意数值大小

http://codeforces.com/contest/768/problem/C 这题的数值大小只有1000&#xff0c;那么可以联想到&#xff0c;用数值做数组的下标&#xff0c;就是类似于计数排序那样子。。 这样就可以枚举k次操作&#xff0c;然后for (int i 0; i < 1025; i)&#xff0c;也就是O(1000 *…

【Pytorch神经网络理论篇】 21 信息熵与互信息:联合熵+条件熵+交叉熵+相对熵/KL散度/信息散度+JS散度

同学你好&#xff01;本文章于2021年末编写&#xff0c;获得广泛的好评&#xff01; 故在2022年末对本系列进行填充与更新&#xff0c;欢迎大家订阅最新的专栏&#xff0c;获取基于Pytorch1.10版本的理论代码(2023版)实现&#xff0c; Pytorch深度学习理论篇(2023版)目录地址…

【Pytorch神经网络理论篇】 22 自编码神经网络:概述+变分+条件变分自编码神经网络

同学你好&#xff01;本文章于2021年末编写&#xff0c;获得广泛的好评&#xff01; 故在2022年末对本系列进行填充与更新&#xff0c;欢迎大家订阅最新的专栏&#xff0c;获取基于Pytorch1.10版本的理论代码(2023版)实现&#xff0c; Pytorch深度学习理论篇(2023版)目录地址…

【Pytorch神经网络实战案例】13 构建变分自编码神经网络模型生成Fashon-MNST模拟数据

1 变分自编码神经网络生成模拟数据案例说明 变分自编码里面真正的公式只有一个KL散度。 1.1 变分自编码神经网络模型介绍 主要由以下三个部分构成&#xff1a; 1.1.1 编码器 由两层全连接神经网络组成&#xff0c;第一层有784个维度的输入和256个维度的输出&#xff1b;第…

【Pytorch神经网络实战案例】14 构建条件变分自编码神经网络模型生成可控Fashon-MNST模拟数据

1 条件变分自编码神经网络生成模拟数据案例说明 在实际应用中&#xff0c;条件变分自编码神经网络的应用会更为广泛一些&#xff0c;因为它使得模型输出的模拟数据可控&#xff0c;即可以指定模型输出鞋子或者上衣。 1.1 案例描述 在变分自编码神经网络模型的技术上构建条件…

hibernate持久化对象

转载于:https://www.cnblogs.com/jianxin-lilang/p/6440101.html

【Pytorch神经网络理论篇】 23 对抗神经网络:概述流程 + WGAN模型 + WGAN-gp模型 + 条件GAN + WGAN-div + W散度

同学你好&#xff01;本文章于2021年末编写&#xff0c;获得广泛的好评&#xff01; 故在2022年末对本系列进行填充与更新&#xff0c;欢迎大家订阅最新的专栏&#xff0c;获取基于Pytorch1.10版本的理论代码(2023版)实现&#xff0c; Pytorch深度学习理论篇(2023版)目录地址…