八、卷积层

一、Conv2d

torch.nn.Conv2d官网文档
torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None)

参数解释官网详情说明
in_channels输入的通道数,如果是彩色照片通道数(RGB)就是3(int) – Number of channels in the input image
out_channels输出的通道数。若输入为一张单通道的灰度图像,输出通道设置为2,则卷积层会提供2个卷积核(不一定完全相同)来分别对这个单通道图像进行卷据操作,得到2张特征图(int) – Number of channels produced by the convolution
kernel_size卷积核的大小,可以输入一个整数或者一个元组(int or tuple) – Size of the convolving kernel
stride卷积的过程中移动的步数(int or tuple, optional) – Stride of the convolution. Default: 1
padding是否对原始图像进行加边操作(int, tuple or str, optional) – Padding added to all four sides of the input. Default: 0
dilation卷积核对应位置的距离,卷积的各个元素之间具有位置,并非全部相邻(int or tuple, optional) – Spacing between kernel elements. Default: 1
groups分组卷积,一般都是设置为1,几乎不用分组卷积(int, optional) – Number of blocked connections from input channels to output channels. Default: 1
bias偏置,常设置为True,也就是最后加个常数进行微调(bool, optional) – If True, adds a learnable bias to the output. Default: True
padding_mode在padding进行加边操作的时候,需要加的内容是啥,一般都是zero 全填充0(string, optional) – ‘zeros’, ‘reflect’, ‘replicate’ or ‘circular’. Default: ‘zeros’

相关参数设置的演示,需要科学上网,懂得都懂

二、代码演示

import torch
import torchvision
from torch import nn
from torch.nn import Conv2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset_test = torchvision.datasets.CIFAR10("CIFAR_10",train=False,transform=torchvision.transforms.ToTensor(),download=True)
#下载CIFAR10数据集到CIFAR_10文件夹下,train=False下载测试集,transform=torchvision.transforms.ToTensor()对数据进行转换为tensor类型,download=True若没有则下载数据集dataloader = DataLoader(dataset=dataset_test,batch_size=32)
#dataset=dataset_test指定装载的数据集为dataset_test也就是CIAFAR10数据集中的测试集;batch_size=32每32张为一组class Beyond(nn.Module):def __init__(self):super(Beyond, self).__init__()self.conv2d_1 = Conv2d(in_channels=3,out_channels=6,kernel_size=3,stride=1,padding=1)#in_channels=3输入的3通道的彩色图片#out_channels=6输出为通过卷积之后得到的6通道的特征图#kernel_size=3卷积核的大小为(3,3)#stride=1每一步进行(1,1)的移动#padding=1为了防止卷积之后的特征图大小变化,这里向图片的加了一圈边def forward(self,input):result = self.conv2d_1(input)#对传入的input数据进行卷积,卷积的配置在__init__中进行定义return resultbeyond = Beyond()
print(beyond)
"""
Beyond((conv2d_1): Conv2d(3, 6, kernel_size=(3, 3), stride=(1, 1))#也就是__init__中的定义
)
"""writer = SummaryWriter("y_log")#准备上传至tensorboardi = 0
for data in dataloader:imgs,targets = dataoutput = beyond(imgs)#print(imgs.shape)#torch.Size([32, 3, 32, 32])#print(output.shape)#torch.Size([32, 6, 32, 32])#原始的数据为[32, 3, 32, 32],[batch,channel,H,W]#卷积之后变成了6通道,故需要转换输出数据output = torch.reshape(output,(-1,3,32,32))#这里的channel为3,而batch为-1表示:输出就为3个,剩下的往batch上加,相当于多来几组writer.add_images("input_CIFAR10",imgs,i)writer.add_images("output_CIFAR10",output,i)i = i + 1writer.close()

在Terminal下运行tensorboard --logdir=y_log --port=7870,logdir为打开事件文件的路径,port为指定端口打开;
通过指定端口2312进行打开tensorboard,若不设置port参数,默认通过6006端口进行打开。
在这里插入图片描述
点击该链接或者复制链接到浏览器打开即可
input_CIFAR10为32张一组,而output_CIFAR10则不一样
原因是在神经网络模型构建的时候Conv2d(in_channels=3,out_channels=6,kernel_size=3,stride=1,padding=1),输入3通道,卷积操作之后输出6通道
因为通道数的不同,无法上传至tensorboard展示,故又通过torch.reshape(output,(-1,3,32,32))对output进行了转换下格式,其中(-1,3,32,32),out_channels将强制转换为3,而因为是-1故需要将多余的通过batch进行扩展,也就是增加每组图片的数量,故在tensorboard中显示的时候input和output显示的每组数量不一样。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/377576.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【C++grammar】左值、右值和将亡值

目录C03的左值和右值C11的左值和右值将亡值在C03中就有相关的概念 C03的左值和右值 通俗的理解: (1) 能放在等号左边的是lvalue (2) 只能放在等号右边的是rvalue (3) lvalue可以作为rvalue使用 对于第三点可以举个例子: int x ; x 6; //x是左值&#…

九、池化层

一、Pooling layers Pooling layers官网文档 MaxPool最大池化层下采样 MaxUnpool最大池化层上采样 AvgPool最大池化层平均采样 例如:池化核为(3,3),输入图像为(5,5),步长为1,不加边 最大池化就是选出在池化核为单位图像中的最大…

十、非线性激活函数

一、ReLU torch.nn.ReLU(inplaceFalse)官网提供的API 其中inplace表示是否在对原始数据进行替换 由函数图可以看出,负数通过ReLU之后会变成0,正数则不发生变化 例如:input -1,若inplace True,表示对原始输入数据进…

最短公共子序列_最短公共超序列

最短公共子序列Problem statement: 问题陈述: Given two strings, you have to find the shortest common super sequence between them and print the length of the super sequence. 给定两个字符串,您必须找到它们之间最短的公共超级序列&#xff0c…

QTP自传之web常用对象

随着科技的进步,“下载-安装-运行”这经典的三步曲已离我们远去。web应用的高速发展,改变了我们的思维和生活习惯,同时也使web方面的自动化测试越来越重要。今天,介绍一下我对web对象的识别,为以后的对象库编程打下基础…

leetcode中使用c++需要注意的点以及各类容器的初始化、常用成员函数

目录1、传引用2、vector使用初始化方法常用成员函数3、字符串string初始化方法常用成员函数4、哈希表 unordered_map初始化常用成员函数示例:计数器5、哈希集合 unordered_set初始化常用成员函数6、队列 queue初始化成员函数7、栈stack初始化常用成员函数7、emplace…

十一、线性层

一、Linear Layers torch.nn.Linear(in_features, out_features, biasTrue, deviceNone, dtypeNone) 以VGG神经网络为例,Linear Layers可以将特征图的大小进行变换由(1,1,4096)转换为(1,1,1000) 二、torch.nn.Linear实战 将CIFAR-10数据集中的测试集二维图像[6…

leetcode 42. 接雨水 思考分析(暴力、动态规划、双指针、单调栈)

目录题目思路暴力法动态规划双指针法单调栈题目 给定 n 个非负整数表示每个宽度为 1 的柱子的高度图,计算按此排列的柱子,下雨之后能接多少雨水。 输入:height [0,1,0,2,1,0,1,3,2,1,2,1] 输出:6 解释:上面是由数组…

十二、Sequential

一、Sequential介绍 torch.nn.Sequential(*args) 由官网给的Example可以大概了解到Sequential是将多层网络进行便捷整合,方便可视化以及简化网络复杂性 二、复现网络模型训练CIFAR-10数据集 这里面有个Hidden units隐藏单元其实就是连个线性层 把隐藏层全部展开整…

社交问答:取代BBS的Web2.0革命

编者按:本文由乐维UP创始人俞越撰写,你也可以点击这里关注俞越的新浪微博。 BBS在中国的兴起是在95年,之后以惊人的速度发展起来。从2011年开始,国内的问答社区也如当年的BBS一样,大量涌现快速成长,大体分为…

单调栈 leetcode整理(三)

目录42. 接雨水思路分析901. 股票价格跨度思路581. 最短无序连续子数组思路一:排序双指针思路二:单调栈思路三:双指针(最省时)42. 接雨水 42. 接雨水 给定 n 个非负整数表示每个宽度为 1 的柱子的高度图,计算按此排列的柱子&…

python 抠图 锯齿_Python | 绘图中的抗锯齿

python 抠图 锯齿Antialiasing is another important feature of Matplotlib and in this article, we will review how to use this functionality. pyplot.antialiased() is an inbuilt function in matplotlib.pyplot which performs our required operation. 抗锯齿是Matpl…

apk 反编译

引用:http://code.google.com/p/dex2jar/issues/detail?id20 最新版:dex2jar http://code.google.com/p/dex2jar/downloads/list 错误:http://code.google.com/p/dex2jar/issues/detail?id20 这段时间在学Android应用开发,在想既然是用Jav…

OpenDiscussion_DataDrivenDesign

本文源于公司内部技术交流,如有不当之处,还请指正。 Content: 1. What is Data-driven design?2. WPF revolution.3. More about ObservableCollection.4. Question.1. What is Data-driven design?Data-driven design: is a design of usi…

十三、Loss Functions

一、Loss Functions损失函数 损失函数的作用: 1,损失函数就是实际输出值和目标值之间的差 2,由这个差便可以通过反向传播对之后的数据进行更新 Loss Functions官网给的API 里面由很多种损失函数,不同的损失函数有其不同的用途及表…

linux命令行界面_Linux中的命令行界面

linux命令行界面If you are like most people, you are probably most familiar with using a Graphical User Interface (GUI) to control your computer. Introduced to the masses by Apple on the Macintosh computer and popularized by Microsoft, a GUI provides an eas…

十四、OPTIM

一、torch.optim torch.optim.Optimizer(params, defaults)优化器官网说明 由官网给的使用说明打开看出来优化器实验步骤: ①构造选择优化器 例如采用随机梯度下降优化器SGD torch.optim.SGD(beyond.parameters(),lr0.01),放入beyond模型的参数param…

leetcode 滑动窗口小结 (二)

目录424. 替换后的最长重复字符思考分析1优化1004. 最大连续1的个数 III友情提醒方法1,基于当前最大频数方法2,基于历史最大频数424. 替换后的最长重复字符 https://leetcode-cn.com/problems/longest-repeating-character-replacement/ 给你一个仅由大…

十五、修改VGG16网络来适应自己的需求

一、VGG-16 VGG-16神经网络是所训练的数据集为ImageNet ImageNet数据集中验证集和测试集一万五千张,有一千个类别 二、加载VGG-16神经网络模型 VGG16模型使用说明 torchvision.models.vgg16(pretrainedFalse) 其中参数pretrained表示是否下载已经通过ImageNet数…

十六、保存和加载自己所搭建的网络模型

一、保存自己搭建的模型方法一 例如:基于VGG16网络模型架构的基础上加上了一层线性层,最后的输出为10类 torch.save(objmodule,f"path"),传入需要保存的模型名称以及要保存的路径位置 保存模型结构和模型的参数,保存文…