【PyTorch】3-基础实战(ResNet)

PyTorch:3-基础实战

注:所有资料来源且归属于thorough-pytorch(https://datawhalechina.github.io/thorough-pytorch/),下文仅为学习记录

3.1:ResNet基本介绍

退化现象(degradation):增加网络层数的过程中,随着训练准确率逐渐饱和,继续增加层数,训练准确率出现下降的现象。且这种下降不是过拟合。

快捷连接(shortcut connection):将输入直接连接到后面的层,一定程度缓解了梯度消失和梯度爆炸,消除深度过大导致神经网络训练困难的问题。

梯度消失和梯度爆炸的根源:DNN结构,和,反向传播算法

梯度爆炸:网络层之间的梯度(值大于 1.0)重复相乘导致的指数级增长

梯度消失:网络层之间的梯度(值小于 1.0)重复相乘导致的指数级变小

3.2:torchvision的源代码

卷积核封装

封装3x3和1x1卷积核

def conv3x3(in_planes: int, out_planes: int, stride: int = 1, groups: int = 1, dilation: int = 1) -> nn.Conv2d:"""3x3 convolution with padding"""return nn.Conv2d(in_planes,			# 输入通道数out_planes,			# 输出通道数kernel_size=3,		# 卷积核尺寸stride=stride,		# 步长padding=dilation,	# 填充groups=groups,		# 分组bias=False,			# 偏移量dilation=dilation,	# 空洞卷积的中间间隔)def conv1x1(in_planes: int, out_planes: int, stride: int = 1) -> nn.Conv2d:"""1x1 convolution"""return nn.Conv2d(in_planes, out_planes, kernel_size=1, stride=stride, bias=False)# 解释同上

基本模块设计

ResNet常见的大小有ResNet-18,ResNet-34,ResNet-50、ResNet-101和ResNet-152,其中网络后面的数字代表的是网络的层数

两个基本模块:BasicBlock和BottleNeck

两个block类输入一个通道为in_planes维的度特征图,输出一个planes*block.expansion维的特征图,其中planes的数目大小等于in_planes。

支路上的downsample操作:对shortcut支路进行大小或维度上的调整。

shortcut connection

【1】同等维度的映射:输入输出直接相加
F ( x ) + x F(x)+x F(x)+x
【2】不同维度的映射:给x补充一个线性映射来匹配维度(通常是1x1卷积)

basic block

BasicBlock模块用来构建resnet18和resnet34

class BasicBlock(nn.Module):expansion: int = 1def __init__(self,inplanes: int,planes: int,stride: int = 1,downsample: Optional[nn.Module] = None,groups: int = 1,base_width: int = 64,dilation: int = 1,norm_layer: Optional[Callable[..., nn.Module]] = None,) -> None:super().__init__()if norm_layer is None:norm_layer = nn.BatchNorm2dif groups != 1 or base_width != 64:raise ValueError("BasicBlock only supports groups=1 and base_width=64")if dilation > 1:raise NotImplementedError("Dilation > 1 not supported in BasicBlock")# Both self.conv1 and self.downsample layers downsample the input when stride != 1self.conv1 = conv3x3(inplanes, planes, stride)self.bn1 = norm_layer(planes)self.relu = nn.ReLU(inplace=True)self.conv2 = conv3x3(planes, planes)self.bn2 = norm_layer(planes)self.downsample = downsampleself.stride = stridedef forward(self, x: Tensor) -> Tensor:identity = x  			# 备份out = self.conv1(x)  	# 对x做卷积 out = self.bn1(out)  	# 对x归一化 out = self.relu(out)  	# 对x用激活函数out = self.conv2(out)  	# 对x做卷积out = self.bn2(out)  	# 归一化if self.downsample is not None:identity = self.downsample(x)out += identity  		# 进行downsampleout = self.relu(out)return out
bottle neck

BottleNeck模块用来构建resnet50,resnet101和resnet152

class Bottleneck(nn.Module):expansion: int = 4  # 对输出通道进行倍增def __init__(self,inplanes: int,planes: int,stride: int = 1,downsample: Optional[nn.Module] = None,groups: int = 1,base_width: int = 64,dilation: int = 1,norm_layer: Optional[Callable[..., nn.Module]] = None,) -> None:super().__init__()if norm_layer is None:norm_layer = nn.BatchNorm2dwidth = int(planes * (base_width / 64.0)) * groups# Both self.conv2 and self.downsample layers downsample the input when stride != 1self.conv1 = conv1x1(inplanes, width)self.bn1 = norm_layer(width)self.conv2 = conv3x3(width, width, stride, groups, dilation)self.bn2 = norm_layer(width)self.conv3 = conv1x1(width, planes * self.expansion)self.bn3 = norm_layer(planes * self.expansion)self.relu = nn.ReLU(inplace=True)self.downsample = downsampleself.stride = stride# Bottleneckd forward函数和BasicBlock类似def forward(self, x: Tensor) -> Tensor:identity = xout = self.conv1(x)out = self.bn1(out)out = self.relu(out)out = self.conv2(out)out = self.bn2(out)out = self.relu(out)out = self.conv3(out)out = self.bn3(out)if self.downsample is not None:identity = self.downsample(x)out += identityout = self.relu(out)return out

网络整体结构

class ResNet(nn.Module):def __init__(self,block: Type[Union[BasicBlock, Bottleneck]], # 选择基本模块layers: List[int],							# 每一层block的数目构成 -> [3,4,6,3]num_classes: int = 1000, 					# 分类数目zero_init_residual: bool = False, 			# 初始化#######其他卷积构成,与本文ResNet无关######groups: int = 1,width_per_group: int = 64,replace_stride_with_dilation: Optional[List[bool]] = None,#########################################norm_layer: Optional[Callable[..., nn.Module]] = None, # norm层) -> None:super().__init__()_log_api_usage_once(self)if norm_layer is None:norm_layer = nn.BatchNorm2dself._norm_layer = norm_layerself.inplanes = 64 # 输入通道#######其他卷积构成,与本文ResNet无关######self.dilation = 1 # 空洞卷积if replace_stride_with_dilation is None:# each element in the tuple indicates if we should replace# the 2x2 stride with a dilated convolution insteadreplace_stride_with_dilation = [False, False, False]if len(replace_stride_with_dilation) != 3:raise ValueError("replace_stride_with_dilation should be None "f"or a 3-element tuple, got {replace_stride_with_dilation}")self.groups = groupsself.base_width = width_per_group#########################################self.conv1 = nn.Conv2d(3, self.inplanes, kernel_size=7, stride=2, padding=3, bias=False)self.bn1 = norm_layer(self.inplanes)self.relu = nn.ReLU(inplace=True)self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1)# 通过_make_layer带到层次化设计的效果self.layer1 = self._make_layer(block, 64, layers[0])  # 对应着conv2_xself.layer2 = self._make_layer(block, 128, layers[1], stride=2, dilate=replace_stride_with_dilation[0])  # 对应着conv3_xself.layer3 = self._make_layer(block, 256, layers[2], stride=2, dilate=replace_stride_with_dilation[1])  # 对应着conv4_xself.layer4 = self._make_layer(block, 512, layers[3], stride=2, dilate=replace_stride_with_dilation[2])  # 对应着conv5_x# 分类头self.avgpool = nn.AdaptiveAvgPool2d((1, 1))self.fc = nn.Linear(512 * block.expansion, num_classes)# 模型初始化for m in self.modules():if isinstance(m, nn.Conv2d):nn.init.kaiming_normal_(m.weight, mode="fan_out", nonlinearity="relu")elif isinstance(m, (nn.BatchNorm2d, nn.GroupNorm)):nn.init.constant_(m.weight, 1)nn.init.constant_(m.bias, 0)if zero_init_residual:for m in self.modules():if isinstance(m, Bottleneck) and m.bn3.weight is not None:nn.init.constant_(m.bn3.weight, 0)  # type: ignore[arg-type]elif isinstance(m, BasicBlock) and m.bn2.weight is not None:nn.init.constant_(m.bn2.weight, 0)  # type: ignore[arg-type]# 层次化设计def _make_layer(self,block: Type[Union[BasicBlock, Bottleneck]], # 基本构成模块选择planes: int,  								# 输入的通道blocks: int, 								# 模块数目stride: int = 1, 							# 步长dilate: bool = False, 						# 空洞卷积,与本文无关) -> nn.Sequential:norm_layer = self._norm_layerdownsample = None 							# 是否采用下采样####################无关#####################previous_dilation = self.dilation if dilate:self.dilation *= stridestride = 1#############################################if stride != 1 or self.inplanes != planes * block.expansion:downsample = nn.Sequential(conv1x1(self.inplanes, planes * block.expansion, stride),norm_layer(planes * block.expansion),)# 使用layers存储每个layerlayers = []layers.append(block(self.inplanes, planes, stride, downsample, self.groups, self.base_width, previous_dilation, norm_layer))self.inplanes = planes * block.expansionfor _ in range(1, blocks):layers.append(block(self.inplanes,planes,groups=self.groups,base_width=self.base_width,dilation=self.dilation,norm_layer=norm_layer,))# 将layers通过nn.Sequential转化为网络return nn.Sequential(*layers)def _forward_impl(self, x: Tensor) -> Tensor:# See note [TorchScript super()]x = self.conv1(x)  		# conv1   x shape [1 64 112 112]x = self.bn1(x)   		# 归一化处理   x = self.relu(x)  		# 激活函数x = self.maxpool(x)  	# conv2_x的3x3 maxpool, x shape [1 64 56 56]x = self.layer1(x) # layer 1x = self.layer2(x) # layer 2x = self.layer3(x) # layer 3x = self.layer4(x) # layer 4x = self.avgpool(x) 	# 自适应池化x = torch.flatten(x, 1) x = self.fc(x) 			# 分类return xdef forward(self, x: Tensor) -> Tensor:return self._forward_impl(x) 

模型步骤

【1】首先是一个7 x 7的卷积作用在输入的3维图片上,并输入一个64维的特征图(即self.inplanes的初始值),通过BatchNorm层,ReLU层,MaxPool层。

【2】然后经过_make_layer()函数构建的4层layer。

【3】最后经过一个AveragePooling层,再经过一个fc层得到分类输出。

【4】在网络搭建起来后,还对模型的参数(Conv2d、BatchNorm2d、last BN)进行了初始化。

一个_make_layer()构建一个layer层,每一个layer层是两种基本模块的堆叠。

输入参数中block代表该layer堆叠模块的类型,可选BasicBlock或者BottleNeck。blocks代表该layer中堆叠的block的数目;planes与该layer最终输出的维度数有关,注意最终输出的维度数为planes * block.expansion。

变体

【1】Wider ResNet。

【2】DarkNet53。只是使用到了残差连接从而复用特征。

【3】ResNeXt。提出了一种介于普通卷积核深度可分离卷积的这种策略:分组卷积。通过控制分组的数量(基数)来达到两种策略的平衡。分组卷积的思想源自Inception,ResNeXt的每个分支的拓扑结构是相同的。

3.3:模型保存

【1】确定保存路径

【2】调用save函数

save_path = "./FahionModel.pkl"
torch.save(model, save_path)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/828052.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

小瓶清洗桶抗酸碱耐高温PFA清洗器半导体实验清洗用

PFA清洗桶,也叫PFA清洗器、PFA小瓶清洗桶,主要用于清洗浸泡实验室小型PFA溶样罐和烧杯等,带有密封螺纹盖,可以用于摇晃,高纯耐高温材质可放置电热板上加热使用。 特点:可拆卸倒酸口,可安全倒出酸…

ctfshow菜狗杯 web 无算力以及easyPytHon_P

web签到题 error_reporting(0); highlight_file(__FILE__);eval($_REQUEST[$_GET[$_POST[$_COOKIE[CTFshow-QQ群:]]]][6][0][7][5][8][0][9][4][4]);套娃传参 中文要编码 Cookies :CTFshow-QQ%E7%BE%A4:a POST:ab GET:?bc&c[6][0][7][5][8][0][9][4][4]syste…

干货收藏:CRM系统帮助中心设计教程

CRM系统,也就是客户关系管理系统,是企业运营中的得力助手,但太复杂的CRM系统有时候用起来也挺让人头疼的。所以,一个好用、易懂的帮助中心就显得尤为重要啦!今天我来跟大家分享一下关于CRM系统帮助中心的设计教程。 1.…

09 MySQL--操作真题

1. not in 用一条 SQL 语句,查询出每门课程都大于 80 分的人。 分析: 去重查询出存在课程小于 80 分的人,设为集合A查询不在集合 A 中的人 # 第一步:找小于等于80分的学员姓名 select distinct name from t_student where fens…

Swift手撸轮播效果

一、创建ScrollView objcMembers class LSLottieAnimView: UIView, UIScrollViewDelegate {private var scrollView: UIScrollView UIScrollView()func addScrollView() {scrollView.showsHorizontalScrollIndicator falsescrollView.isPagingEnabled true// 自定义framesc…

Qt5中的常用模块

2024年4月23日,周二上午 以下是 Qt5 中常用的模块列表: 核心模块(Core):提供了 Qt 核心功能,包括对象模型、信号与槽机制、事件处理等。图形模块(Gui):提供了绘图和窗口…

FACEGOOD-Audio2Face 部署笔记

目录 依赖项安装: cannot import name ‘create_connection‘ from ‘websocket‘ 解决 音频转参数: FACEGOOD-Audio2Face 依赖项安装: tensorflow 2.10.0 pip install websocket cannot import name ‘create_connection‘ from ‘webs…

Transformer - 特征预处理

Transformer - 特征预处理 flyfish 原始数据 train_data.values [[ 5.827 2.009 1.599 0.462 4.203 1.34 30.531][ 5.76 2.076 1.492 0.426 4.264 1.401 30.46 ][ 5.76 1.942 1.492 0.391 4.234 1.31 30.038][ 5.76 1.942 1.492 0.426 4.234 1.31…

Oracle中的时间戳转换与使用

在Oracle数据库中,时间戳是一个非常重要的数据类型,用于记录和管理时间信息。Oracle提供了多种时间戳数据类型,以及丰富的函数和操作符,用于时间戳的转换、计算和比较。本文将介绍Oracle中各种时间戳的转换与使用,帮助…

全量知识系统 程序详细设计 三次模型:数据模型图算模型和统计模型(QA百度文库)

Q1. 递归迭代和回溯是什么的基本结构,为什么 递归、迭代和回溯都是算法设计中常用的策略,它们各自有不同的基本结构和应用场景。 递归: 基本结构:递归的基本结构包括两个部分:递归终止条件和递归过程。递归终止条件…

Linux命令超详细介绍

目录 安装 Linux的目录结构: Linux命令入门: Linux命令的基础格式: 例子: ls 参数 选项 注意: 目录切换命令:cd/pwd cd: pwd: 相对路径和绝对路径: mkdir 不用参数: …

vue 前端参值后端接收的几种方式

文章目录 Get 请求 ParamPut请求 RequestBody Get 请求 Param 前端代码 handleCS(){// debugger// let body {// id:8,// nyApplyDangerdetectionId:8, // uploadStatic:2,// auditorSign:改我了,// auditorDescribe:我也改了// }let companyid 1let body {} get…

【Node.js工程师养成计划】之打造自己的脚手架工具

一、创建全局的自定义命令 1、打开一个空文件夹,新建一个bin文件夹,在bin文件夹下新建cli.js文件,js文件可以命名为cli.js(您随意) 2、在cli.js文件中的开头(!!)写下面这…

NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo Collections

NeRF in the Wild: Neural Radiance Fields for Unconstrained Photo Collections(野外的 NERF: 用于无约束照片采集的神经辐射场) Abstract 我们提出了一种基于学习的方法来合成新的视图的复杂场景使用只有非结构化的收集野生照片。我们建立在神经辐射场(neRF)的…

对于地理空间数据,PostGIS扩展如何在PostgreSQL中存储和查询地理信息?

文章目录 一、PostGIS扩展简介二、PostGIS存储地理空间数据1. 创建空间数据表2. 插入空间数据 三、PostGIS查询地理空间数据1. 查询指定范围内的地理空间数据2. 计算地理空间数据之间的距离3. 对地理空间数据进行缓冲区分析 四、总结 地理空间数据是指描述地球表面物体位置、形…

11、【桥接模式】让将抽象和实现分离,使得它们可以独立地变化

你好,我是程序员雪球。 今天我们来聊聊 23 种设计模式中,一种常见的结构型模式,桥接模式。聊聊它的设计思想、应用场景,以及如何使用。 一、设计思想 桥接模式(Bridge Pattern)是一种结构型设计模式&#…

Python slice切片

1. 切片简介 取一个str、list、tuple的部分元素是非常常见的操作 切片 译自英文单词slice,指的是一部分切片 根据 步长step 从原序列中取出一部分元素组成新序列切片适用于 字符串、列表、元组 2. 切片的格式 字符串[开始索引:结束索引:步长] 包含开始索引, 不包含结束索…

python numpy库简述

# numpy为我们提供了一个特殊的数组对象,我们可以用numpy表示普通的一维数组,二位矩阵,甚至任意维度的数据,并对数组中的数据作高效的运算 # 一般使用numpy处理数据需要将要出库的数据向量化,并行化通常使用二维数组处…

vue+springboot实验个人信息,修改密码,忘记密码功能实现

前端部分 新增Person(个人页面),Password(修改密码页面),还需要对Manager,login页面进行修改 router文件夹下的index.js: import Vue from vue import VueRouter from vue-router i…

视频下载为什么需要大带宽服务器?

视频直播已经成为人们日常生活中的常见形式之一。而在视频直播过程中,为什么需要大带宽呢?本文将深入探讨视频直播中为什么需要大带宽的原因。 视频直播的特点 视频直播是通过互联网进行实时视频传输的方式,与传统的视频点播相比,…