目录
- 一、【NAM】注意力机制
- 1.1【NAM】注意力介绍
- 1.2【NAM】核心代码
- 二、添加【NAM】注意力机制
- 2.1STEP1
- 2.2STEP2
- 2.3STEP3
- 2.4STEP4
- 三、yaml文件与运行
- 3.1yaml文件
- 3.2运行成功截图
一、【NAM】注意力机制
1.1【NAM】注意力介绍
下图是【NAM】的结构图,让我们简单分析一下运行过程和优势
通道注意力模块(Channel Attention Module)
- 处理过程:
- 输入特征 𝐹1:输入的特征图首先经过 Batch Normalization(BN),这一步通过标准化处理特征,消除不同通道特征之间的分布差异。
通道重要性权重计算:每个通道的特征通过一个权重计算公式来计算其重要性权重 𝑤𝑖。如图中所示,通道权重 𝑤𝑖是通过对每个通道的响应 𝛾𝑖进行归一化处理得到的,即 𝑤𝑖=𝛾𝑖∑𝑗𝛾𝑗 。 - 加权操作:通过计算得到的权重乘以原始输入特征图的每个通道,调整不同通道特征的权重,突出重要特征。
- 激活函数:最后,经过 Sigmoid 激活函数来进一步压缩权重范围至 [0,1],并生成最终的通道注意力特征 𝑀𝑐。
- 优势:
- 增强通道间的特征表示能力:通道注意力机制通过对每个通道分配不同权重,可以增强模型对重要通道的关注,过滤掉不重要的特征通道,从而提升分类或检测任务的效果。
- 提高特征选择性:通道注意力使得模型能够动态地选择更有利于当前任务的特征,提升模型的表现,尤其在处理复杂场景时有显著效果。
2. 空间注意力模块(Spatial Attention Module)
-
处理过程:
-
输入特征 𝐹2:输入特征首先通过空间上的归一化操作(Pixel Normalization),这一步旨在对每个像素点进行归一化处理,消除空间维度上的信息偏差。
-
空间重要性权重计算:类似通道注意力模块,空间注意力模块根据每个像素点的特征计算权重,公式为 𝑤𝑖=𝜆𝑖∑𝑗𝜆𝑗,其中 𝜆𝑖是第 𝑖个像素点的特征值。
-
加权操作:计算得到的空间权重乘以原始输入特征图,调整每个像素的权重,突出空间上重要的区域。
-
激活函数:通过 Sigmoid 激活函数,将计算出的空间权重压缩到 [0,1] 范围,生成最终的空间注意力特征 𝑀𝑠 。
-
优势:
-
增强空间信息的捕捉能力:空间注意力机制通过关注特定空间区域的特征,使得模型能够对图像中关键的局部信息进行关注,有助于提升目标检测、图像分割等任务的表现。
-
聚焦关键区域:该模块能够动态调整图像中不同空间位置的权重,突出重要的区域信息,而抑制不相关的背景信息,尤其在检测小目标或局部细节时效果显著。
1.2【NAM】核心代码
import torch.nn as nn
import torchclass Channel_Att(nn.Module):def __init__(self, channels):super(Channel_Att, self).__init__()self.channels = channelsself.bn2 = nn.BatchNorm2d(self.channels, affine=True)def forward(self, x):residual = xx = self.bn2(x)weight_bn = self.bn2.weight.data.abs() / torch.sum(self.bn2.weight.data.abs())x = x.permute(0, 2, 3, 1).contiguous()x = torch.mul(weight_bn, x)x = x.permute(0, 3, 1, 2).contiguous()x = torch.sigmoid(x) * residual #return xclass NAMAttention(nn.Module):def __init__(self, channels):super(NAMAttention, self).__init__()self.Channel_Att = Channel_Att(channels)def forward(self, x):x_out1 = self.Channel_Att(x)return x_out1
二、添加【NAM】注意力机制
2.1STEP1
首先找到ultralytics/nn文件路径下新建一个Add-module的python文件包【这里注意一定是python文件包,新建后会自动生成_init_.py】,如果已经跟着我的教程建立过一次了可以省略此步骤,随后新建一个NAM.py文件并将上文中提到的注意力机制的代码全部粘贴到此文件中,如下图所示
2.2STEP2
在STEP1中新建的_init_.py文件中导入增加改进模块的代码包如下图所示
2.3STEP3
找到ultralytics/nn文件夹中的task.py文件,在其中按照下图添加
2.4STEP4
定位到ultralytics/nn文件夹中的task.py文件中的def parse_model(d, ch, verbose=True): # model_dict, input_channels(3)函数添加如图代码,【如果不好定位可以直接ctrl+f搜索定位】
三、yaml文件与运行
3.1yaml文件
以下是添加【NAM】注意力机制在Backbone中的yaml文件,大家可以注释自行调节,效果以自己的数据集结果为准
# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'# [depth, width, max_channels]n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPss: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPsm: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPsl: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPsx: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs# YOLO11n backbone
backbone:# [from, repeats, module, args]- [-1, 1, Conv, [64, 3, 2]] # 0-P1/2- [-1, 1, Conv, [128, 3, 2]] # 1-P2/4- [-1, 2, C3k2, [256, False, 0.25]]- [-1, 1, Conv, [256, 3, 2]] # 3-P3/8- [-1, 2, C3k2, [512, False, 0.25]]- [-1, 1, Conv, [512, 3, 2]] # 5-P4/16- [-1, 2, C3k2, [512, True]]- [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32- [-1, 2, C3k2, [1024, True]]- [-1, 1, SPPF, [1024, 5]] # 9- [-1,1,NAMAttention,[]]- [-1, 2, C2PSA, [1024]] # 10# YOLO11n head
head:- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 6], 1, Concat, [1]] # cat backbone P4- [-1, 2, C3k2, [512, False]] # 13- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 4], 1, Concat, [1]] # cat backbone P3- [-1, 2, C3k2, [256, False]] # 16 (P3/8-small)- [-1, 1, Conv, [256, 3, 2]]- [[-1, 14], 1, Concat, [1]] # cat head P4- [-1, 2, C3k2, [512, False]] # 19 (P4/16-medium)- [-1, 1, Conv, [512, 3, 2]]- [[-1, 11], 1, Concat, [1]] # cat head P5- [-1, 2, C3k2, [1024, True]] # 22 (P5/32-large)- [[17, 20, 23], 1, Detect, [nc]] # Detect(P3, P4, P5)
以上添加位置仅供参考,具体添加位置以及模块效果以自己的数据集结果为准
3.2运行成功截图
OK 以上就是添加【NAM】注意力机制的全部过程了,后续将持续更新尽情期待