YOLOv9全网最新改进系列:YOLOv9完美融合标准化的注意力模块NAM,高效且轻量级的归一化注意力机制,助力目标检测再上新台阶!!!
YOLOv9原文链接戳这里,原文全文翻译请关注B站Ai学术叫叫首er
B站全文戳这里!
详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!
YOLOv9全网最新改进系列:YOLOv9完美融合标准化的注意力模块NAM,高效且轻量级的归一化注意力机制,助力目标检测再上新台阶!!
- YOLOv9全网最新改进系列:YOLOv9完美融合标准化的注意力模块NAM,高效且轻量级的归一化注意力机制,助力目标检测再上新台阶!!!
- 摘要
- 2 修改步骤!
- 2.1 修改YAML文件
- 2.2 新建.py
- 2.3 修改tasks.py
- 三、验证是否成功即可
NAM(提出原文戳这)
详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!
截止到发稿时,B站YOLOv9最新改进系列的源码包,已更新了21种的改进!自己排列组合2-4种后,考虑位置不同后可排列组合上千种!!专注AI学术,关注B站博主:Ai学术叫叫兽er!
摘要
识别不太显着的特征是模型压缩的关键。 然而,它尚未在革命性的注意力机制中得到研究。 在这项工作中,我们提出了一种新颖的基于归一化的注意力模块(NAM),它可以抑制不太显着的权重。 它将权重稀疏性惩罚应用于注意力模块,从而使它们的计算效率更高,同时保持相似的性能。 与 Resnet 和 Mobilenet 上的其他三种注意力机制的比较表明,我们的方法具有更高的准确性。
注意力机制一直是近年来热门的研究兴趣之一(Wang et al. [2017],Hu et al. [2018],Park et al. [2018],Woo et al. [2018],Gao et al. [2018],Gao et al. [2018]。 [2019])。 它帮助深度神经网络抑制不太显着的像素或通道。 先前的许多研究都集中在通过注意力操作捕获显着特征(Zhang et al. [2020]、Misra et al. [2021])。 这些方法成功地利用了不同维度特征的互信息。 然而,它们缺乏对权重影响因素的考虑,而权重能够进一步抑制不重要的通道或像素。 受到刘等人的启发。 [2017],我们的目标是利用权重的影响因素来改进注意力机制。 我们使用批量归一化的比例因子,它使用标准差来表示权重的重要性。 这可以避免添加全连接层和卷积层,这在SE、BAM和CBAM中使用。 因此,我们提出了一种有效的注意力机制——基于归一化的注意力模块(NAM)。
许多先前的工作试图通过抑制无关紧要的权重来提高神经网络的性能。 挤压和激励网络(SENet)(Hu et al. [2018])将空间信息集成到通道特征响应中,并使用两个多层感知器(MLP)层计算相应的注意力。 后来,瓶颈注意力模块(BAM)(Park et al. [2018])并行构建分离的空间和通道子模块,并且它们可以嵌入到每个瓶颈块中。 卷积块注意力模块(CBAM)(Woo et al. [2018])提供了一种按顺序嵌入通道和空间注意力子模块的解决方案。 为了避免忽视跨维度交互,三元组注意力模块(TAM)(Misra 等人[2021])通过旋转特征图来考虑维度相关性。 然而,这些工作忽略了训练中调整权重的信息。 因此,我们的目标是通过利用训练模型权重的方差测量来突出显着特征。
跑出结果后-相关方法详情请结合B站视频阅读全文,融入自己文章中!!!
2 修改步骤!
2.1 修改YAML文件
详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!
2.2 新建.py
详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽er 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!
2.3 修改tasks.py
详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽er 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!
三、验证是否成功即可
执行命令
python train.py
改完收工!
关注B站:Ai学术叫叫兽er
从此走上科研快速路
遥遥领先同行!!!!
详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽er 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!