动机
- 挑战性任务:伪装物体检测(COD)是一个重要且具有挑战性的任务,因为伪装物体往往与背景高度相似,使得准确识别和分割非常困难。
- 现有方法的不足:现有的深度学习方法难以有效识别伪装物体的结构和细节,常常无法提供完整和精确的物体边界。
- 边缘语义的价值:边缘信息对于物体检测中的结构保留非常有用,但在COD任务中尚未得到充分利用。
贡献
- 提出新方法:提出了一种新的边界引导网络(BGNet)用于伪装物体检测,利用边缘语义来提升表示学习,从而提高检测精度。
- 设计模块:设计了边缘感知模块(EAM)、边缘引导特征模块(EFM)和上下文聚合模块(CAM),用于增强边缘语义和多尺度上下文特征的融合。
- 实验验证:在三个具有挑战性的基准数据集上进行广泛实验,证明BGNet在四个常用评估指标上的性能显著优于现有的18种最新方法。
创新点
- 边缘感知模块(EAM):通过整合低级局部边缘信息和高级全局位置信息来提取与物体边界相关的边缘语义,从而提升特征学习。
- 边缘引导特征模块(EFM):将边缘特征与伪装物体特征在各层级进行融合,使用局部通道注意机制来挖掘关键特征通道,增强语义表示。
- 上下文聚合模块(CAM):通过跨尺度交互学习,逐层聚合多级融合特征,提升物体检测的特征表示。
- 模块的简化与有效性:与复杂的图卷积网络方法(如MGL)相比,BGNet设计了更简单但更有效的边缘提取模块,减少了模型的复杂性和计算负担,同时提升了性能。
这些动机、贡献和创新点展示了BGNet在伪装物体检测任务中的显著改进和有效性。
网络结构
这张图2展示了BGNet(边界引导网络)的整体架构,主要由三部分组成:边缘感知模块(EAM)、边缘引导特征模块(EFM)和上下文聚合模块(CAM)。下面详细解释各个部分的工作流程和相互关系。
整体架构说明
-
输入层:
- 输入图像首先通过一个预训练的Res2Net-50骨干网络进行特征提取。
- 产生多个层级的特征图(f1, f2, f3, f4, f5),这些特征图具有不同的空间分辨率和通道数。
-
边缘感知模块(EAM):
- EAM模块接收来自低层特征图f2(包含局部边缘信息)和高层特征图f5(包含全局位置信息)的输入。
- 通过融合这些特征来提取与物体边界相关的边缘特征fe。
- EAM模块旨在生成突出物体边缘的特征,帮助模型更好地定位和分割伪装物体。
-
边缘引导特征模块(EFM):
- EFM模块在每个层级上整合边缘特征fe和相应的层级特征(f2, f3, f4, f5)。
- 使用局部通道注意机制(LCA)来加强特征通道间的交互,提取关键语义信息。
- 经过融合后的特征(fei)用于指导伪装物体的表示学习,增强边界和结构信息。
-
上下文聚合模块(CAM):
- CAM模块从上到下逐层聚合多级融合特征。
- 通过跨尺度的交互学习(例如扩张卷积),提取多尺度的上下文语义,增强特征表示。
- CAM模块的输出用于生成最终的伪装物体预测。
损失函数(Loss Function)
- 掩膜监督(Go):
- 使用加权二值交叉熵损失(LwBCE)和加权IOU损失(LwIOU)来训练模型,对难以分割的像素赋予更高权重。
- 边缘监督(Ge):
- 使用Dice损失(Ldice)处理正负样本之间的不平衡问题。
- 总损失函数(Ltotal)综合考虑了掩膜监督和边缘监督,权重参数λ用来平衡这两部分的损失。
总结
- 这张图展示了BGNet如何通过EAM模块提取边缘特征,EFM模块融合这些边缘特征,并通过CAM模块聚合多级特征,最终实现伪装物体的准确检测和分割。该方法在实验中表现出色,显著提升了伪装物体检测的性能。
EAM
图3展示了边缘感知模块(EAM)的具体架构。EAM模块的设计目的是提取与伪装物体相关的边缘特征。下面详细解释该模块的工作流程:
输入特征
- f2:来自骨干网络的低级特征,包含局部边缘信息,尺寸为104×104×256。
- f5:来自骨干网络的高级特征,包含全局位置信息,尺寸为13×13×2048。
步骤详细说明
-
1x1卷积降维:
- 对f2和f5分别应用1x1卷积,将特征通道数减少到64(对于f2)和256(对于f5),生成f2’和f5’。
- 具体来说,f2通过1x1卷积变成f2’(尺寸为104×104×64),f5通过1x1卷积变成f5’(尺寸为13×13×256)。
-
上采样:
- 对低分辨率的f5’进行上采样,使其尺寸与f2’匹配(104×104×256)。
-
特征融合:
- 将f2’和上采样后的f5’进行特征拼接(Concat),得到融合特征。
-
卷积层处理:
- 对融合特征应用两个3×3卷积层(分别有64个和1个输出通道),然后应用一个1×1卷积层进行特征提取。
-
激活函数:
- 最后通过Sigmoid激活函数得到边缘特征图fe。
作用
- EAM模块通过融合低级和高级特征,生成了与伪装物体边界相关的边缘特征。这些边缘特征在EFM模块中被进一步利用,以提升伪装物体的检测和分割性能。
小结
EAM模块的设计简单但有效,充分利用了低级特征中的局部边缘信息和高级特征中的全局位置信息,通过卷积和上采样操作生成高质量的边缘特征图,从而为后续模块提供了更丰富的语义信息。
EFM
图4展示了边缘引导特征模块(EFM)的具体架构。EFM模块的设计目的是整合边缘特征以引导表示学习,增强特征表示。下面详细解释该模块的工作流程:
输入特征
- fi:来自骨干网络的多层次特征(如f2, f3, f4, f5),表示输入特征。
- fe:来自EAM模块的边缘特征。
步骤详细说明
-
边缘特征的下采样:
- 对边缘特征fe进行下采样(D),使其尺寸与输入特征fi匹配。
-
特征融合:
- 进行逐元素相乘操作(⊗),将下采样后的边缘特征fe与输入特征fi结合。
- 将结果与输入特征fi进行逐元素相加(⊕),得到初始融合特征。
-
卷积层处理:
- 将初始融合特征通过一个3x3卷积层,以提取进一步的特征表示。
-
全局平均池化(GAP):
- 对卷积后的特征图进行全局平均池化(GAP),得到全局特征向量。
-
通道注意力机制:
- 通过1D卷积(Conv 1d)处理全局特征向量,提取跨通道的局部交互信息。
- 使用Sigmoid激活函数生成通道注意力权重。
-
通道加权:
- 将通道注意力权重与初始融合特征逐元素相乘(⊗),生成加权特征。
- 通过1x1卷积层(Conv 1x1)对加权特征进行处理,得到最终的输出特征fa_i。
作用
- EFM模块通过融合边缘特征和输入特征,利用通道注意力机制增强重要特征的表示,同时抑制冗余信息。
- 该模块在不同层级应用,可以增强模型对物体边界和结构的理解,从而提高伪装物体的检测和分割性能。
小结
EFM模块通过整合边缘特征与输入特征,并引入通道注意力机制,实现了特征表示的增强。该模块在保留重要边缘信息的同时,提升了特征的辨别能力,促进了更准确的伪装物体检测。
CAM
图5展示了上下文聚合模块(CAM)的具体架构。CAM模块的设计目的是通过挖掘多尺度上下文语义来增强特征表示。下面详细解释该模块的工作流程:
输入特征
- fai 和 fc i+1:分别表示来自EFM模块的特征和来自上一级CAM模块的特征。
步骤详细说明
-
特征融合:
- 首先,将fai与上一级CAM模块的输出特征fc i+1进行特征拼接(Concat),得到初始聚合特征fm。
- 然后,使用1×1卷积层对fm进行处理,以减少通道数。
-
跨尺度特征分割:
- 将处理后的初始聚合特征fm均匀分割成四个特征图,分别表示为f1m, f2m, f3m, f4m。
-
跨尺度交互学习:
- 对每个特征图分别进行3x3卷积,卷积操作的扩张率(dilation rate)分别设置为1、2、3、4,以捕捉不同尺度的上下文信息。
- 每个特征图在进行卷积时,还会与其相邻特征图进行逐元素相加操作(element-wise addition),以实现跨尺度的特征融合。例如:
- f1’ m = Conv3x3(f1m + f2m)
- f2’ m = Conv3x3(f1m + f2m + f3m)
- f3’ m = Conv3x3(f2m + f3m + f4m)
- f4’ m = Conv3x3(f3m + f4m)
-
多尺度特征融合:
- 将上述四个卷积后的特征图进行特征拼接(Concat),并通过一个1x1卷积层进行处理,得到融合后的特征。
-
最终输出:
- 对融合后的特征进行逐元素相加(element-wise addition)操作,并通过一个3x3卷积层进行处理,得到最终的输出特征fci。
作用
- CAM模块通过逐层聚合多尺度特征,能够有效捕捉不同尺度的上下文语义,增强特征表示的多样性和丰富性。
- 这种跨尺度的特征交互和融合策略,能够提高模型对伪装物体的检测和分割能力。
小结
CAM模块通过跨尺度的特征交互和多尺度上下文语义的融合,实现了特征表示的增强。该模块的设计使得模型能够更好地理解和表征伪装物体,从而提升检测和分割性能。
实验细节
实验细节总结
这篇论文的实验部分详细介绍了模型的实现、评估指标、数据集和对比方法。以下是实验细节的总结:
1. 实现细节
- 框架:模型使用PyTorch实现。
- 骨干网络:采用预训练的Res2Net-50。
- 输入尺寸:所有输入图像都调整为416×416。
- 数据增强:使用随机水平翻转进行数据增强。
- 批量大小:训练时的批量大小设置为16。
- 优化器:采用Adam优化器,初始学习率为1e-4,并使用poly策略进行调整(功率为0.9)。
- 硬件:在NVIDIA Tesla P40 GPU上进行加速训练,训练25个epoch大约需要2小时。
2. 数据集
- CAMO:包含1,250张伪装图像,覆盖八个类别。
- COD10K:包含10,000张图像,覆盖78个伪装物体类别,具有高质量的层次化标注。
- NC4K:包含4,121张图像,支持伪装物体的定位和排名标注。
- 训练集和测试集:使用CAMO和COD10K的训练集进行训练,使用它们的测试集和NC4K进行测试。
3. 评估指标
- MAE(M):平均绝对误差。
- 加权F-measure(Fwβ):衡量检测结果的准确性和召回率。
- 结构度量(Sα):评估分割结果与真实掩码的结构相似度。
- E-measure(Eφ):综合评估检测结果的整体性能。
4. 对比方法
论文与18种最新的伪装物体检测和显著性物体检测模型进行了比较,包括:
- 显著性物体检测模型:如PoolNet、EGNet、SRCN、F3Net、ITSD、CSNet、MINet、UCNet、PraNet、BASNet等。
- 伪装物体检测模型:如SINet、PFNet、S-MGL、R-MGL、LSR、UGTR、C2FNet、JCSOD等。
5. 实验结果
- 定量比较:在CAMO、COD10K和NC4K数据集上,BGNet在四个评估指标上均显著优于所有对比方法。例如,BGNet在Sα、Eφ、Fwβ上分别提高了1.80%、1.40%、3.55%(相比第二好的方法JCSOD)。
- 定性比较:在一些典型样本上进行的可视化比较显示,BGNet能够准确分割出伪装物体,并保留更清晰的边界和结构细节。
- 边界探索:与MGL模型相比,BGNet在边缘信息提取和伪装物体预测方面表现出更优越的性能。
6. 消融实验
- 模块贡献:通过逐步添加EAM、EFM和CAM模块,评估各模块的贡献,结果表明每个模块都对最终性能有显著提升。
- EAM输入特征:测试不同输入特征对EAM的影响,结果表明f2 + f5的组合效果最佳。
- 超参数λ:测试不同的λ值对损失函数的影响,发现λ=3时模型性能最佳。
小结
通过详细的实验设计和充分的对比,论文证明了BGNet在伪装物体检测任务中的优越性能。实验结果表明,BGNet在多个数据集和评估指标上均取得了显著的提升,验证了其设计的有效性。