Da-transunet:将空间和通道双重关注与Transformer u-net相结合用于医学图像分割

DA-TRANSUNET: INTEGRATING SPATIAL AND CHANNEL DUAL ATTENTION WITH TRANSFORMER U-NET FOR MEDICAL IMAGE SEGMENTATION

  • 1、方法
    • 1.1 模型
    • 1.2 双注意力模块(DA-Block)
      • 1.2.1 PAM( 位置注意力模块)
      • 1.2.2 CAM(通道注意力 )
      • 1.2.3 DA (Dual Attention Module)
    • 1.3 带Transformer和双注意的编码器
    • 1.4具有双重注意的跳过连接
    • 1.5 解码器
  • 2、实验
  • 3、总结

论文
代码
不足:传统的UNET和Transformer缺乏利用图像的内在位置和通道特征的能力。同时在参数效率和计算复杂性方面也存在困难。
解决:提出新的分割框架DA-TransUNet(旨在将Transformer和双重注意块(DA-Block)集成到传统的u型架构中),它包含了专门用于提取图像特定位置和通道特征的da块

优点:DA-TransUNet利用Transformers和DA-Block不仅集成了全局和局部的特征,而且还集成了特定于图像的位置和信道特征,提高了医学图像分割的性能。通过在嵌入层和每个跳跃连接层中加入da块,极大地增强了特征提取能力,提高了编解码结构的效率。

本文的贡献:
(1)我们提出了DA-TransUNet,这是一种新颖的架构,它集成了双重注意机制,将位置信息和通道信息处理到一个Transformer U-net框架中。该设计提高了编解码器结构的灵活性和功能性,从而提高了医学图像分割任务的性能。
(2)提出了一种设计良好的双注意编码机制,将其置于编码器的Transformer层之前。这样可以增强其特征提取能力,丰富编码器在U-net结构中的功能。
(3)我们通过在每一层中加入双注意块来提高跳跃连接的有效性,消融研究证实了这一改进,从而使特征更准确地传递到解码器,并提高了图像分割性能。
(4)我们提出的DA-TransUNet方法在多个医学影像数据集上取得了最先进的性能,证明了该方法的有效性和对医学影像分割的贡献。
跳跃连接可以消除编码器解码器之间的语义鸿沟,有效恢复细粒度的目标细节。

1、方法

1.1 模型

在这里插入图片描述
图1 对于输入的医学图像,我们将它们输入一个带有变压器和双注意块(DA-Block)的编码器。然后,用DA-Block对三个不同尺度的特征进行细化。最后,将细化后的跳跃连接与解码器融合,解码器随后进行基于cnn的上采样,将通道恢复到与输入图像相同的分辨率。这样就得到了最终的图像预测结果。

图1给出了DA-TransUNet的体系结构。该模型包括三个核心组件:编码器、解码器和跳过连接。特别是,编码器融合了传统的卷积神经网络(CNN)和Transformer层,并进一步丰富了da块,这是该模型架构中独有的。相比之下,解码器主要采用传统的卷积机制。为了优化跳过连接,da块是DA-TransUNet架构中的关键组件。da块过滤了跳过连接中的不相关信息,提高了图像重建的精度。综上所述,与传统的卷积方法和Transformers的广泛使用相比,DA-TransUNet独特地利用了da - block来提取和利用位置和信道的特定于图像的特征。这种战略合并显著地提高了模型的整体性能。
虽然Transformers擅长通过自我关注机制进行全局特征提取,但它们本质上局限于对位置属性的单向关注,从而忽略了多面特征视角。另一方面,传统的U-Net架构擅长于局部特征提取,但缺乏全面的全局上下关注能力。为了解决这些约束,我们在Transformer层之前和在编码器解码器跳过连接内部集成了da块。为了解决这些约束,我们在Transformer层之前和在编码器解码器跳过连接内部集成了da块。这实现了两个目标:首先,它细化了Transformer的特征映射输入,使全局特征提取更加细致和精确;其次,跳跃连接中的da块优化编码器发送的特征,便于解码器重构更精确的特征图。

1.2 双注意力模块(DA-Block)

在这里插入图片描述
图2 相同的输入特征图被输入到两个特征提取层,一个是位置特征提取块,另一个是通道特征提取块,最后,两个不同的特征被融合,得到最终的 DA-Block 输出
如附图 2 所示,双注意力模块(DA-Block)作为一个特征提取模块,集成了位置和通道的特定图像特征。这样就能根据图像的独特属性进行特征提取。特别是在 U-Net 形架构中,DA-Block 的专业特征提取能力至关重要。虽然Transformer善于利用注意力机制提取全局特征,但它们并不是专门针对特定图像属性而设计的。相比之下,DA-Block 在基于位置和基于通道的特征提取方面表现出色,能够获得更详细、更准确的特征集。因此,我们将其纳入编码器和跳过连接,以提高模型的分割性能。DA-Block 由两个主要部分组成:一个是位置注意模块(PAM),另一个是通道注意模块(CAM),两者都借鉴了用于场景分割的双注意网络[9]。

1.2.1 PAM( 位置注意力模块)

在这里插入图片描述
图3 PAM
如图 3 所示,PAM 可捕捉特征图中任意两个位置之间的空间依赖关系,通过所有位置特征的加权和来更新特定特征。权重由两个位置之间的特征相似性决定。因此,PAM 能有效提取有意义的空间特征。
PAM 最初获取一个局部特征,表示为 A∈ RC×H×W(C 代表通道,H 代表高度,W 代表宽度)。然后,我们将 A 输入卷积层,得到三个新的特征图,即 B、C 和 D,每个特征图的大小均为 RC×H×W。接下来,我们将 B 和 C 重塑为 RC×N,其中 N = H×W 表示像素数。我们在 C 和 B 的转置之间执行矩阵乘法,然后使用softmax计算空间注意力图 S∈RN×N。
在这里插入图片描述
这里,Sji 表示第 i 个位置对第 j 个位置的影响。然后,我们将矩阵 D 重塑为 RC×N。在 D 和 S 的转置之间执行矩阵乘法,然后将结果重塑为 RC×H×W。最后,我们将其与参数 α 相乘,并与特征 A 进行元素求和运算,得到最终输出 E∈RC×H×W:
在这里插入图片描述
权值α初始化为0,逐步学习。PAM具有很强的空间特征提取能力。由于E是所有位置特征和原始特征的加权和,所以它具有全局上下文特征,并基于空间注意图聚合上下文。这确保了有效地提取位置特征,同时保持全局上下文信息。

1.2.2 CAM(通道注意力 )

在这里插入图片描述
图4
如图4所示,这是CAM,它擅长提取通道特征。与PAM不同,我们直接将原始特征A∈RC×H×W重塑为RC×N,然后在A和它的转置之间进行矩阵乘法。随后,我们应用softmax层,获得通道注意图X∈RC×C:
在这里插入图片描述
在这里,xji测量了第i个通道对第j个通道的影响。接下来,我们在X的转置和a之间执行矩阵乘法,将结果重塑为RC×H×W。然后我们将结果乘以尺度参数β,并对a进行逐元素求和运算,得到最终输出E∈RC×H×W:
在这里插入图片描述
和α一样,β是通过训练来学习的。与PAM类似,在CAM中提取通道特征时,每个通道的最终特征是所有通道与原始特征的加权和,从而使CAM具有强大的通道特征提取能力。

1.2.3 DA (Dual Attention Module)

在这里插入图片描述
如图所示,我们展示了双注意力块(DA-Block)的架构。该体系结构融合了位置注意模块(PAM)的鲁棒位置特征提取能力和通道注意模块(CAM)的通道特征提取能力。此外,当与传统卷积方法的细微差别相结合时,DA-Block具有优越的特征提取能力。DA-Block由两部分组成,第一部分以PAM为主,第二部分以CAM为主。第一个组件采用输入特征并进行一次卷积,将通道数量缩放到1 / 16以得到α1。这简化了PAM的特征提取;通过PAM特征提取和卷积,得到αˆ1。
在这里插入图片描述
其他组件是相同的,唯一的区别是PAM块被替换为CAM,用下面的公式:
在这里插入图片描述
从两层注意中提取αˆ1和αˆ2后,通过对两层注意进行聚合和求和,在一个卷积中恢复通道数,得到输出。
在这里插入图片描述
这种复杂的DA-Block架构无缝地集成了PAM和CAM的优势,以改进特征提取,使其成为增强模型整体性能的关键组件。

1.3 带Transformer和双注意的编码器

在这里插入图片描述
如图1所示,编码器架构由四个关键组件组成:卷积块、da块、嵌入层和变压器层。特别重要的是将DA块包含在Transformer层之前。本设计旨在对卷积后的特征进行专门的图像处理,增强Transformer对图像内容的特征提取。Transformer架构在保存全局上下文方面起着关键作用,而DA块增强了Transformer捕捉特定于图像的特征的能力,增强了它在图像中捕捉全局上下文信息的能力。该方法有效地将全局特征与特定于图像的空间和信道特征结合起来。
第一个组件包括U-Net体系结构的三个卷积块及其不同的迭代,将卷积操作与下采样过程无缝集成。每个卷积层都将输入特征图的大小减半,并将其维数加倍,这是经验发现的一种配置,可在保持计算效率的同时最大化特征表达。第二部分使用DA-Block在位置和通道两级提取特征,增强了特征表示的深度,同时保留了输入地图的内在特征。第三个组成部分是作为关键中间层的埋入层,使必要的尺寸适应成为可能,这是随后的Transformer层的前奏。第四个组件集成了Transformer层,用于增强全局特征提取,超越了传统CNNs的能力。将上述部分放在一起,它的工作原理如下:输入图像遍历三个连续的卷积块,系统地扩展接收域以包含重要特征。随后,da块通过应用基于位置和基于渠道的注意机制来细化特征。在此之后,重塑的特征在被引导到Transformer框架中以提取所有包含的全局特征之前,要经过嵌入层的维数转换。这种协调的进展保障了信息的全面保留跨越连续的卷积层。最后,重构Transformer生成的地形图,并引导地形图穿过中间地层到达解码器。
通过将卷积神经网络、变压器架构和双重关注机制结合起来,编码器配置最终实现了强大的特征提取能力,从而形成了一种共生的强大功能。

1.4具有双重注意的跳过连接

与其他 U 型结构模型类似,我们也在编码器和解码器之间加入了跳转连接,以弥合它们之间存在的语义差距。为了进一步缩小语义差距,我们在三个跳转连接层中的每一层都引入了双注意块(DA-Blocks),如图 1 所示。这一决定基于我们的观察,即传统的跳转连接通常会传输冗余特征,而 DA-Blocks 能有效过滤这些特征。将 DA-Blocks 集成到跳频连接中,可以从位置和信道两个角度完善稀疏编码特征,在减少冗余的同时提取更多有价值的信息。这样,DA-Blocks 就能帮助解码器更准确地重建特征图。此外,DA-Blocks 的加入不仅增强了模型的鲁棒性,还有效降低了对过拟合的敏感性,有助于提高模型的整体性能和泛化能力。

1.5 解码器

如图1所示,图的右半部分对应于解码器。解码器的主要作用是利用编码器获取的特征和跳过连接接收到的特征,采用上采样等操作,重建原始的特征图。
该解码器的组成部分包括特征融合、分割头和三个上采样卷积块。第一个组件:feature fusion是将通过skip连接传输的feature特征图与已有的feature特征图进行整合,从而帮助解码器忠实地重构原始feature map。第二部分:分割头部负责将最终输出的特征图恢复到原始尺寸。第三部分:三个上采样卷积块在每一步中递增地将输入特征图的大小增加一倍,有效地恢复了图像的分辨率。
将上述部分放在一起,工作流首先通过卷积块传递输入图像,然后执行上采样以增加特征特征图的大小。这些特征特征图的尺寸增加了两倍,而尺寸减少了一半。通过跳跃连接接收到的特征然后被融合,接着继续上采样和卷积。经过三次迭代后,生成的feature map进行最后一轮上采样,通过分割头将其精确还原到原始大小。由于这种结构,解码器展示了强大的解码能力,使用编码器和跳过连接的特性有效地恢复了原始的特征图。

2、实验

在这里插入图片描述

3、总结

在本文中,我们创新性地提出了一种新的图像分割方法,该方法是在TransUNet的体系结构中将da块与Transformer集成在一起。针对特定图像位置和通道特征的da块被进一步集成到跳跃连接中,以提高模型的性能。我们的实验结果,经过广泛的消融研究的验证,表明模型的性能在不同的数据集,特别是Synapse数据集的显著改善。
我们的研究揭示了da块在增强Transformer的特征提取能力和全局信息保持方面的潜力。数据块和Transformer的集成在不产生冗余的情况下,大大提高了模型的性能。此外,在skip连接中引入da块不仅有效地弥合了编码器和解码器之间的语义鸿沟,而且细化了特征特征图,提高了图像分割性能。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/168479.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

面试:Kubernetes相关问题

文章目录 Kubernetes的工作流程可以分为以下几个步骤:简述Kubernetes中的Deployment、StatefulSet、DaemonSet的区别在Kubernetes中,如何进行存储管理在Kubernetes中,如何实现滚动升级和回滚在Kubernetes中,如何进行日志和监控的管…

基于环形队列的生产者消费者模型线程池

目录 信号量 信号量是什么 信号量的操作 基于环形队列的生产者消费者模型 我们想怎么写这个模型 线程池 线程池的实现 线程的属性及方法 线程池的属性及方法 主线程 信号量 信号量也是通信的一种,前面在进程间通信的时候,我们说信号量到线程的…

NX二次开发UF_CURVE_ask_int_parms_sc 函数介绍

文章作者:里海 来源网站:https://blog.csdn.net/WangPaiFeiXingYuan UF_CURVE_ask_int_parms_sc Defined in: uf_curve.h int UF_CURVE_ask_int_parms_sc(tag_t int_curve_object, int * num_objects_set_1, tag_t * * object_set_1, int * num_object…

一文了解 StandardTokenizer 分词器,分词原理

一、StandardTokenizer简介 什么是StandardTokenizer? StandardTokenizer是HanLP中的一个分词器,也是默认的标准分词器。它基于词典和规则的方式对中文文本进行分词,将输入的句子切分成一个个独立的词语。 StandardTokenizer的主要特点如下…

Swing程序设计(6)边界布局,网格布局

文章目录 前言一、布局介绍 1.边界布局2.网格布局3.网格组布局.总结 前言 Swing程序中还有两种方式边界布局,网格布局供程序员使用。这两种布局方式更能体现出软件日常制作的排列布局格式。 一、布局介绍 1.BorderLayout边界布局 语法:new BorderLayout …

laravel8安装多应用多模块(笔记三)

先安装laravel8 Laravel 安装(笔记一)-CSDN博客 一、进入项目根目录安装 laravel-modules composer require nwidart/laravel-modules 二、 大于laravel5需配置provider,自动生成配置文件 php artisan vendor:publish --provider"Nwid…

windows cmd执行远程长脚本

背景 有时候我们想在未进行一些环境设置,或者工具使用者电脑中执行一段初始化脚本,为了简化使用者的理解成本,通常给使用者一段代码执行初始化电脑中的设置,尤其是这段初始化脚本比较长的时候。 脚本制作者 比如将需要执行的命…

【ARM CoreLink 系列 3.1 -- CCI-500 详细介绍 -上半部】

文章目录 1.1 CCI-500 介绍1.2 CCI-500 features 详细介绍1.2.1 Data Coherency between ACE Masters1.2.2 Quality of Service (QoS)1.2.3 (I/O) Coherency1.2.4 Crossbar Interconnect Functionality1.2.5 Performance Monitoring Unit (PMU)1.2.6 DVM Message Transport1.2.…

H5ke12--2--学生选课表格的编辑

方法1不可以修改的用label,如何按了哪一行 就会在下面有个文本显示可编辑的一行 方法2每一行后面都有一个编辑, 3对每一个修改,每一个td失去焦点都会有,直接到达我们服务器 注意 如果用span的每一个html元素都可以自己定义属性 Data-属性名,data-Address links也要给为span 1…

递归算法学习——二叉树的伪回文路径

1,题目 给你一棵二叉树,每个节点的值为 1 到 9 。我们称二叉树中的一条路径是 「伪回文」的,当它满足:路径经过的所有节点值的排列中,存在一个回文序列。 请你返回从根到叶子节点的所有路径中 伪回文 路径的数目。 示例…

软件设计中如何画各类图之二深入解析数据流图(DFD):系统设计与分析的关键视觉工具

目录 1 前言2 数据流图(DFD)的重要性3 数据流图的符号说明4 清晰的数据流图步骤4.1 确定系统边界4.2 识别数据流4.3 定义处理过程4.4 确认数据存储4.5 建立数据流动的连线4.6 细化和优化 5 数据流图的用途6 使用场景7 实际应用场景举例8 结语 1 前言 当…

经典的回溯算法题leetcode子集问题思路代码详解

目录 子集问题 leetcode78题.子集 leetcode90题.子集II 如果各位对回溯不太了解可以看我昨天写的文章,以及上一篇着重整列了回溯经典的组合问题。 回溯算法详解-CSDN博客 经典的回溯算法题leetcode组合问题整理及思路代码详解-CSDN博客 子集问题 组合问题我们…

使用 Python 和 NLTK 进行文本摘要

一、说明 文本摘要是一种自然语言处理技术,允许用户将大量文本总结为小块,而不会丢失任何重要信息。本文介绍NLP中使用Gensim和Sumy实现文本摘要的步骤。 二、为什么要总结文本? 互联网包含大量信息,而且每秒都在增加。文本摘要可…

鼠标点击位置获取几何体对象_vtkAreaPicker_vtkInteractorStyleRubberBandPick

开发环境: Windows 11 家庭中文版Microsoft Visual Studio Community 2019VTK-9.3.0.rc0vtk-example参考代码 demo解决问题:框选或者点选某一区域,并获取区域prop3D对象(红线内为有效区域,polydata组成的3d几何对象&a…

力扣刷题篇之排序算法

系列文章目录 前言 本系列是个人力扣刷题汇总,本文是排序算法。刷题顺序按照[力扣刷题攻略] Re:从零开始的力扣刷题生活 - 力扣(LeetCode) 这个之前写的左神的课程笔记里也有: 左程云算法与数据结构代码汇总之排序&am…

【前端】数据行点击选择

前言 【前篇文章】说了,我们公司的核心价值就是让人越来越懒,能怎么便捷就怎么便捷,主打一个简单实用又快捷,为了实现这个目标,我看成这个列表陷入了深思在想,要不要子表的数据加载在点击这个行时,就可以展示数据,这样就不用每次都要点那个小圆圈啦。 查资料 这显然…

2023.11.25-istio安全

目录 文章目录 目录本节实战1、安全概述2、证书签发流程1.签发证书2.身份认证 3、认证1.对等认证a.默认的宽容模式b.全局严格 mTLS 模式c.命名空间级别策略d.为每个工作负载启用双向 TLS 2.请求认证a.JWK 与 JWKS 概述b.配置 JWT 终端用户认证c.设置强制认证规则 关于我最后 本…

Javascript每天一道算法题(十七)——缺失的第一个正整数_困难

文章目录 前言1、问题2、示例3、解决方法(1)方法1 总结 前言 提示: 1、问题 给你一个未排序的整数数组 nums ,请你找出其中没有出现的最小的正整数。 请你实现时间复杂度为 O(n) 并且只使用常数级别额外空间的解决方案。 看了很久…

RevCol实战:使用RevCol实现图像分类任务(二)

文章目录 训练部分导入项目使用的库设置随机因子设置全局参数图像预处理与增强读取数据设置Loss设置模型设置优化器和学习率调整策略设置混合精度,DP多卡,EMA定义训练和验证函数训练函数验证函数调用训练和验证方法 运行以及结果查看测试完整的代码 在上…

「Verilog学习笔记」数据串转并电路

专栏前言 本专栏的内容主要是记录本人学习Verilog过程中的一些知识点,刷题网站用的是牛客网 关于什么是Valid/Ready握手机制: 深入 AXI4 总线(一)握手机制 - 知乎 时序图含有的信息较多,观察时序图需要注意&#xff1a…