文章目录
- ACC-UNet: A Completely Convolutional UNet Model for the 2020s
- 摘要
- 方法
- 实验结果
ACC-UNet: A Completely Convolutional UNet Model for the 2020s
摘要
这十年以来,计算机视觉领域引入了 Vision Transformer,标志着广泛的计算机视觉发生了根本性的变革。类似的转变也出现在医学影像领域,UNet,作为最具影响力的架构之一,已经重新设计为使用了 Transformer。此外,像 ConvNext 这样的重要工作重新审视了视觉中卷积模型的有效性,将一个 ResNet 提升到了 Swin Transformer 的水平。
本文的目标是改进纯卷积 UNet 模型,使其能够与基于 Transformer 的模型(例如 Swin-Unet 或 UCTransNet)媲美。我们仔细研究了基于 Transformer 的 UNet 模型的几个优势,主要包括长距离依赖性和跨层级跳跃连接。尝试通过卷积操作来模拟它们,因此提出了 ACC-UNet,这是一个完全基于卷积的 UNet 模型,结合了卷积网络的固有归纳偏差和 Transformer 的设计原则。
感兴趣可以在 https://github.com/kiharalab/ACC-UNet 找到代码。
方法
这篇文章可以直接跑代码试一下效果
实验结果