文献速递:GAN医学影像合成--双向映射生成对抗网络用于脑部 MR 到 PET 合成

文献速递:GAN医学影像合成–双向映射生成对抗网络用于脑部 MR 到 PET 合成

01

文献速递介绍

作为精准医学的基石,多模态医学图像已成为必备要素。稿件收到日期:2021年6月26日;修改日期:2021年8月6日;接受日期:2021年8月13日。发表日期:2021年8月24日;当前版本日期:2021年12月30日。该工作部分由国家自然科学基金(项目编号 62172403 和 61872351)、广东省国际科技合作项目(项目编号 2019A050510030)、广东省杰出青年学者基金(项目编号 2021B1515020019)、深圳市杰出青年学者(项目编号 RCYX20200714114641211)和深圳市重点基础研究项目(项目编号 JCYJ20200109115641762)支持。(胡胜业和雷柏英对本工作贡献相等。)(通讯作者:王树强。)胡胜业就职于中国科学院深圳先进技术研究院,深圳 518055,同时也在中国科学院大学计算机科学系,北京 100049(电子邮件:sy.hu@siat.ac.cn)。雷柏英就职于深圳大学生物医学工程学院,深圳 518060(电子邮件:leiby@szu.edu.cn)。王树强和沈艳艳就职于中国科学院深圳先进技术研究院,深圳 518055(电子邮件:sq.wang@siat.ac.cn; yy.shen@siat.ac.cn)。王勇就职于中南大学自动化学院,长沙 410083(电子邮件:ywang@csu.edu.cn)。冯志光就职于哈尔滨工程大学智能系统科学与工程学院,哈尔滨 150001(电子邮件:fengzhiguang@hrbeu.edu.cn)。数字对象标识符 10.1109/TMI.2021.3107013

Title

题目

Bidirectional Mapping Generative Adversarial Networks for Brain MR to PET Synthesis

双向映射生成对抗网络用于脑部 MR 到 PET 合成

Abstract

摘要

Fusing multi-modality medical images, such as magnetic resonance (MR) imaging and positron emission tomography (PET), can provide various anatomical and functional information about the human body. However, PET data is not always available for several reasons, such as high cost, radiation hazard, and other limitations. This paper proposes a 3D end-to-end synthesis network called Bidirectional Mapping Generative Adversarial Networks (BMGAN). Image contexts and latent vectors are effectively used for brain MR-to-PET synthesis. Specifically, a bidirectional mapping mechanism is designed to embed the semantic information of PET images into the high-dimensional latent space. Moreover, the 3D Dense-UNet generator architecture and the hybrid loss functions are further constructed to improve the visual quality of cross-modality synthetic images. The most appealing part is that the proposed method can synthesize perceptually realistic PET images while preserving the diverse brain structures of different subjects. Experimental results demonstrate that the performance of the proposed method outperforms other competitive methods in terms of quantitative measures, qualitative displays, and evaluation metrics for classification. Index Terms—Medical image synthesis, generative adversarial network, bidirectional mapping mechanism.

融合多模态医学图像,如磁共振(MR)成像和正电子发射断层扫描(PET),可以提供有关人体的各种解剖和功能信息。然而,由于高成本、辐射风险以及其他限制,PET 数据并不总是可用的。本文提出了一种名为双向映射生成对抗网络(BMGAN)的 3D 端到端合成网络。图像上下文和潜在向量被有效地用于脑 MR 到 PET 合成。具体来说,设计了一种双向映射机制,将 PET 图像的语义信息嵌入到高维潜在空间中。此外,还构建了 3D Dense-UNet 生成器架构和混合损失函数,以提高跨模态合成图像的视觉质量。最吸引人的部分是,提出的方法可以合成感知上真实的 PET 图像,同时保留不同受试者的多样化脑结构。实验结果表明,所提出的方法在定量测量、定性展示和分类评估指标方面的性能超过了其他竞争方法。索引术语——医学图像合成,生成对抗网络,双向映射机制。

Methods

方法

A. Overview Assuming there is a dataset containing the paired brain MR images x ∈ Rh×w×d M R and PET images y ∈ Rh×w×d PET , the goal is learning a cross-modality mapping. It can be formulated as f : x → y, where f denotes the complex non-linear mapping between the brain MR and PET images. Nevertheless, there are diverse geometric structures among brain anatomies of different subjects. It brings a huge challenge to the generative capability of cross-modality networks. To address this challenge, we creatively design a 3D generative adversarial network with a bidirectional mechanism. The main framework of training the proposed BMGAN is illustrated in Fig. 1. It consists of three components: the generator network, the discriminator network, and the encoder network. The 3D Dense-UNet generator that combines the architectures of U-Net [36] and DenseNet [37] is firstly constructed to synthesize the targeted PET images from the corresponding brain MR images. It should be stressed that the 3D convolutional operations are adopted to optimally model the spatial structural information of PET images and eliminate the slice discontinuity problem caused by 2D networks. Then the adversarial learning strategy is utilized in the designed network, where an additional patch-level discriminator network is created. A bidirectional mapping mechanism is introduced by adding an encoder network to embed the semantic information of PET images into the latent space. It encourages the generator to preserve the diverse details of brain structures in synthetic PET images. Moreover, to improve the visual quality of the synthetic target images, the generator is featured by incorporating the adversarial loss, the reconstruction loss, and the perceptual loss into the loss functions.

A. 概述 假设存在一个数据集,包含成对的脑部 MR 图像 x ∈ Rh×w×d M R 和 PET 图像 y ∈ Rh×w×d PET,目标是学习跨模态映射。它可以被公式化为 f : x → y,其中 f 表示脑 MR 和 PET 图像之间的复杂非线性映射。然而,不同受试者的脑解剖结构之间存在多样的几何结构。这给跨模态网络的生成能力带来了巨大的挑战。为了解决这个挑战,我们创造性地设计了一个具有双向机制的 3D 生成对抗网络。提出的 BMGAN 训练主框架如图 1 所示。它由三个组成部分构成:生成器网络、鉴别器网络和编码器网络。首先构建了 3D Dense-UNet 生成器,它结合了 U-Net [36] 和 DenseNet [37] 的架构,用于从相应的脑 MR 图像合成目标 PET 图像。应强调的是,采用了 3D 卷积操作,以最佳方式模拟 PET 图像的空间结构信息,并消除由 2D 网络引起的切片不连续性问题。然后在设计的网络中使用对抗性学习策略,创建了一个额外的补丁级鉴别器网络。通过添加编码器网络引入双向映射机制,将 PET 图像的语义信息嵌入到潜在空间中。这鼓励生成器在合成的 PET 图像中保留脑结构的多样细节。此外,为了提高合成目标图像的视觉质量,生成器的特点是将对抗损失、重建损失和感知损失纳入损失函数中。

Conclusions

结论

In this work, a novel 3D BMGAN is proposed for synthesizing brain PET images from MR images. As an attempt to bridge the gap between the synthetic images and real medical images, the bidirectional mapping mechanism is introduced to encourage the generator to synthesize the perceptually realistic PET images while preserving the diverse details of brain structures in different subjects. The 3D Dense-UNet generator architecture and the hybrid loss functions are constructed to improve the visual quality of synthetic PET images. Both qualitative and quantitative experiments suggest that the proposed method can effectively synthesize PET images from MR images, outperforming the baseline and competitive synthesis methods. We also conduct classification experiments and ablation experiments to study the performance of the proposed method. Please note that the proposed method can be used in wider imaging synthesis applications, such as MRto-CT synthesis. In the future, we will further investigate the probability of incorporating multi-modality information for better synthetic results.

在这项工作中,提出了一种新颖的3D BMGAN,用于从MR图像合成大脑PET图像。作为弥合合成图像与真实医学图像差距的尝试,引入了双向映射机制,以鼓励生成器在保留不同受试者大脑结构的多样细节的同时,合成感知上逼真的PET图像。构建了3D Dense-UNet生成器架构和混合损失函数,以提高合成PET图像的视觉质量。定性和定量实验均表明,所提出的方法能够有效地从MR图像合成PET图像,性能超过基线和竞争性合成方法。我们还进行了分类实验和消融实验,以研究所提出方法的性能。请注意,所提出的方法可用于更广泛的成像合成应用,如MR到CT合成。未来,我们将进一步探索结合多模态信息以获得更好的合成结果的可能性。

Figure

图片

Fig. 1. The main framework of training the proposed BMGAN to synthesize brain PET from corresponding MR images.

图 1. 训练所提出的 BMGAN 以从相应的 MR 图像合成脑 PET 的主框架

图片

Fig. 2. The network architecture of the proposed BMGAN. It consists of a Dense-UNet generator, a patch-level discriminator, and a ResNet encoder.

图 2. 所提出的 BMGAN 的网络架构。它由 Dense-UNet 生成器、补丁级别的鉴别器和 ResNet 编码器组成。

图片

Fig. 3. The comparison of generation quality between the 2D variant and 3D BMGAN model. The red arrow in the real image points to the region with a significant difference. The synthetic results of the 3D BMGAN have a more similar appearance to the ground truth PET images compared to that of the 2D variant.

图 3. 2D 变体和 3D BMGAN 模型之间生成质量的比较。真实图像中的红色箭头指向存在显著差异的区域。与 2D 变体相比,3D BMGAN 的合成结果与地面真实 PET 图像的外观更为相似。

图片

Fig. 4. The error maps between the synthetic PET and ground-truth PET in the axial plane. The synthetic result of the 2D variant has more significant error regions than the result of the proposed model.

图 4. 轴向平面上合成 PET 与地面真实 PET 之间的误差图。2D 变体的合成结果相较于所提出模型的结果有更显著的误差区域。

图片

Fig. 5. Qualitative comparison between the proposed BMGAN (Ours) and the simplified model without the discriminator (Remove D). The synthetic images without the adversarial training strategy are easily over-smoothed and fuzzy. With the adversarial training strategy, the results are more evident and with better visual quality

图 5. 所提出的 BMGAN(我们的模型)与没有鉴别器的简化模型(移除 D)之间的定性比较。没有对抗性训练策略的合成图像容易过度平滑和模糊。采用对抗性训练策略后,结果更加明显,视觉质量更佳。

图片

Fig. 6. Quantitative comparison between three generator architectures, including original U-Net, Res-UNet, and Dense-UNet. (a): The performance of MAE in different generators. (b): The performance of PSNR in different generators. ©: The performance of MS-SSIM in different generators. (d): The performance of FID in different generators. The original U-Net generator obtains the lowest performance, and the Dense-UNet generator achieves the best performance in all metrics.

图 6. 三种生成器架构之间的定量比较,包括原始 U-Net、Res-UNet 和 Dense-UNet。(a): 不同生成器的 MAE 性能。(b): 不同生成器的 PSNR 性能。©: 不同生成器的 MS-SSIM 性能。(d): 不同生成器的 FID 性能。原始 U-Net 生成器获得了最低的性能,而 Dense-UNet 生成器在所有指标中均实现了最佳性能。

图片

Fig. 7. Visual comparison with the existing MR-to-PET synthesis models on the ADNI dataset. The columns from left to right are the synthetic images of FCN, U-Net [52], GAN, Cycle-GAN [53], RIED-Net [14], pGAN [26], the proposed BMGAN, and the ground truth FDG-PET, respectively. The red arrow in the real image points to the region with a significant difference. The proposed BMGAN achieves the best synthetic performance compared to the existing synthesis models. Compared to the synthetic images of the BMGAN, there are more differences in appearance between the real images and the synthetic images of other models.

图7. 在ADNI数据集上与现有的MR到PET合成模型的视觉比较。从左到右的列分别是FCN、U-Net [52]、GAN、Cycle-GAN [53]、RIED-Net [14]、pGAN [26]、所提出的BMGAN的合成图像,以及基准的FDG-PET图像。真实图像中的红色箭头指向有显著差异的区域。所提出的BMGAN在合成性能上比现有的合成模型表现得更好。与BMGAN的合成图像相比,其他模型的合成图像与真实图像在外观上有更多的差异。

图片

Fig. 8. Representative results of the absolute error between the synthetic PET and real FDG-PET in the ADNI dataset. The proposed BMGAN achieves better performance compared to other synthesis methods under the same circumstances

图8. ADNI数据集中合成PET与真实FDG-PET之间的绝对误差的代表性结果。在相同情况下,提出的BMGAN与其他合成方法相比,实现了更好的性能。

图片

Fig. 9. Quantitative comparison between the existing synthetic methods and the proposed method in terms of four metrics. (a): The performance of MAE in different methods. (b): The performance of PSNR in different methods. ©: The performance of MS-SSIM in different methods. (d): The performance of FID in different methods. The synthetic results of BMGAN have the best image quality in terms of four classic evaluation metrics.

图9. 在四个指标方面,现有合成方法与所提出方法的定量比较。(a):不同方法中MAE的表现。(b):不同方法中PSNR的表现。©:不同方法中MS-SSIM的表现。(d):不同方法中FID的表现。BMGAN的合成结果在四个经典评价指标方面具有最佳的图像质量。

图片

Fig. 10. Evaluation of classification results on different synthetic images. (a): The performance of four traditional classification metrics. (b): The performance of the AUC metric. The proposed BMGAN achieves the best performance compared to other synthesis methods in terms of five classic metrics.

图10. 不同合成图像上分类结果的评估。(a):四个传统分类指标的表现。(b):AUC指标的表现。提出的BMGAN在五个经典指标方面与其他合成方法相比实现了最佳性能。

图片

Fig. 11. Qualitative comparison of synthetic AV45-PET images on the OASIS-3 dataset. The images from left to right are synthesized by FCN, by U-Net [52], by GAN, by Cycle-GAN [53], by RIED-Net [14], by pGAN [26], by the proposed BMGAN, as well as the real full-dose PET images (Ground truth). The red arrow in the real image points to the region with a significant difference. The proposed BMGAN also achieves the best synthetic performance compared to the existing synthesis models.

图11. 在OASIS-3数据集上合成的AV45-PET图像的定性比较。从左到右的图像分别由FCN、U-Net [52]、GAN、Cycle-GAN [53]、RIED-Net [14]、pGAN [26]以及所提出的BMGAN合成,以及真实的全剂量PET图像(基准)。真实图像中的红色箭头指向有显著差异的区域。所提出的BMGAN也在与现有合成模型相比,实现了最佳的合成性能。

图片

Fig. 12. Representative results of the absolute error between the synthetic PET and real AV45-PET in the OASIS-3 dataset. The proposed BMGAN achieves better performance compared to other synthesis methods under the same circumstances

图12. OASIS-3数据集中合成PET与真实AV45-PET之间的绝对误差的代表性结果。在相同情况下,提出的BMGAN与其他合成方法相比,实现了更好的性能。

图片

Fig. 13. The cases of the proposed BMGAN on MR-to-CT synthesis. It could be applied to another cross-modality mapping without modifying the network architecture radically

图13. 所提出的BMGAN在MR到CT合成中的案例应用。它可以应用于另一种跨模态映射,而无需大幅修改网络架构。

图片

Fig. 14. Typical failure case of our method. The red arrow in the real image points to the region with a significant difference.

图14. 我们方法的典型失败案例。真实图像中的红色箭头指向有显著差异的区域。

Table

图片

TABLE I quantitative comparson between 2Dbmgan and 3D BMGA

表 I 2D BMGAN 与 3D BMGAN 的定量比较

图片

TABLE II quantitative comparison between the proposed model (ours)and the simplified model without the discriminator network(remove D)

表 II 所提出的模型(我们的模型)与没有鉴别器网络的简化模型(移除 D)之间的定量比较

图片

TABLE III quantitative comparison between different loss functions

表 III 不同损失函数之间的定量比较

图片

TABLE IV quantitative comparison between differnt adversarial losses

表 IV 不同对抗性损失之间的定量比较

图片

TABLE V the effect of some hyper paramters

表 V 一些超参数的效果

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/692251.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

常用的消息中间件RabbitMQ

目录 一、消息中间件 1、简介 2、作用 3、两种模式 1、P2P模式 2、Pub/Sub模式 4、常用中间件介绍与对比 1、Kafka 2、RabbitMQ 3、RocketMQ RabbitMQ和Kafka的区别 二、RabbiMQ集群 RabbiMQ特点 RabbitMQ模式⼤概分为以下三种: 集群中的基本概念: 集…

Linux系统安全:安全技术和防火墙

目录 一、安全技术和防火墙 1.安全技术 2.防火墙的分类 二、防火墙 1.iptables四表五链 2.黑白名单 3.iptables基本语法 4.iptables选项 5.控制类型 6.隐藏扩展模块 7.显示扩展模块 8.iptables规则保存 9.自定义链使用 一、安全技术和防火墙 1.安全技术 入侵检测系…

2000-2022各省产业结构高级化合理化指数(含原始数据、计算过程+计算结果)

2000-2022各省产业结构高级化合理化指数(含原始数据、计算过程计算结果) 1、时间:2000-2022年 2、指标:国内生产总值、第一产业增加值、第二产业增加值、第三产业增加值、总就业人数、第一产业就业人数、第二产业就业人数、第三…

C++中自定义类型使用标准输入cin输出cout

自定义类型的输出 引言示例一运行结果示例二运行结果注意点 引言 当自己定义的数据为一些复杂数据&#xff0c;不再为基本数据类型&#xff0c;这时候要使用cout输出这些数据&#xff0c;就需要重载输出运算符<<,这样就可以使用cout来输出自定义的数据&#xff0c;相同如…

时间序列预测入门:使用Python和ARIMA模型进行股票价格预测

文章标题&#xff1a;时间序列预测入门&#xff1a;使用Python和ARIMA模型进行股票价格预测 简介 时间序列预测是数据分析中的一个重要领域&#xff0c;它涉及根据历史数据的模式和趋势来预测未来的数值。ARIMA&#xff08;自回归综合移动平均&#xff09;模型是一种常用的时…

嵌入式学习日记 20

时间获取 1. time: time_t time(time_t *tloc); 功能: 返回1970-1-1到现在的秒数&#xff08;格林威治时间&#xff09; 参数: tloc:存放秒数空间首地址 返回值: 成功返回秒数 失败返回-1 time(&t) …

openssl交叉编译问题

最近在编译openssl-1.1.0f的时候&#xff0c;执行config以后&#xff0c;会提示 target already defined - linux-x86_64 (offending arg: linux-x86_64) 或者在config通过以后&#xff0c;编译的时候提示 cc1: error: unrecognized command line option "-m64" 目前…

【高阶数据结构】B+树

文章目录 1. B树的概念2. B树的查找3. B-树 VS B树4. B 树的插入分析 1. B树的概念 B树是B树的变形&#xff0c;是在B树基础上优化的多路平衡搜索树&#xff0c;B树的规则跟B树基本类似&#xff0c;但是又在B树的基础上做了一些改进优化。 一棵m阶的B树需满足下列条件&#x…

算法刷题:找到字符串中所有的字母异位词

找到字符串中所有的字母异位词 .题目链接题目详情题目解析算法原理滑动窗口流程图定义指针及变量进窗口判断出窗口更新结果 我的答案 . 题目链接 找到字符串中所有的字母异位词 题目详情 题目解析 所谓的异位词,就是一个单词中的字母,打乱顺序,重新排列得到的单词 如:abc-&g…

C语言奇技Y巧之sscanf函数用法详解

目录 sscanf函数介绍一般用法&#xff1a;读取字符串、整型、浮点数sscanf 使用正则表达式sscanf 返回-1sscanf 解析失败处理sscanf 缺点 sscanf函数介绍 sscanf&#xff0c;C语言中的函数&#xff0c;读取格式化的字符串中的数据。 #include <stdio.h> int sscanf(con…

图片怎么变成透明背景?分享这些变透明的方法

很多从事编辑和图片设计的同行在日常工作中经常需要处理图片的背景色。为了更好地进行设计和编辑&#xff0c;将图片的背景色替换成透明是非常必要的。然而&#xff0c;对于一些新手来说&#xff0c;使用专业的图像处理软件可能有些困难。不过&#xff0c;现在有很多在线的图像…

N5182A MXG 矢量信号发生器,100 kHz 至 6 GHz

N5182A MXG 矢量信号发生器 简述&#xff1a; Agilent N5182A 具有快速频率、幅度和波形切换、带有电子衰减器的高功率和高可靠性——所有这些都在两个机架单元 (2RU) 中。安捷伦 MXG 矢量针对制造蜂窝通信和无线连接组件进行了优化。安捷伦 MXG 矢量通过增加吞吐量、提高测试良…

Elasticsearch:什么是 kNN?

kNN - K-nearest neighbor 定义 kNN&#xff08;即 k 最近邻算法&#xff09;是一种机器学习算法&#xff0c;它使用邻近度将一个数据点与其训练并记忆的一组数据进行比较以进行预测。 这种基于实例的学习为 kNN 提供了 “惰性学习&#xff08;lazy learning&#xff09;” 名…

IO进程:多进程实现文件的拷贝

1.使用多进程完成两个文件的拷贝&#xff0c;父进程拷贝前一半&#xff0c;子进程拷贝后一半&#xff0c;父进程回收子进程的资源 程序代码&#xff1a; 1 #include<myhead.h>2 int main(int argc, const char *argv[])3 {4 //判断传入的文件个数5 if(argc!3)6 …

nginx upstream server主动健康监测模块添加https检测功能【上】

1 缘起 前面的《nginx upstream server主动健康检测模块ngx_http_upstream_check_module 使用和源码分析》系列已经分析了ngx_http_upstream_check_module的实现原理&#xff0c;并且在借助这个模块的框架实现了一个udp健康检测的新功能。   但是ngx_http_upstream_check_mod…

Arcmap excel转shp

使用excel表格转shp的时候&#xff0c;如果你的excel里面有很多字段&#xff0c;直接转很大概率会出现转换结果错误的情况&#xff0c;那么就需要精简一下字段的个数。将原来的表格文件另存一份&#xff0c;在另存为的文件中只保留关键的经度、纬度、和用于匹配的字段即可&…

LeetCode JS专栏刷题笔记(一)

一、前言 LeetCode 在前不久出了一个 JavaScript 专栏&#xff0c;这个专栏一个目的是为了非前端工程师学习 JS&#xff0c;另一个是为了前端工程师提升 JS 能力。 因此在这个专栏中&#xff0c;基本不涉及什么具体算法问题&#xff0c;都是一些 JS 的入门语法与常见的 JS 面…

redis分布式锁redisson

文章目录 1. 分布式锁1.1 基本原理和实现方式对比synchronized锁在集群模式下的问题多jvm使用同一个锁监视器分布式锁概念分布式锁须满足的条件分布式锁的实现 1.2 基于Redis的分布式锁获取锁&释放锁操作示例 基于Redis实现分布式锁初级版本ILock接口SimpleRedisLock使用示…

前端秘法基础式终章----欢迎来到JS的世界

目录 一.JavaScript的背景 二.JavaScript的书写形式 1.行内式 2.嵌入式 3.外部式 三.JS中的变量 1.变量的定义 2.JS动态类型变量 2.1强类型和弱类型 3.JS中的变量类型 四.运算符 五.if语句和三元表达式和Switch语句和循环语句 六.数组 1.创建获取数组元素 2.新增…

2.20数据结构与算法学习日记(二叉树第一部分)

1.树的表示 typedef int DadaType; struct Node{struct Node* firstChild;struct Node* pnextBrotherDataType data; };//树的表示 2.二叉树的简介 二叉树是一种树形数据结构&#xff0c;每个节点最多有两个子节点&#xff0c;分别称为左子节点和右子节点。二叉树具有以下特…