对抗性EM用于变分深度学习:在低剂量PET和低剂量CT中的半监督图像质量增强应用|文献速递--Transformer架构在医学影像分析中的应用

news2024/11/23 20:19:01

Title

题目

Adversarial EM for variational deep learning: Application to semi-supervised image quality enhancement in low-dose PET and low-dose CT

对抗性EM用于变分深度学习:在低剂量PET和低剂量CT中的半监督图像质量增强应用

01

文献速递介绍

医学影像领域是当今医学诊断、筛查和治疗方案的重要组成部分。由于非侵入性成像技术可以更好地帮助诊断、治疗规划、治疗监测和外科干预,人们对其益处的依赖日益增加。两种广泛使用的成像技术是X射线计算机断层扫描(CT)和正电子发射断层扫描(PET)。

CT利用旋转的X射线管将X射线束穿过被检对象,然后由探测器测量射线能量。通过从不同角度进行多次测量,可以重建显示内部器官和组织结构细节的二维图像切片。这些二维切片叠加形成一个三维体积。与之相比,PET是一种功能性成像技术。在PET扫描前,放射性示踪剂被注入受检者的血流中。当放射性物质在受检者体内发生正电子衰变时,会释放出伽马光子,这些光子被扫描仪检测到。利用这些数据,PET成像可以显示体内的生理过程,例如血流、局部化学成分以及代谢过程的变化(Townsend等,2004)。

Abatract

摘要

In positron emission tomography (PET) and X-ray computed tomography (CT), reducing radiation dose cancause significant degradation in image quality. For image quality enhancement in low-dose PET and CT,we propose a novel theoretical adversarial and variational deep neural network (DNN) framework relying onexpectation maximization(EM) based learning, termed adversarial EM (AdvEM). AdvEM proposes an encoder–decoder architecture with a multiscale latent space, and generalized-Gaussian models enabling datum-specificrobust statistical modeling in latent space and image space. The model robustness is further enhancedby including adversarial learning in the training protocol. Unlike typical variational-DNN learning, AdvEMproposes latent-space sampling from the posterior distribution, and uses a Metropolis–Hastings scheme. Unlikeexisting schemes for PET or CT image enhancement which train using pairs of low-dose images with theircorresponding normal-dose versions, we propose a semi-supervised AdvEM (ssAdvEM) framework that enableslearning using a small number of normal-dose images. AdvEM and ssAdvEM enable per-pixel uncertaintyestimates for their outputs. Empirical analyses on real-world PET and CT data involving many baselines,out-of-distribution data, and ablation studies show the benefits of the proposed framework.

在正电子发射断层扫描(PET)和X射线计算机断层扫描(CT)中,降低辐射剂量可能会导致图像质量显著下降。为了解决低剂量PET和CT的图像质量增强问题,我们提出了一种基于期望最大化(EM)学习的全新对抗性和变分深度神经网络(DNN)框架,称为对抗性EM(AdvEM)。AdvEM采用编码器-解码器架构,具有多尺度潜在空间,并使用广义高斯模型,实现了在潜在空间和图像空间中的数据特异性稳健统计建模。模型的稳健性通过在训练过程中加入对抗学习进一步增强。

与典型的变分-DNN学习不同,AdvEM提出从后验分布中进行潜在空间采样,并使用Metropolis–Hastings方法。与现有的PET或CT图像增强方法不同,这些方法需要使用低剂量图像及其对应的正常剂量图像进行成对训练,我们提出了一种半监督AdvEM(ssAdvEM)框架,使得只需使用少量的正常剂量图像即可进行学习。AdvEM和ssAdvEM能够为其输出提供每像素不确定性估计。在涉及多个基线、分布外数据以及消融研究的实际PET和CT数据上的实证分析显示了所提框架的优势。

Method

方法

We propose a novel semi-supervised, adversarial and variationalDNN framework for image quality enhancement of low-dose PET andCT relying on EM based training and inference. This framework (Fig. 1)uses an encoder–decoder network architecture and leads to two variants: (i) AdvEM that is fully supervised, i.e., it employs paired trainingdata involving low-dose and normal-dose images, and (ii) its semisupervised counterpart ssAdvEM that trains without needing a normaldose image corresponding to every the low-dose image.

我们提出了一种新颖的半监督、对抗性和变分深度神经网络(DNN)框架,用于基于EM训练和推理的低剂量PET和CT图像质量增强。该框架(图1)采用编码器-解码器网络结构,形成了两种变体:(i) 完全监督的AdvEM,即使用包含低剂量和正常剂量图像的配对训练数据;(ii) 其半监督对应方法ssAdvEM,在训练时无需每张低剂量图像对应的正常剂量图像。

Conclusion

结论

We propose a brand-new adversarial and variational deep-learningframework, i.e., ssAdvEM, for semi-supervised image quality enhancement of low-dose PET and CT, where the variational modeling and learning relies on MCEM. Our MCEM framework is unlike typical variational deep-learning schemes, e.g., the VAE and its extensions, thatrely on the evidence lower bound (ELBO). During MCEM, our frame work models the posterior distribution of the latent-space variable andsamples from that posterior using the MH sampler. Unlike the sampling in typical variational deep-learning schemes, our posterior sampling leverages not only the encoder but also the decoder and the referenceimage. Furthermore, it combines a novel multiscale latent space with datum-specific robust GG modeling to yield a framework that can workwell for both (i) in-distribution images and (ii) OOD images that result from very low doses. ssAdvEM introduce adversarial learning into our own novel method termed ss-NonAdv-EM whose preliminary versionappeared in Sharma et al. (2022). The addition of adversarial learning can further improve the robustness of the proposed framework, showing significant performance improvement for OOD images, as seen inSections 4.3 and 4.4. Our proposed adaptation of the MCEM frameworkto semi-supervised learning enables training using a very small amountof high-quality images, thereby providing a powerful tool in overcom ing practical challenges of dataset availability. Both our frameworks of ssAdvEM and ss-NonAdv-EM are able to outperform other unsupervisedand semi-supervised frameworks such as N2N, DIP, and N2N+UNet (a baseline framework we proposed for fair comparison). Additionally, they also outperform prior-model-based methods like TV denoising andBM3D/BM4D. Another important aspect of the proposed framework is its ability to enable uncertainty estimation that the other methods ignore. The ablation studies in Section 4.6 demonstrate the benefits of (i) adversarial learning, (ii) variational modeling, (iii) GG loss, and (iv) multiscale latent space, towards building an effective and robust framework for low-dose PET and CT enhancement.

我们提出了一种全新的对抗性和变分深度学习框架,即ssAdvEM,用于低剂量PET和CT的半监督图像质量增强,其中变分建模和学习依赖于MCEM(蒙特卡洛期望最大化)。与典型的变分深度学习方案(如VAE及其扩展)依赖于证据下界(ELBO)不同,我们的MCEM框架在过程中过对潜在空间变量的后验分布进行建模,并使用MH采样器从该后验分布中采样。与典型变分深度学习方案中的采样不同,我们的后验采样不仅利用编码器,还利用解码器和参考图像。此外,该框架结合了一种新颖的多尺度潜在空间和数据特异性的稳健广义高斯(GG)建模,使其在(i)分布内图像和(ii)因超低剂量产生的分布外(OOD)图像上均表现良好。

ssAdvEM将对抗学习引入我们自己提出的新方法ss-NonAdv-EM,该方法的初步版本已在Sharma等人(2022年)中出现。通过增加对抗学习,可以进一步提高所提出框架的稳健性,对OOD图像的性能有显著改善,如第4.3节和4.4节所示。我们将MCEM框架适配于半监督学习,允许使用非常少量的高质量图像进行训练,从而为解决数据集可用性方面的实际挑战提供了有力工具。我们的ssAdvEM和ss-NonAdv-EM框架均能够超越其他无监督和半监督框架,如N2N、DIP和N2N+UNet(我们为公平比较而提出的基线框架)。此外,它们也优于之前的模型基方法,如TV去噪和BM3D/BM4D。

该框架的另一个重要方面是能够实现其他方法忽略的不确定性估计。第4.6节中的消融研究展示了(i)对抗学习、(ii)变分建模、(iii)GG损失和(iv)多尺度潜在空间在构建一个有效和稳健的低剂量PET和CT增强框架中的益处。

Results

结果

This section describes the dataset, the baselines, the results including ssAdvEM and the baseline methods, the results of all methods onOOD images, the ablation studies for ssAdvEM, and the computationaltime analysis for ssAdvEM and the baselines..We define the level of supervision 𝛾 as the proportion of the numberof paired low-dose and normal-dose images (||) in the entire trainingset ( ∪  ), i.e., 𝛾 ∶= ||∕(| ∪  |).

本节介绍数据集、基线方法、包括ssAdvEM和基线方法在内的结果、所有方法在分布外(OOD)图像上的结果、ssAdvEM的消融研究,以及ssAdvEM与基线方法的计算时间分析。

我们定义监督水平 𝛾 为整个训练集中成对的低剂量和正常剂量图像的数量(||)所占的比例,即 𝛾 := || / (| ∪ |)。

Figure

图片

Fig. 1. Semi-Supervised Adversarial Expectation Maximization (ssAdvEM) framework. (a) In the fully-supervised AdvEM framework, the input to the DNN is a low-doseimage 𝑋, and the reference image at the output end 𝑌 is the corresponding normal-dose image 𝑍. In ssAdvEM, for some input images 𝑋, the reference image 𝑌 is another imageat a low dose, instead of the normal-dose image 𝑍. (b) Each encoder block outputs a generalized-Gaussian (GG) distribution at one scale ofthe multiscale latent space 𝐻.

图 1. 半监督对抗性期望最大化 (ssAdvEM) 框架。

(a) 在完全监督的AdvEM框架中,输入到深度神经网络(DNN)的图像是低剂量图像 𝑋,输出端的参考图像 𝑌 是相应的正常剂量图像 𝑍。在ssAdvEM框架中,对于某些输入图像 𝑋,参考图像 𝑌 是另一张低剂量图像,而不是正常剂量图像 𝑍。(b) 每个编码器模块在多尺度潜在空间 𝐻 的一个尺度上输出广义高斯(GG)分布。

图片

Fig. 2. Results: Quantitative. Results of quality enhancement of low-dose (a) CT and (b) PET images at varying levels of supervision 𝛾, for all methods, showing boxplots of RRMSE and SSIM values across the test set.

图 2. 结果:定量分析。低剂量(a) CT和(b) PET图像在不同监督水平 𝛾 下的质量增强结果,展示了所有方法在测试集上的相对均方根误差(RRMSE)和结构相似性(SSIM)值的箱线图。

图片

Fig. 3. Results: Qualitative - CT. Quality enhancement of low-dose images, showing image outputs and their corresponding images showing per-pixel difference magnitudesbetween the output and the ground truth.

图 3. 结果:定性分析 - CT。低剂量图像的质量增强结果,显示了图像输出及其对应的每像素差异幅度图像,展示输出与真实图像之间的差异。

图片

Fig. 4. Results: Qualitative - PET. Quality enhancement of low-dose images, showing image outputs and their corresponding images showing per-pixel difference magnitudesbetween the output and the ground truth. For better visualization, the head and the torso regions use different colormaps to maintain contrast and avoid saturation..

图 4. 结果:定性分析 - PET。低剂量图像的质量增强结果,显示了图像输出及其对应的每像素差异幅度图像,展示输出与真实图像之间的差异。为了更好的可视化效果,头部和躯干区域使用不同的颜色映射来保持对比度并避免饱和。

图片

Fig. 5. Results: Analysis of Bayesian inference schemes. At varying levels of supervision 𝛾, quantitative results corresponding to the mean, median, and mode of the output set .

图 5. 结果:贝叶斯推断方案分析。在不同监督水平 𝛾 下,输出集  对应的平均值、中位数和众数的定量分析结果。

图片

Fig. 6. Results on OOD images: Quantitative. Results of image quality enhancement of very-low-dose (a) CT and (b) PET images at varying levels of supervision 𝛾, for allmethods, showing boxplots of RRMSE and SSIM values across the test set.

图 6. 分布外(OOD)图像结果:定量分析。在不同监督水平 𝛾 下,各种方法对超低剂量 (a) CT和 (b) PET图像的质量增强结果,展示了测试集中相对均方根误差(RRMSE)和结构相似性(SSIM)值的箱线图。

图片

Fig. 7. Results on OOD Images: Qualitative - CT. Results of image quality enhancement of very-low-dose images, showing image outputs and their corresponding versionsshowing per-pixel difference magnitudes between the output and the ground truth.

图 7. 分布外(OOD)图像结果:定性分析 - CT。超低剂量图像的质量增强结果,展示了图像输出及其对应的每像素差异幅度图像,显示输出与真实图像之间的差异。

图片

Fig. 8. Results on OOD Images: Qualitative - PET. Results of image quality enhancement of very-low-dose images, showing image outputs and their corresponding versionsshowing per-pixel difference magnitudes between the output and the ground truth. For better visualization, the head and the torso regions use different colormaps..

图 8. 分布外(OOD)图像结果:定性分析 - PET。超低剂量图像的质量增强结果,展示了图像输出及其对应的每像素差异幅度图像,显示输出与真实图像之间的差异。为了更好的可视化效果,头部和躯干区域使用了不同的颜色映射。

图片

Fig. 9. Results: Visualizing per-pixel uncertainty in the output for CT. At varying levels of supervision 𝛾, the per-pixel standard-deviation (𝜎) maps of the output set  foran example CT image. Overall, the 𝜎 magnitudes reduce as the supervision 𝛾 increases.

图 9. 结果:CT输出中每像素不确定性的可视化。在不同监督水平 𝛾 下,展示一个示例CT图像的输出集  的每像素标准差 (𝜎) 图。总体来看,随着监督水平 𝛾 的增加,𝜎 的幅度逐渐减小。

图片

Fig. 10. Results: Visualizing per-pixel uncertainty in the output for PET. At varying levels of supervision 𝛾, the per-pixel standard-deviation (𝜎) maps of the output set for an example PET image. Overall, the 𝜎 magnitudes reduce as the supervision 𝛾 increases.

图 10. 结果:PET输出中每像素不确定性的可视化。在不同监督水平 𝛾 下,展示一个示例PET图像的输出集  的每像素标准差 (𝜎) 图。总体来看,随着监督水平 𝛾 的增加,𝜎 的幅度逐渐减小。

图片

Fig. 11. Results: Visualizing variability in the output distribution through its principal modes of variation. First two principal modes of variation for CT.

图 11. 结果:通过主变化模式可视化输出分布的变异性。CT的前两个主变化模式。

图片

Fig. 12. Results: Visualizing variability in the output distribution through its principal modes of variation. First two principal modes of variation for PET

图 12. 结果:通过主变化模式可视化输出分布的变异性。PET的前两个主变化模式。

图片

Fig. 13. Ablation studies: Modeling and training. Performance of six semi-supervised methods (at 𝛾 = 0.02 for CT; at 𝛾 = 0.5 for PET): (i) N2N+UNet, (ii) N2N+UNet+Adv thatadds adversarial learning to N2N+UNet, (iii) N2N+UNet+DistLat that adds EM-based distribution modeling to the latent space for N2N+UNet, (iv) N2N+UNet+DistOut that addsGG distribution modeling at N2N+UNet’s decoder output, (v) ss-NonAdv-EM that adds both DistLat and DistOut to N2N+UNet, and (vi) ssAdvEM that adds adversarial learning toss-NonAdv-EM. Results for tests on (a) in-distribution images and (b) OOD images.

图 13. 消融研究:建模和训练。六种半监督方法的性能比较(在CT中 𝛾 = 0.02;在PET中 𝛾 = 0.5):(i) N2N+UNet,(ii) N2N+UNet+Adv,在N2N+UNet中加入对抗学习,(iii) N2N+UNet+DistLat,在N2N+UNet的潜在空间中加入基于EM的分布建模,(iv) N2N+UNet+DistOut,在N2N+UNet的解码器输出处加入GG分布建模,(v) ss-NonAdv-EM,将DistLat和DistOut都加入N2N+UNet,(vi) ssAdvEM,在ss-NonAdv-EM中加入对抗学习。结果包括对(a) 分布内图像和 (b) 分布外(OOD)图像的测试结果

图片

Fig. 14. Ablation studies: Effect of multiscale latent space. Performance of two semi-supervised methods (at 𝛾 = 0.02 for CT; at 𝛾 = 0.5 for PET): (i) standard ssAdvEM frameworkwith multiscale latent space. (ii) ablated ssAdvEM framework with a uniscale latent space similar to that used in VAE-based methods. Results for tests on (a) in-distribution imagesand (b) OOD images.

图 14. 消融研究:多尺度潜在空间的效果。两种半监督方法的性能比较(在CT中 𝛾 = 0.02;在PET中 𝛾 = 0.5):(i) 使用多尺度潜在空间的标准ssAdvEM框架,(ii) 使用与基于VAE方法相似的单尺度潜在空间的简化ssAdvEM框架。结果包括对(a) 分布内图像和 (b) 分布外(OOD)图像的测试结果。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2135651.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

OpenAI 全新 o1 模型上线 Cursor,开发者们欢呼!

最近 OpenAI 推出了新一代 o1模型,现在可以在 Cursor 上使用了。这些 o1模型在处理复杂和精细的推理任务上表现出色,令许多开发者为之兴奋。 特别值得一提的是,o1-mini 模型专门为高级编程设计,成为了开发者们的新宠。 最开始&am…

c++类和对象(3):默认成员函数(下)

1.拷贝构造函数 如果⼀个构造函数的第⼀个参数是自身类类型的引用,且任何额外的参数都有默认值,则此构造函数也叫做拷贝构造函数,也就是说拷贝构造是⼀个特殊的构造函数。 c规定:类类型的传值传参必须用拷贝构造 1.1拷贝构造函数…

SpringBoot:Web开发(基于SpringBoot使用MyBatis-Plus+JSP开发)

目录 前期准备 构建项目(IDEA2023.1.2,JDK21,SpringBoot3.3.3) 添加启动器 Model准备 这里我们利用MybatisX插件生成我们所需要的实体类、数据访问层以及服务层 注意选择MyBatis-Plus3以及Lombok 然后再在service接口中定义…

Leetcode 每日一题:Course Schedule II

写在前面: 今天我们继续来看一道经典的图论问题,而这个问题可以说是跟我们一众学生的生活息息相关啊!我们每年都有很多需要完成的必修指标,每一个必修指标可能会有一个或多个先修要求,而我们需要决定是否能将这些课全…

kAFL部署、使用与原理分析

文章目录 前言1、概述1.1、工作原理1.2、工作流程1.2.1、部署kAFL1.2.2、准备工作1.2.2.1、准备主机代理内核1.2.2.2、准备待Fuzz目标1.2.2.3、配置待Fuzz目标1.2.2.4、配置kAFL组件 1.2.3、Fuzz测试1.2.3.1、获取配置信息1.2.3.2、准备工作目录1.2.3.3、复制种子文件1.2.3.4、…

大顶堆+动态规划+二分

前言&#xff1a;我们这一题需要分类讨论 对于我们左边和右边的我们需要预处理 有点类似反悔堆的做法&#xff0c;得出i之前取出 m 个元素代价最小&#xff0c;并且这个代价一定是递减的&#xff08;可以推导一下&#xff09; 题目地址 #include<bits/stdc.h> using name…

Docker 华为云镜像加速器配置

​​ 操作说明 1. 安装/升级容器引擎客户端 推荐安装1.11.2以上版本的容器引擎客户端 2. 加速器地址 访问华为云容器镜像服务&#xff1a;https://console.huaweicloud.com/swr/ 获取加速器地址 https://xxxxxxxxx.mirror.swr.myhuaweicloud.com3. 配置镜像加速器 针对…

c语言快递小项目

struct pack_head{ int fd;//通信的文件描述符 unsigned char type; //消息类型 unsigned char usertype; //用户类型&#xff1a;1&#xff1a;用户 2&#xff1a;快递员 char name[32]; //用户名 char paaswd[32]; //密码 char buf[32]; //调试…

抗金属RFID标签如何提升资产管理效率

在资产管理中&#xff0c;金属表面的设备和资产对传统RFID标签来说是一大挑战。为了解决这一问题&#xff0c;企业开始广泛采用抗金属RFID标签&#xff0c;以确保在金属环境下也能高效地进行资产跟踪与管理。 抗金属RFID标签的应用场景 抗金属RFID标签是一种专门设计用于金属…

如何让Windows控制台窗口不接受鼠标点击(禁用鼠标输入)

一、简述 在我们编写控制台应用程序时&#xff0c;默认情况下程序的打印输出会在控制台窗口中进行显示&#xff0c;我们在写服务功能时在窗口中会不断打印消息输出&#xff0c;这个时候如果使用鼠标点击了控制台窗口&#xff0c;会阻塞程序的继续运行&#xff0c;导致我们的程…

【Unity】在Unity 3D中使用Spine开发2D动画

文章目录 内容概括前言下载安装 Spine Pro导入Unity插件Spine动画导入Unity使用展现动画效果展现 内容概括 本文主要讲解 Spine Pro 免&#xff08;破&#xff09;费&#xff08;解&#xff09;版的安装&#xff0c;以及如何将动画导入到Unity中使用。 前言 通常要用 Spine …

Hadoop林子雨安装

文章目录 hadoop安装教程注意事项&#xff1a; hadoop安装教程 链接: 安装教程 注意事项&#xff1a; 可以先安装ububtu增强功能&#xff0c;完成共享粘贴板和共享文件夹 ubuntu增强功能 2.这里就可以使用共享文件夹 或者在虚拟机浏览器&#xff0c;用 微信文件传输助手 传文…

医学数据分析实训 项目二 数据预处理预备知识(数据标准化处理,数据离差标准化处理,数据二值化处理,独热编码处理,数据PCA降维处理)

文章目录 数据预处理预备知识任务一 数据标准化处理1. 数据准备2. 数据标准化 任务二 数据离差标准化处理任务三 数据二值化处理任务五 独热编码处理对数据进行“离散化处理”&#xff08;装箱&#xff09;将已经装箱的数据进行OneHotEncoder独热编码 任务六 数据PCA降维处理1.…

ingress对外服务

目录 ingress概念 安装ingress ingress-nginx暴露服务的方式 1. DeploymentLoadBalncer 2. DaemonSetHostNetworknodeSelector ​编辑 3.deploymentnodePort ​编辑 ingress-nginx的deploymentnodePorthttps部署 1.创建ssl的证书 2.ingressnginx ingress-nginx的权…

最强AI照片说话Windows一体包下载地址,口型合成音频驱动图片,免安装,下载即用

照片数字一键整合包&#xff1a;点击下载 一键安装包&#xff0c;简单一键启动&#xff0c;即刻使用&#xff0c;秒级体验。 目前效果最好的音频驱动图片说话的软件&#xff0c;比sadtalker、MuseTalk更清晰&#xff0c;效果更好&#xff0c;可以作为DID heygen的开源平替。原…

Vue安装及环境配置【图解版】

欢迎来到我的博客&#xff0c;很高兴能够在这里和您见面&#xff01;希望您在这里可以感受到一份轻松愉快的氛围&#xff0c;不仅可以获得有趣的内容和知识&#xff0c;也可以畅所欲言、分享您的想法和见解。 Facts speak louder than words&#xff01; 目录 一.node.js的安装…

C语言算法

大纲 算法复杂度 排序算法 经典算法

如何使用ssm实现物流配送人员车辆调度管理系统的设计与实现+vue

TOC ssm618物流配送人员车辆调度管理系统的设计与实现vue 第1章 绪论 1.1 课题背景 二十一世纪互联网的出现&#xff0c;改变了几千年以来人们的生活&#xff0c;不仅仅是生活物资的丰富&#xff0c;还有精神层次的丰富。在互联网诞生之前&#xff0c;地域位置往往是人们思…

react和vue区别以及为什么会说react适合大型项目

都说react适合做大型项目&#xff0c;但是什么是大型项目呢。 什么是大型项目 这个所谓的大项目应该是指 多部门&#xff0c;多项目协作。而并不是页面量和工作日&#xff0c;对于大公司&#xff0c;协作所带来的成本&#xff0c;效率问题才是问题 为什么会说react要更适合大型…

开源waf牛了个b之长亭雷池

雷池官网&#xff1a; https://waf-ce.chaitin.cn/