Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models

news2024/11/24 5:31:40

使用预先训练的垂直 2D 扩散模型改进 3D 成像

在这里插入图片描述

论文链接:https://arxiv.org/abs/2303.08440

项目链接:https://github.com/hyn2028/tpdm

Abstract

扩散模型由于其众多的优点已经成为一种流行的图像生成和重建方法。然而,大多数基于扩散的逆问题解决方法只处理2D图像,甚至最近发表的3D方法也没有充分利用3D分布先验。为了解决这个问题,我们提出了一种新的方法,使用两个垂直的预训练二维扩散模型来解决三维逆问题。通过将三维数据分布建模为二维分布在不同方向上的切片的乘积,我们的方法有效地解决了维度灾难。实验结果表明,我们的方法对三维医学图像重建任务非常有效,包括MRI z轴超分辨率,压缩感知MRI和稀疏视图CT。我们的方法可以生成适合医疗应用的高质量体素体。

1. Introduction

扩散概率模型(diffusion probabilistic model, DPM)使用神经网络学习对数概率分布 ∇ x log ⁡ p d a t a ( x ) ∇x \log p_{data}(x) xlogpdata(x)的梯度,也称为分数函数。通过使用Langevin动力学[38]或使用学习分数函数求解逆随机微分方程(SDE)进行采样[40]。

DPM自推出以来,已经成为图像领域的领先生成模型[37,15,40],在实现最先进的性能方面超越了GAN等其他模型[10,30]。扩散模型与条件反射训练的融合是一个值得注意的协同作用,它构成了文本引导图像生成领域的基础框架[30,32,29]。此外,它的广泛适用性扩展到新的领域,如脑视觉解码[3,41]。在音频[28,22,18]、视频[2,36,26]、辐射场[27,35]和图形[43,17]等其他领域,它也被作为生成模型进行探索。

尽管由于在多个时间步上进行顺序采样而导致采样速度较慢,但扩散模型比其他生成模型具有显著的优势,包括采样时间的可扩展性。根据贝叶斯定理[10,16],预训练分数函数模型可以用于不需要再训练的条件抽样。这种基于条件抽样的反问题解决方法可以解释为具有扩散生成先验的后验抽样。因此,它有效地避免了监督似然优化方法的偏差和回归均值现象。在适当的时候,基于扩散的反问题解决方法范式[40,20,7,5,4,39,6,45]已经上升到研究领域的前沿,成为一种最先进的技术。

大多数当代基于扩散的反问题求解方法都集中在二维应用上。然而,最近提出了一种名为DiffusionMBIR的方法[6]来解决医学成像中的3D逆问题。在DiffusionMBIR中,在主xy平面上训练的扩散模型被用作先验,生成先验被基于模型的先验增强,即总变异(TV),以增强相邻切片(Z-axis)的平滑性。虽然这种方法对各种任务都很有效,但它仍然有局限性,因为它没有完全了解数据的3D先验分布。更具体地说,TV先验只施加来自有限差分算子的局部依赖,而真正的3D先验应该模拟全局依赖。

为了克服这一限制,我们提出了一种新的3D生成方法,称为两个垂直的2D扩散模型(TPDM)。TPDM充分利用了三维生成先验,通过对二维构成要素的乘积分布建模三维数据分布,而不依赖于基于模型的先验。这种方法允许TPDM仅使用两个2D扩散模型有效地学习3D先验:在xy平面上操作的主模型和学习yz平面的辅助模型。与之前的DiffusionMBIR方法不同,TPDM可以对3D结构的全局依赖性进行建模,并且消除了强加TV约束所需的子优化方案的需要。值得一提的是,与专为逆问题求解而设计的 DiffusionMBIR 不同,TDPM 是完全通用的 3D 生成模型,可用于条件采样和无条件采样。

在本文中,TPDM已经在MRI z轴(即垂直轴)超分辨率(MR-ZSR),压缩感知MRI (CS-MRI)和稀疏视图CT (SV-CT)等各种3D医学成像重建问题中进行了测试,并与现有方法相比产生了最先进的结果。特别是,据我们所知,我们已经在技术上和临床上首次成功尝试了基于扩散模型的MR-ZSR(图2)。我们还证明了TPDM可以作为纯生成模型生成非常高质量的完整3D体素(图7)。我们的贡献可以总结如下:

  1. 我们开发了一种新颖、简单、有效的方法,以完全无监督的方式解决了两个垂直的二维扩散模型作为三维先验的三维体积逆问题,而不需要重新训练。

  2. 我们将其应用于各种医学成像重建问题,并取得了最知名的性能。特别是,TPDM在基于扩散模型的MR-ZSR的第一次尝试中取得了成功。

  3. 最后,我们证明了TPDM也可以作为3D生成模型,生成高质量的3D体素体。

2. Background

2.1. 基于分数的扩散模型

扩散模型[37,15,40]是一个模型族,它定义了一个对原始数据逐渐加噪的过程,称为前向过程,并通过执行该加噪过程的学习反向过程来表达生成过程。其中,Song等人[40]引入的基于分数的扩散模型通过以下Ito随机微分方程(SDE)来定义正向过程。在整个扩散过程中,数据 x x x可以用 x ( t ) = x t x(t) = x_t x(t)=xt表示,连续时间指标 t ∈ [ 0 , 1 ] t∈[0,1] t[0,1] x 0 ∼ p d a t a x_0 \sim p_{data} x0pdata为原始数据分布, x 1 ∼ p 0 x_1 \sim p_0 x1p0为预定义的先验分布。
d x = f ( x , t ) d t + g ( t ) d w , (1) d\boldsymbol{x}=\boldsymbol{f}(\boldsymbol{x},t)dt+g(t)d\boldsymbol{w}, \tag{1} dx=f(x,t)dt+g(t)dw,(1)
式中函数 f : R d × R → R d f: \mathbb{R}^d × \mathbb{R}→\mathbb{R}^d f:Rd×RRd为漂移函数,函数 g : R → R g: \mathbb{R}→\mathbb{R} g:RR为扩散系数。 w w w是标准维纳过程,也称为布朗运动。公式(1)的逆时SDE可表示为[1,40]:
d x = [ f ( x , t ) − g ( t ) 2 ∇ x t log ⁡ p ( x t ) ] d t + g ( t ) d w ˉ (2) dx=[\boldsymbol{f}(\boldsymbol{x},t)-g(t)^2\nabla_{\boldsymbol{x}t}\log p(\boldsymbol{x}_t)]dt+g(t)d\boldsymbol{\bar{w}} \tag{2} dx=[f(x,t)g(t)2xtlogp(xt)]dt+g(t)dwˉ(2)
其中 w ˉ \bar{w} wˉ也是标准的维纳过程。

为了求解生成过程的逆时SDE,需要一个与时间相关的得分函数 ∇ x t log ⁡ p ( x t ) ∇x_t \log p(x_t) xtlogp(xt),可以通过去噪得分匹配(DSM) 训练基于神经网络的得分函数估计器 s θ s_θ sθ来获得 目标 [44, 40]:
min ⁡ θ E x t ∣ x 0 , x 0 [ ∥ s θ ( x ( t ) , t ) − ∇ x t log ⁡ p ( x t ∣ x 0 ) ∥ 2 2 ] (3) \min_{\boldsymbol{\theta}}\mathbb{E}_{\boldsymbol{x}_t|\boldsymbol{x}_0,\boldsymbol{x}_0}[\|\boldsymbol{s}_{\boldsymbol{\theta}}(\boldsymbol{x}(t),t)-\nabla_{\boldsymbol{x}_t}\log p(\boldsymbol{x}_t|\boldsymbol{x}_0)\|_2^2] \tag{3} θminExtx0,x0[sθ(x(t),t)xtlogp(xtx0)22](3)
f ( x , t ) = 0 , g ( t ) = d [ σ 2 ( t ) ] d t f(x, t) = 0, g(t)=\sqrt{\frac{d[\sigma^{2}(t)]}{dt}} f(x,t)=0,g(t)=dtd[σ2(t)] ,加上正时变递增噪声标度函数 σ ( t ) σ(t) σ(t),我们实现了variance exploding SDE (VE-SDE)。用DSM目标训练的分数网络代替分数函数,可以有效地解决VE-SDE的采样过程。

2.2. 扩散后验抽样

扩散后验抽样(Diffusion posterior sampling, DPS)是Chung等人[5]提出的以扩散模型作为先验来解决一般噪声逆问题的最新方法之一。一般考虑正演模型的逆问题可以定义为:
y = A ( x 0 ) + n , y , n ∈ R n , x ∈ R d (4) \boldsymbol{y}=\boldsymbol{A}(\boldsymbol{x}_0)+\boldsymbol{n},\quad\boldsymbol{y},\boldsymbol{n}\in\mathbb{R}^n,\boldsymbol{x}\in\mathbb{R}^d \tag{4} y=A(x0)+n,y,nRn,xRd(4)
式中, A A A为前向测量函数, n n n为测量噪声。为了利用扩散先验求解逆问题,我们可以使用贝叶斯规则得到:
∇ x t log ⁡ p ( x t ∣ y ) = ∇ x t log ⁡ p ( x t ) + ∇ x t log ⁡ p ( y ∣ x t ) ≃ s θ ∗ ( x t , t ) + ∇ x t log ⁡ p ( y ∣ x t ) . (5) \begin{aligned}\nabla_{x_t}\log p(x_t|\boldsymbol{y})&=\nabla_{x_t}\log p(\boldsymbol{x}_t)+\nabla_{x_t}\log p(\boldsymbol{y}|\boldsymbol{x}_t)\\&\simeq s_{\theta^*}(\boldsymbol{x}_t,t)+\nabla_{x_t}\log p(\boldsymbol{y}|\boldsymbol{x}_t).\end{aligned} \tag{5} xtlogp(xty)=xtlogp(xt)+xtlogp(yxt)sθ(xt,t)+xtlogp(yxt).(5)
尽管如此,由于 x t x_t xt y y y之间没有明确的关系,我们不能直接使用公式(5)。为了规避这个问题,[5]提出了一种近似,理论上保证了近似误差的上界:
∇ x t log ⁡ p ( y ∣ x t ) ≃ ∇ x t log ⁡ p ( y ∣ x ^ 0 ( x t ) ) , (6) \nabla_{\boldsymbol{x}_{t}}\log p(\boldsymbol{y}|\boldsymbol{x}_{t})\simeq\nabla_{\boldsymbol{x}_{t}}\log p(\boldsymbol{y}|\hat{\boldsymbol{x}}_{0}(\boldsymbol{x}_{t})), \tag{6} xtlogp(yxt)xtlogp(yx^0(xt)),(6)
其中:
x ^ 0 ( x t ) : = E [ x 0 ∣ x t ] = x t + σ 2 ( t ) ∇ x t log ⁡ p ( x t ) (7) \hat{x}_0(x_t):=\mathbb{E}[x_0|x_t]=x_t+\sigma^2(t)\nabla_{\boldsymbol{x}_t}\log p(\boldsymbol{x}_t) \tag{7} x^0(xt):=E[x0xt]=xt+σ2(t)xtlogp(xt)(7)
为Tweedie去噪估计[11,21]。因此,当测量噪声为高斯噪声时,可以使用:
∇ x t log ⁡ p ( x t ∣ y ) ≃ s θ ∙ ( x t , t ) − λ ∇ x t ∥ A ( x ^ 0 ( x t ) ) − y ∥ 2 2 . (8) \nabla_{\boldsymbol{x}_{t}}\log p(\boldsymbol{x}_{t}|\boldsymbol{y})\simeq\boldsymbol{s}_{\boldsymbol{\theta}^{\bullet}}(\boldsymbol{x}_{t},t)-\lambda\nabla_{\boldsymbol{x}_{t}}\|\boldsymbol{A}(\hat{\boldsymbol{x}}_{0}(\boldsymbol{x}_{t}))-\boldsymbol{y}\|_{2}^{2}. \tag{8} xtlogp(xty)sθ(xt,t)λxtA(x^0(xt))y22.(8)

3. Two Perpendicular 2D Diffusion Model

3.1. 建模数据分布

为了克服DiffusionMBIR的缺点,在这里我们描述了我们应用先验的方法,它比DiffusionMBIR更接近实际的3D分布。我们简单而有效的解决方案是,通过将三维数据分布建模为乘积分布,除了主要的二维扩散模型外,还使用在体积不同方向的二维切片上训练的辅助扩散模型来解决逆问题(图1)。这使我们能够在高维空间中有效地驱动扩散模型,就像在各种深度学习场景中利用分解方法来提高效率一样[33,13,12]。

在这里插入图片描述

具体来说,我们的建议是将数据分布建模为由:
p θ , ϕ ( x ) = q θ ( p ) ( x ) α q ϕ ( a ) ( x ) β / Z = [ q θ ( p ) ( x [ : , : , 1 ] ) q θ ( p ) ( x [ : , : , 2 ] ) ⋯ q θ ( p ) ( x [ : , : , d 3 ] ) ] α × [ q ϕ ( a ) ( x [ 1 , : ; ] ) q ϕ ( a ) ( x [ 2 , : , : ] ) ⋯ q ϕ ( a ) ( x [ d 1 , : , : ] ) ] β / Z , (9,10) \begin{gathered} p_{\boldsymbol{\theta},\boldsymbol{\phi}}(\boldsymbol{x})=q_{\boldsymbol{\theta}}^{(p)}(\boldsymbol{x})^{\alpha}q_{\boldsymbol{\phi}}^{(a)}(\boldsymbol{x})^{\beta}/Z \\ =[q_{\boldsymbol{\theta}}^{(p)}(\boldsymbol{x}_{[:,:,1]})q_{\boldsymbol{\theta}}^{(p)}(\boldsymbol{x}_{[:,:,2]})\cdots q_{\boldsymbol{\theta}}^{(p)}(\boldsymbol{x}_{[:,:,d_{3}]})]^{\alpha} \\ \times[q_{\boldsymbol{\phi}}^{(a)}(\boldsymbol{x}_{[1,:;]})q_{\boldsymbol{\phi}}^{(a)}(\boldsymbol{x}_{[2,:,:]})\cdots q_{\boldsymbol{\phi}}^{(a)}(\boldsymbol{x}_{[d_{1},:,:]})]^{\beta}/Z, \end{gathered} \tag{9,10} pθ,ϕ(x)=qθ(p)(x)αqϕ(a)(x)β/Z=[qθ(p)(x[:,:,1])qθ(p)(x[:,:,2])qθ(p)(x[:,:,d3])]α×[qϕ(a)(x[1,:;])qϕ(a)(x[2,:,:])qϕ(a)(x[d1,:,:])]β/Z,(9,10)
其中 Z Z Z为合适的归一化配分函数, q θ ( p ) ( x ) q^{ (p)}_ θ (x) qθ(p)(x)为参数化θ的主模型建模的分布, q φ ( a ) ( x ) q ^{(a)}_ φ (x) qφ(a)(x)为参数化φ的辅助模型建模的分布,对于 x ∈ R d 1 × d 2 × d 3 x∈\mathbb{R}^{ d_1×d_2×d_3} xRd1×d2×d3。此外,α, β根据重要性在两个分布之间引入权重。我们进一步假设 q θ ( p ) q^{ (p)}_ θ qθ(p) q ϕ ( a ) q^{ (a)}_ ϕ qϕ(a)都可以分解为独立的2D(切片)分布。

因此,当从先验分布 p θ , ϕ ( x ) p_{θ,ϕ}(x) pθ,ϕ(x)中进行无条件采样时,我们可以直接使用
∇ x t log ⁡ p ( x t ) = α ∇ x t log ⁡ q ( p ) ( x t ) + β ∇ x t log ⁡ q ( a ) ( x t ) = α Σ i = 1 d 3 ∇ x t log ⁡ q ( p ) ( x t , [ : , : , i ] ) + β Σ i = 1 d 1 ∇ x t log ⁡ q ( a ) ( x t , [ i , : , : ] ) ≃ α Σ i = 1 d 3 s θ ∗ 3 D ( x t , [ : , : , i ] ) + β Σ i = 1 d 1 s ϕ ∗ 3 D ( x t , [ i , : ; ] ) , (11) \begin{gathered} \nabla_{x_{t}}\log p(x_{t})=\alpha\nabla_{x_{t}}\log q^{(p)}(x_{t})+\beta\nabla_{x_{t}}\log q^{(a)}(x_{t}) \\ =\alpha\Sigma_{i=1}^{d_{3}}\nabla_{x_{t}}\log q^{(p)}(x_{t,[:,:,i]})+\beta\Sigma_{i=1}^{d_{1}}\nabla_{x_{t}}\log q^{(a)}(x_{t,[i,:,:]}) \\ \simeq\alpha\Sigma_{i=1}^{d_{3}}s_{\theta^{*}}^{3D}(x_{t,[:,:,i]})+\beta\Sigma_{i=1}^{d_{1}}s_{\phi^{*}}^{3D}(x_{t,[i,:;]}), \end{gathered} \tag{11} xtlogp(xt)=αxtlogq(p)(xt)+βxtlogq(a)(xt)=αΣi=1d3xtlogq(p)(xt,[:,:,i])+βΣi=1d1xtlogq(a)(xt,[i,:,:])αΣi=1d3sθ3D(xt,[:,:,i])+βΣi=1d1sϕ3D(xt,[i,:;]),(11)
其中, x t , [ i , : , : ] x_{t,[i,:,:]} xt,[i,:,:] x t , [ : , : , j ] x_{t,[:,:,j]} xt,[:,:,j]分别表示 x t x_t xt的第i和第j个x切片和第z切片,并且
{ s 3 D ( x t , [ : , : , i ] ) [ : , : , i ] = s ( x t , [ : , : , i ] ) s 3 D ( x t , [ : , : , i ] ) [ otherwise ] = 0 { s 3 D ( x t , [ i , : , : ] ) [ i , : : ] = s ( x t , [ i , : , : ] s 3 D ( x t , [ i , : , : ] ) [ o t h e r w i s e ] = 0 (12,13) \begin{gathered} \begin{cases}s^{3D}(\boldsymbol{x}_{t,[:,:,i]})_{[:,:,i]}=s(\boldsymbol{x}_{t,[:,:,i]})\\\boldsymbol{s}^{3D}(\boldsymbol{x}_{t,[:,:,i]})_{[\text{otherwise}]}=0\end{cases} \\ \begin{cases}s^{3D}(x_{t,[i,:,:]})_{[i,::]}=s(x_{t,[i,:,:]}\\s^{3D}(x_{t,[i,:,:]})_{[\mathrm{otherwise}]}=0&\end{cases} \end{gathered} \tag{12,13} {s3D(xt,[:,:,i])[:,:,i]=s(xt,[:,:,i])s3D(xt,[:,:,i])[otherwise]=0{s3D(xt,[i,:,:])[i,::]=s(xt,[i,:,:]s3D(xt,[i,:,:])[otherwise]=0(12,13)
由于我们的二维切片独立性假设,它使用了训练好的二维分数估计器 s ( ⋅ ) s(·) s()。但是,必须小心,因为简单地使用这种近似值计算量很大,因为每次迭代都必须计算两个正向传递。在这方面,我们建议通过交替更新来解决这个问题
{ Σ s θ ∗ 3 D ( x t , [ : , : , i ] ) , with  P = α / ( α + β ) Σ s ϕ ∗ 3 D ( x t , [ i , : , : ] ) , with  P = β / ( α + β ) (14) \begin{cases}\Sigma s_{\boldsymbol{\theta}^{*}}^{3D}(\boldsymbol{x}_{t,[:,:,i]}),&\text{with }\mathbb{P}=\alpha/(\alpha+\beta)\\\Sigma s_{\boldsymbol{\phi}^{*}}^{3D}(\boldsymbol{x}_{t,[i,:,:]}),&\text{with }\mathbb{P}=\beta/(\alpha+\beta)\end{cases} \tag{14} {Σsθ3D(xt,[:,:,i]),Σsϕ3D(xt,[i,:,:]),with P=α/(α+β)with P=β/(α+β)(14)
其中P表示要执行的每一步的概率。公式(14)可以在有规律的结构间隔或随机方式中实现,我们将在3.2节中详细讨论。

最后,为了求解逆问题,我们可以利用以下结果:
∇ x t log ⁡ p ( x t ∣ y ) ≃ α ∇ x t log ⁡ q ( p ) ( x t ) + β ∇ x t log ⁡ q ( a ) ( x t ) + ∇ x t log ⁡ p ( y ∣ x ^ 0 ( x t ) ) , (15) \begin{aligned}\nabla_{\boldsymbol{x}_t}\log p(\boldsymbol{x}_t|\boldsymbol{y})&\simeq\alpha\nabla_{\boldsymbol{x}_t}\log q^{(p)}(\boldsymbol{x}_t)\\&+\beta\nabla_{\boldsymbol{x}_t}\log q^{(a)}(\boldsymbol{x}_t)+\nabla_{\boldsymbol{x}_t}\log p(\boldsymbol{y}|\boldsymbol{\hat{x}}_0(\boldsymbol{x}_t)),\end{aligned} \tag{15} xtlogp(xty)αxtlogq(p)(xt)+βxtlogq(a)(xt)+xtlogp(yx^0(xt)),(15)
其中,与公式(14)中的无条件抽样相似,简化为:
{ Σ s θ ∙ 3 D ( x t , [ : : : i ] ) + γ t ∇ x t log ⁡ p ( y ∣ x ^ 0 ( x t ) ) , with  P = α / ( α + β ) Σ s ϕ ∗ 3 D ( x t , [ i , : : ] ) , with  P = β / ( α + β ) (16) \begin{cases}\Sigma s_{\boldsymbol{\theta}\bullet}^{3D}(x_{t,[:::i]})+\gamma_{t}\nabla_{\boldsymbol{x}_{t}}\log p(\boldsymbol{y}|\hat{x}_{0}(x_{t})),&\text{with }\mathbb{P}=\alpha/(\alpha+\beta)\\\Sigma s_{\boldsymbol{\phi}^{*}}^{3D}(x_{t,[i,::]}),&\text{with }\mathbb{P}=\beta/(\alpha+\beta)\end{cases} \tag{16} {Σsθ3D(xt,[:::i])+γtxtlogp(yx^0(xt)),Σsϕ3D(xt,[i,::]),with P=α/(α+β)with P=β/(α+β)(16)
其中 γ t γ_t γt是步长,它也吸收了由 α α α β β β引起的权重因子。

3.2. 利用TPDM解决三维重建问题

TPDM的训练通过训练主2D扩散模型和辅助2D扩散模型来完成(算法见附录A.1)。主要的二维扩散模型 s θ ∗ s_θ^∗ sθ在求解反问题时选择一个合适的平面,并将三维体的切片图像训练到相应的平面。如CS-MRI、SV-CT为轴向面,MR-ZSR为矢状面或冠状面。一个辅助的二维扩散模型 s φ ∗ s_φ^∗ sφ通过选择两个剩余的平面中的一个来训练。

为了解决反问题,使用训练好的TPDM对一个时间步去噪的每一步交替进行条件采样(算法1)。

在这里插入图片描述

虽然为了清晰起见,这些算法是单独提出的,但为了提高计算效率,它们可以批处理。在每个去噪步骤中,我们使用初级扩散模型 s θ ∗ s_θ^∗ sθ来约束测量值y的一致性,并使用DPS对图像进行采样[5]。超参数λ控制测量一致性的强度。辅助扩散模型 s ϕ ∗ s_ϕ^ * sϕ用于纠正由主要扩散模型引起的批方向不一致。我们使用整数超参数K来调整两个模型的贡献(对于K的非整数值,参见附录A.2)。例如,当K=4时,主模型和辅助模型对图像生成的贡献比例分别为3:1。

4. Methods

在本文中,我们研究了TPDM的各种应用,包括医学领域的逆问题,如1)MRI z轴(垂直轴)超分辨率(MRZSR), 2)压缩感知MRI (CS-MRI)和3)稀疏视图CT (SV-CT)。除了解决应用扩散模型条件采样的三维逆问题外,TPDM还用于生成脑MRI中无条件高保真三维体素体积。

4.1. 数据集

MR-ZSR, CS-MRI和3D体素生成任务使用我们的IRB批准的内部脑MRI图像数据集(即BMR-ZSR-1mm和BMR-ZSR-5mm)。详细信息请参见附录B.1。所有的体量都是256×256×256立方体的形状和标准的3T t1加权图像。BMR-ZSR-1mm,用于培训和回顾性评估,切片厚度为1mm。使用923卷(236288张2D图像)作为训练数据集,1卷作为回顾性切片厚度退化或CS-MRI子采样模拟的测试数据集。BMR-ZSR-5mm是在5mm切片厚度下获得的前瞻性数据集,用于MR-ZSR的前瞻性临床评价。

SV-CT任务使用AAPM 2016 CT低剂量大挑战中提供的公共CT数据集[25]。该数据集由总共10个体积的增强腹部CT组成。为了使体积成为256×256× 256的立方体,我们将xy平面的大小调整为256×256,并在z方向裁剪公共部分以使长度为256(即LDCT-CUBE数据集)。其中1卷作为回顾性测量模拟的测试数据集,其余9卷作为训练数据集。我们用于训练的数据只有 2304 个 2D 图像,因此即使训练数据很小,我们也可以展示可靠的性能。

4.2. 逆问题的测量模型

MR-ZSR。该任务的目标是将5mm层厚度MRI图像的超分辨率提高到1mm层分辨率,用于定量脑MR分析,如皮质厚度测量。考虑到MRI的切片选择过程,可以将z轴方向的相邻体素结合起来,进行平均运算,对正向测量核进行建模。例如,对于5mm到1mm切片的超分辨率,正演模型是对1mm切片图像进行降级的操作,方法是沿z轴方向对相邻的5个xy平面进行分组,并对每组进行平均,得到5mm切片图像。在这里,我们将要合并的组的z轴方向的像素数定义为合并大小(M)。

我们在创建回顾性退化MRI数据集(1mm→2,5mm)时使用了刚刚提出的前向核。在求解逆问题MR-ZSR时,我们还使用了DPS步骤中使用的略有不同的前向测量核。核类似于平均过程,但在平均时,除√M而不是除M,这是受到Song等[40]和Chung等[7]基于扩散模型的图像着色方法的启发。

CS-MRI和SV-CT。压缩感知MRI (CS-MRI)的前向测量核涉及在使用二维傅里叶变换将其转换为k空间后,对图像的每个切片应用二维子采样掩码。测量结果y在k空间域中给出。在稀疏视图CT (SV-CT)的情况下,前向测量核由稀疏视图CT采集场景确定,其中角度投影视图在稀疏角度集上进行次采样。测量是在正弦图空间中给出的。

4.3. DPM的训练和采样

在常用的模型设置和算法下,对MRI模型和CT模型进行训练和推断。构成TPDM的二维图像扩散模型采用NCSNPP[40],采用VE-SDE,按照几何序列σ0=0.01 ~ σ1=378进行调度。所有输入在0到1之间归一化。在MR-ZSR问题中,使用YZ-plane (corononal)作为主模型,使用XY-plane (axial)作为辅助模型。在所有其他问题中,xy平面(轴向)用于主模型,YZ平面(冠状面)用于辅助模型。训练批大小为8,MRI模型和CT模型分别进行300K和100K次训练迭代。抽样阶段采用N=2000和预测校正抽样[40]方法。

4.4. 比较方法与评价

对于三维医学逆问题,我们的方法与DiffusionMBIR[6]、DPS[5]、MCG[7]、score-MRI[8]、score-CT[39]、L1-Wavelet[24]、FBPConvNet[19]和ADMM-TV进行了比较。DiffusionMBIR是解决一般3D逆问题的最先进方法,优于CS-MRI中的Score-MRI、DuDoRNet[47]、U-Net[31]和zero -fill等现有方法,优于SV-CT中的MCG、Lahiri等[23]、FBPConvNet和ADMM-TV等先前方法。由于MR-ZSR问题是一个新的尝试,没有基于扩散的方法被设计来专门解决它。采用峰值信噪比(PSNR)和结构相似性指数(SSIM)对回顾性测试数据集进行定量评价[46]。在三维体积中评估PSNR, SSIM测量每个切片方向(轴向、冠状面和矢状面)的二维切片结果的平均值。

为了评估MR-ZSR的临床意义,7例缺血性脑卒中患者被纳入评估(BMR-ZSR-5mm)。皮质萎缩和白质高强度的视觉评估分别采用Global cortical atrophy scale[14]和Fazekas grade[34]。利用TDPM,将厚度为5mm的准标准t1加权图像重构为1mm图像。7例患者中有5例同时获得三维体积1mm T1加权图像和5mm T1加权图像。将升级后的T1加权图像获得的平均皮质厚度与1mm原始T1加权图像测量的平均皮质厚度进行比较,作为地面真值。使用FreeSurfer[42]和ATROSCAN (JLK Inc., Seoul, Republic of Korea)基于Swin U-net[9]测量皮质厚度。

5. Experimental Results

5.1. MRI z轴超分辨率(MR-ZSR)

我们首先使用回顾性5mm测试数据集对主要用于临床的5mm切片进行MRI z轴×5超分辨率成像至1mm,结果见表1和图2。有关其他合并大小,请参见附录C.1。使用TPDM的MR-ZSR在定量上的结果优于任何其他基于扩散的2D/3D反问题解决方法[6,5,7],并且在体积的任何切片方向上都没有出现伪影。此外,辅助模型的使用不仅提高了辅助方向的切片质量,而且还具有改善整个切片方向细节的效果(见图2的©和(d))。

在这里插入图片描述

在这里插入图片描述

值得注意的是,众所周知,性能最高的一般线性3D逆问题求解器DiffusionMBIR[6]根本不适用于我们定制设计的MR-ZSR正向测量核。这一问题是由总变差损失项引起的,总变差损失项是DiffusionMBIR中保证批方向一致性的关键点损失项。

作为TPDM的正演模型,在合并切片时,将切片之和除以√M (TPDM)而不是使用N (TPDM- mean),可以获得更好的结果。此外,作为对主模型生成施加测量一致性约束的方法,TDPM与DPS (TPDM)的预后优于TDPM合并MCG (TPDM-MCG),这与[5]一致。

重建1mm图像中测量的皮质掩膜与FreeSurfer(附录C.1)在原始1mm图像中估计的掩膜相当,平均差异为0.06±0.11(配对t检验,p=0.28),说明TDPM重建的T1图像可靠地用于临床常规T1图像无法测量的皮质厚度测量(图3)。通过ATROSCAN测量皮质厚度时,重建1mm图像的皮质掩膜大于原始1mm图像的皮质掩膜;平均差异为0.34±0.08(配对t检验;p < 0.001)。尽管如此,对于临床应用来说,这种差异是在相当合理的范围内的。

在这里插入图片描述

尽管在重建的T1图像中,Freesurfer的年龄依赖性皮质厚度下降并不明显,但在ATROSCAN中可以清楚地观察到其总体趋势,如点阵图所示(图4A)。在全球皮层萎缩量表(Global Cortical Atrophy scale, GCA)中也观察到类似的趋势,其中ATROSCAN的皮质厚度相关性优于FreeSurfer(图4B),尽管由于样本小,两种量表之间的差异并不显著(p分别=0.82和0.22)。

在这里插入图片描述

常规脑MR T1图像通常为5mm厚度,以节省扫描时间。本研究的结果表明,TDPM模型可以显著扩大容量测量的合格图像池,这将有助于认知衰退的研究。这一点尤其重要,因为目前常规的5mm采集方案不足以进行此类研究。进一步的研究需要更大的样本量和更多样化的人群来充分证明TDPM图像重建的临床意义。

5.2. 压缩感知MRI (CS-MRI)

我们还通过对回顾性×48加速泊松子采样CSMRI体积进行重建来评估TPDM(图5,表2)。关于其他加速因素,请参见附录C.2。与MRZSR的结果相似,与现有技术2D/3D逆向问题解决方法相比,TPDM显示出最好的结果。图5还显示,TPDM能够准确地重建细节,优于其他所有方法。

在这里插入图片描述

在这里插入图片描述

5.3. 稀疏视图CT (SV-CT)

CT问题仅使用了9卷(约2000张2D图像)作为训练数据集数据来测试TPDM在极小数据条件下的性能。36视图SV-CT的实验结果见图6,表3。尽管使用高度有限的数据集进行训练,但TPDM模型与其他模型相比表现良好。虽然相对于DPS[5]的量化改进并不大,但TPDM的性能明显优于DPS,因为DPS是一个2D逆问题求解器,在应用于3D逆问题时,会在批处理方向引入伪影。在FBPConvNet[19]中,轴向的SSIM改进较小,但由于它也是2D模型,因此在其他切片方向上表现不佳。此外,在使用监督技术训练的卷积网络中常见的模糊结果仍然很明显。

在这里插入图片描述

在这里插入图片描述

5.4. 无条件3D体素体积生成

使用TPDM,我们尝试无条件地生成完整的3D体素体(算法见附录A .3)。我们使用BMR-ZSR-1mm数据集训练TPDM模型,并使用它生成人类头部的MRI体积,其结果如图7所示。值得注意的是,我们能够在不依赖任何测量指导的情况下,以高分辨率和高质量创建完整的三维体素体积。我们认为TPDM生成3D体积的能力不仅仅是由于DPS步骤中测量提供的2D图像顺序指导,还由于两种扩散模型的替代去噪算法。这里提出的经验证据支持我们提出的数据分布假设的合理性。

在这里插入图片描述

6. Conclusion

在这项研究中,我们引入了TPDM,一种通过预训练的两个垂直的二维扩散模型来解决一般的三维反问题并生成体素体积的方法。TPDM以完全无监督的方式工作,不需要对单个逆问题进行任何微调。它在处理三维体积时,不使用任何三维扩散模型,而是将三维分布假设为二维分布的乘积分布,在利用三维体积概率分布的同时,有效地避免了维数灾难。我们的研究结果表明,TPDM在几个医疗3D重建问题上优于现有的最先进的3D逆问题解决方法,即使在数据量非常有限的情况下也是如此。最后,利用TPDM和一种新颖的前向测量模型,我们首次尝试了基于扩散的z方向超分辨率MRI图像,并在技术和临床方面展示了卓越的结果。

Appendix

A. 附加算法

A.1. Training TPDM

在这里插入图片描述

A.2. Sampling with real value K

在这里插入图片描述

A.3. 3D voxel volume generation with TPDM

在这里插入图片描述

B. Dataset

B.1. BMR-ZSR-5mm

在这里插入图片描述

B.2. LDCT-CUBE

在这里插入图片描述

C. 其他结果

C.1. MRI z轴超分辨率(MR-ZSR)

在这里插入图片描述

在这里插入图片描述

C.2. 压缩感知MRI (CS-MRI)

在这里插入图片描述

D. 采样超参数

E. 计算资源

TPDM的训练和采样过程都是在两个NVIDIA GeForce RTX 3090 gpu上执行的。采用文中阐述的设置,MRI和CT模型的训练时间分别约为3天和1天,每个2D模型,无论是主模型还是辅助模型。根据具体问题类型,TPDM采样过程需要大约24至36小时的时间框架。采样时采用6个批处理大小,TPDM消耗的VRAM总计约为48GB。

F. 代码可用性

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1009968.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

只有68g的电竞鼠标,软硬件都能自定义,雷柏VT9Pro上手

最近雷柏的轻量化无线鼠标又出了一款新品VT9PRO&#xff0c;这款鼠标相比于之前的VT9升级不少&#xff0c;不仅机身更轻盈&#xff0c;而且配置更高&#xff0c;采用了原相定制3398光学引擎&#xff08;3395高定版&#xff09;&#xff0c;外加欧姆龙5000万次轻脆微动等专业级配…

Jmeter安装与测试

目录 一&#xff1a;JMeter简介&#xff1a; 二&#xff1a;JMeter安装与配置 三&#xff1a;JMeter主要原件 一&#xff1a;JMeter简介&#xff1a; JMeter&#xff0c;一个100&#xff05;的纯Java桌面应用&#xff0c;由Apache组织的开放源代码项目&#xff0c;它是功能 …

链式法则:概率论描述语言模型

目录 1.事件相互独立 2.链式法则 3.示例 4.语言模型中的链式法则 1.事件相互独立 事件相互独立就是&#xff1a;一个事件的发生与否&#xff0c;不会影响另外一个事件的发生。 当a和b两个事件互相独立时&#xff0c;有&#xff1a; P(a | b) P(a) 推广到3个事件就有下面…

windows2003 IIS6.0解析漏洞

一、漏洞说明 &#xff08;1&#xff09;当建立*.asa、.asp格式的文件夹时&#xff0c;其目录下的任意文件都将被IIS当做asp文件解析。 &#xff08;2&#xff09;当文件.asp&#xff1a;1.jpg IIS6.0同样会将文件当做asp文件解析。 二、搭建环境 Windows server2003安装iis6.0…

内网隧道代理技术(二十五)之 ICMP隧道反弹SHELL

ICMP隧道反弹SHELL ICMP隧道原理 由于ICMP报文自身可以携带数据,而且ICMP报文是由系统内核处理的,不占用任何端口,因此具有很高的隐蔽性。把数据隐藏在ICMP数据包包头的data字段中,建立隐蔽通道,可以实现绕过防火墙和入侵检测系统的阻拦。 ICMP隧道有以下的优点: ICMP…

Mybatis sql参数自动填充

问题描述 在日常开发中&#xff0c;经常会遇到Mybatis sql语句的操作问题&#xff0c;由于Mybatis实现sql的动态拼接&#xff0c;开发过程中&#xff0c;为了验证sql是否书写正确&#xff0c;通常需要获取的控制台打印的sql语句来检查是否拼接正确。如下图所示&#xff1a; 那…

ClientDataSet运行中出现“ClientDataSet:dataset not in edit or insert mode”(二)

接前期《ClientDataSet运行中出现“ClientDataSet&#xff1a;dataset not in edit or insert mode”&#xff08;一&#xff09;》中&#xff0c;提出的解决方案&#xff0c;本人作进一步探索&#xff1a; 一、编写一个返回ClientDataSet的状态函数 function Get_Client_stat…

SpringBoot项目中使用poi-tl打成jar包后常见问题及解决

目录 前言 一、场景描述 1、打成jar包运行后模板找不到 2、文件只能下载一次 二、正确示范 1、Controller下载方法定义 2、文档生成 总结 前言 在前面的博客中&#xff0c;介绍了如何在Java中根据模板动态写入数据到word模板中&#xff0c;原文地址&#xff1a;Java使用…

Solidity 小白教程:15. 异常

Solidity 小白教程&#xff1a;15. 异常 这一讲&#xff0c;我们介绍solidity三种抛出异常的方法&#xff1a;error&#xff0c;require和assert&#xff0c;并比较三种方法的gas消耗。 异常 写智能合约经常会出bug&#xff0c;solidity中的异常命令帮助我们debug。 Error …

企业如何实时监管员工聊天红包转账记录?

1 你还在担心员工飞单吗&#xff1f; 2 你还在担心员工私单吗&#xff1f; 3 你还在担心员工辱骂删除客户吗&#xff1f; 4 你还在担心员工工作量无法统计吗&#xff1f; 5 你还在担心员工离职带走客户资源吗&#xff1f; 。。。。。。 互联网时代&#xff0c;微信应用…

QCustomPlot绘图类详解(大白话)

本文假定你会使用Qt开发&#xff0c;但未接触过QCustomPlot绘图类或者是刚接触。 如何往Qt中引入QCustomPlot 首先&#xff0c;去官网下载最新版本的源码&#xff0c;注意是QCustomPlot.tar.gz这个文件&#xff0c;里面包含源码和示例。实际上&#xff0c;我们只需要qcustompl…

Hadoop-Hive

1. hive安装部署 2. hive基础 3. hive高级查询 4. Hive函数及性能优化 1.hive安装部署 解压tar -xvf ./apache-hive-3.1.2-bin.tar.gz -C /opt/soft/ 改名mv apache-hive-3.1.2-bin/ hive312 配置环境变量&#xff1a;vim /etc/profile #hive export HIVE_HOME/opt/soft/hive…

【深度学习 AIGC】stablediffusion-infinity 在无界限画布中输出绘画 Outpainting

代码&#xff1a;https://github.com/lkwq007/stablediffusion-infinity/tree/master 启动环境&#xff1a; git clone --recurse-submodules https://github.com/lkwq007/stablediffusion-infinity cd stablediffusion-infinity conda env create -f environment.yml conda …

笔记(三)传统图机器学习的特征工程-节点

1、不同种类的任务 2、传统图机器学习的几个层面 &#xff08;人工特征工程机器学习&#xff09; 3、属性特征-节点本身的特征 4、连接特征-节点的结构信息 5、训练-预测 6、好模型需要好数据 -人工构造的特征&#xff08;特征工程&#xff09;-节点、连接、全图-无向图 7、节…

算法训练 第二周

一、赎金信 本题给出了两个字符串ransomNote和magazine&#xff0c;需要让我们判断ransomNote中的字符能不能由magazine中的字符构成&#xff0c;也就是说我们需要将所有ransomNote中的字符找到一个在magazine中与这个字符相同的字符&#xff0c;且每个字符只能使用一次&#x…

openssl websockets

1. HTTPS通信的C实现 - 知乎

【干货】Anaconda导出环境配置文件

【干货 | 项目导出安装环境要求】 方法yml文件req.txt文件 参考 方法 yml文件 激活虚拟环境&#xff08;fyp是我的虚拟环境名称&#xff0c;请根据你自己的名称进行修改&#xff09; conda activate fyp运行此代码 conda env export > environment.ymlreq.txt文件 激活…

runtime过程中,常见jar问题解决

io.netty java.lang.NoSuchMethodError: io.netty.buffer.PooledByteBufAllocator.<init>此类问题报错&#xff0c;主要是io.netty 多个jar 冲突导致。、 使用以下命令查看同一个jar 有哪些版本 mvn dependency:resolve -Dclassifiersources对一些不愿意引入的依赖加上…

VIGC:自问自答,高质量视觉指令微调数据获取新思路

从今年四月份开始&#xff0c;随着MiniGPT-4, LLaVA, InstructBLIP等多模态大模型项目的开源&#xff0c;大模型的火从NLP领域烧到了计算机视觉及多模态领域。 多模态大模型需要高质量的图文对话数据进行指令微调&#xff0c;而当前多模态指令微调数据多基于纯文本GPT-4构建&am…

【Purple Pi OH RK3566鸿蒙开发板】OpenHarmony音频播放应用,真实体验感爆棚!

本文转载于Purple Pi OH开发爱好者&#xff0c;作者ITMING 。 原文链接&#xff1a;https://bbs.elecfans.com/jishu_2376383_1_1.html 01注意事项 DevEco Studio 4.0 Beta2&#xff08;Build Version: 4.0.0.400&#xff09; OpenHarmony SDK API 9 创建工程类型选择Appli…