【半监督医学图像分割 2023 CVPR】PatchCL

news2024/12/30 1:43:53

文章目录

  • 【半监督医学图像分割 2023 CVPR】PatchCL
    • 摘要
    • 1. 简介
    • 2. 相关工作
      • 2.1 半监督学习
      • 2.2 对比学习
    • 3. 方法
      • 3.1 类感知补丁采样
      • 3.2 伪标记引导对比损失
      • 3.3 总体学习目标
      • 3.4 伪标号生成与求精
    • 4. 实验
    • 5. 结果

【半监督医学图像分割 2023 CVPR】PatchCL

论文题目:Pseudo-label Guided Contrastive Learning for Semi-supervised Medical Image Segmentation

中文题目:伪标记引导的对比学习用于半监督医学图像分割

论文链接:CVPR 2023 Open Access Repository (thecvf.com)

论文代码:https://github.com/hritam-98/PatchCL-MedSeg

论文团队:

发表时间:

DOI:

引用:

引用数:

摘要

尽管最近在半监督学习(SemiSL)方面的工作在自然图像分割方面取得了巨大的成功,但从有限的注释中学习鉴别性表征的任务在医学图像中一直是一个公开的问题。对比学习(CL)框架使用相似性测量的概念,这对分类问题是有用的,然而,他们未能将这些高质量的表示转移到准确的像素级分割中。为此,我们提出了一个新颖的基于patch的半监督医学图像分割框架,而不使用任何明确的前提任务。我们利用了对比学习和半监督学习的力量,其中半监督学习产生的伪标签通过提供额外的指导来帮助CL,而在CL中学习的鉴别性类别信息导致了准确的多类分割。

此外,我们制定了一个新的损失,协同鼓励所学表征的类间可分离性和类内紧凑性。一个新的patch间语义差异映射,使用平均patch熵,在拟议的分类法框架中被用来指导阳性和阴性的采样。在三个公开的多模态数据集上的实验分析表明,与最先进的方法相比,我们提出的方法具有优越性。

1. 简介

医学图像的准确分割为临床医生提供了突出的、有洞察力的信息,以便进行适当的诊断、疾病的发展和适当的治疗计划。随着最近神经网络的兴起,有监督的深度学习方法在多种医学图像分割任务中取得了一流的性能[11, 36, 41]。这可以归功于大型注释数据集的可用性。但是,大规模地获得像素注释往往是费时的,需要专业知识,并产生巨大的成本,因此缓解这些要求的方法是非常便利的。

基于半监督学习(SemiSL)的方法是实现这一目标的有希望的方向,需要非常少量的注释,并为很大一部分未标记的数据产生伪标签,这些伪标签被进一步利用来训练分割网络[32, 33]。近年来,这些方法因其在下游任务(如分割、物体检测等)中的优异表现而被广泛认可,不仅在自然场景图像中,在生物医学图像分析中也是如此[3, 4, 64]。传统的SemiSL方法采用回归、像素交叉熵(CE)或平均平方误差(MSE)损失项或其变体。但是,这些损失都没有规定类内紧凑性和类间可分离性,限制了它们的全部学习潜力。最近在医学视觉中采用自我组合策略的SemiSL方法[14,44]由于其在分割任务中的最先进的性能而受到关注。然而,它们是为单一的数据集设计的,不能跨领域通用。

无监督领域适应性(UDA)[18, 61]可以用来解决这个问题,例如,Xie等人[60]提出了一个高效的UDA方法,采用自我训练策略来释放学习潜力。然而,这些方法大多严重依赖丰富的源标签,因此在临床部署中,在有限的标签下产生不合格的性能[71]。表征学习是另一种有希望的从有限的注释中学习的方法,在大型源域中为借口任务训练的模型可以转移到目标域的下游任务中。目前,表征学习的进展被归结为对比学习(CL)的上升[23],其目的是在一个投影嵌入空间的指定锚点上区分相似的样本(正面)和不相似的样本(负面)。这个想法通过从大规模的无标签数据中学习有用的表征,在自我监督范式中取得了实质性的进展[9, 43, 57]。嵌入空间的基本思想是将语义相似的样本拉到一起,并将不相似的样本推开,在EM嵌入空间中。这是通过适当地设计一个目标函数来实现的,该函数也被称为对比性损失函数,它优化了不同数据点之间的相互信息。此后,从借口任务中学到的信息可以被转移到下游任务中,如分类[62]、分割[53, 66]等。


尽管近年来CL框架取得了巨大的成功,但也不是没有问题,其中大致包括:

(a) [15]中报告了采样偏差和加剧的类碰撞,因为语义相似的实例由于无指导地选择负面样本而被强行对比[9],导致性能不达标;

(b) 正如[21]中建议的那样,在CL中,将在源域的现有大规模数据集(例如ImageNet)上为某些借口任务训练的模型适应目标域的特定下游任务,是一种常见和理想的做法。然而,异质数据集的重大领域转移往往会损害整体性能[73],特别是在医学图像中;

© 设计一个合适的借口任务可能具有挑战性,而且往往不能在不同的数据集上通用[37]。这些问题中的第一个可以通过获得标记的样本来解决。例如,[27]显示,包括标签可以显著提高分类性能,但这是在完全监督的情况下。最近有一些尝试来部分解决后两个问题,这些尝试在第2节中强调。


我们的建议和贡献从这些尚未解决的问题中汲取动力,我们旨在通过几个新颖的贡献来利用CL在SEMISL领域的潜力:

  • 我们通过利用CL和SemiSL的力量提出了一种新的端到端分割范式。在我们的案例中,半监督学习中生成的伪标签通过为度量学习策略提供额外的指导来帮助对比学习,而CL中重要的类区分性特征学习则提升了SemiSL的多类分割性能。因此,SemiSL在医学图像分割任务中对CL有帮助,反之亦然。
  • 我们提出了一种新的伪标签引导对比损失(PLGCL),它可以在不对借口任务进行任何显式训练的情况下挖掘类别区分特征,从而证明了在多个领域的推广能力。
  • 我们采用了一个基于补丁的CL框架,其中正负补丁是从一个基于熵的度量中采样的,该度量是由在SEMISL设置中获得的伪标记指导的。 这防止了(类冲突),即CL中语义相似的实例之间的强烈和无指导的对比。
  • 通过对来自不同领域的三个数据集的评价,证明了该方法的有效性,增强了该方法的推广性和鲁棒性。

2. 相关工作

2.1 半监督学习

基于SemiSL的方法从大量未标记的样本中提取有用的表征,同时对少数标记的样本进行监督学习。现有的SemiSL方法采用的策略包括伪标签[35,42]、一致性正则化[4,26]、熵最小化[22, 49]等。基于伪标签的方法采用在已标记的数据上进行模型训练,然后在未标记的数据集上生成伪标签。然后使用不确定性引导的细化[50]、随机传播[16]等方法对生成的伪标签的质量进行微调。由于采购用于语义分割的像素注释成本很高,基于一致性的方法对增强的输入图像[17]或增强的特征嵌入[39]执行一致的预测,而不使用注释。熵的最小化使模型在未标记的数据上输出低熵的预测[20]。整体性的方法也采用这些方法的组合来完成各种任务[6, 46]。

另一种在半监督医学图像分割中广泛使用的方法是Mean Teacher[47],它鼓励学生和教师模型之间的一致预测。 近年来,它被推广到多个SEMISL算法中。 于等人。 [65]提出了一个不确定性引导的均值教师框架(UA-MT),结合转换一致性来提高性能。 王等人。 [52]提出了一个三不确定性引导的均值教师框架,定义了两个辅助任务:在均值教师网络上重建符号距离场和预测符号距离场,以帮助模型学习显著特征以获得更好的预测。 杭等人。 [22]在均值教师网络上采用了全局-局部结构感知熵最小化方法。 自训练方法[60,66]包含了来自未标记数据的预测的额外信息,这些信息可以用来改进模型的性能。 然而,现有的大多数半监督分割方法都没有明确地强调类间可分性问题,从而无意中限制了它们的性能,我们在本文中试图解决这一问题。

2.2 对比学习

近年来,出现了几种强大的(非)相似性学习方法,采用对比性损失来完成各种计算机视觉任务[12, 13, 37, 40]。大多数以前的分类方法都是在自我监督的预训练中使用,以设计一个强大的特征提取器,然后将其转移到下游任务中[9, 54]。对于生成阳性对,这些方法在很大程度上依赖于数据增强,这一点得到了[2, 67]的支持,不过值得注意的是,大量的阴性对对于这些方法的成功至关重要[8]。

Zhao等人[69]设计了一种CL策略来挖掘图像级和斑块级表示之间的关系特征。

最近,Wang等人[55]证明了跨图像对比学习在医学图像分割中的优势。

然而,在这种情况下,CL的一个主要缺点是类碰撞问题[1,72] --由于天真的CL目标的不知情的负选择,语义相似的斑块被强行对比。如[28]所示,这大大损害了多类情况下的分割性能。我们的工作旨在缓解这一问题,提出了一种新的半监督式分割中的一致性正则化的整合。与Boserup等人[7]需要额外的置信度网络不同,我们利用伪标签对正反两方面的查询进行基于熵的抽样,进行对比学习。


最近的一些进展在半监督环境中使用对比学习[21,25,68],其中以分类任务为借口训练的模型可以有效地转移到分割任务中。 然而,它们都没有有效地利用来自SEMISL的伪标签来精化CL,反之亦然。 此外,这些方法的成功依赖于精心设计的借口任务,以及在借口任务域和最终分割域之间最小化的域转移。

本文试图通过在半监督环境中有效地利用对比学习来设计一个端到端的切分框架来解决这些问题。

柴坦尼亚等人。 [10]提出了一种基于局部对比学习的基于伪标签指导的自我训练策略。 然而,尚不清楚他们提出的像素级CL如何在没有仔细选择正负的情况下学习鉴别特征。

此外,他们的方法缺乏任何伪标签精化策略,而伪标签精化策略是生成伪标签质量的基础,与度量学习方案直接相关。 此外,它们的像素级CL框架还存在内存不足的问题,限制了它们对一小部分像素进行子采样,并抑制了模型学习全局信息的能力。 针对这些问题,我们提出了以伪标签为指导的分块对比学习算法,并联合优化SEMISL中的CL损失和一致性损失,在学习特征表示的同时对伪标签进行精化。

3. 方法

给出了一个标记图像集 I L \mathbb{I}_L IL及其对应的标记集 Y L \mathbb{Y}_{L} YL和一个未标记图像集 I U {\mathbb I}_U IU,它们分别包含 N L N_{L} NL N U N_{U} NU个数的图像(其中 N L < < N U \mathcal{N}_L<<\mathcal{N}_U NL<<NU),我们引入了一种基于伪标记的片状对比学习策略,该策略旨在从 I L \mathbb{I}_L IL I U \mathbb{I}_U IU中学习信息。

我们提出的方法可以分为四个步骤:

首先,我们定义了以有效利用(真或伪)标记为指导的贴片生成(第3.1节),

然后我们提出了一个新的对比损失函数(第3.2节)。

之后,我们定义了总体学习目标(3.3小节),

最后在3.4小节中描述了伪标签生成和精化策略。

3.1 类感知补丁采样

让我们用 I i I_i Ii表示一个小批量的第 i t h i^{th} ith幅图像,包含 M M M个像素,其中图像中的第 m t h m^{th} mth个像素用 I i ( m ) I_{i}(m) Ii(m)表示 m ∈ [ 1 , M ] m\in[1,M] m[1,M]

我们提出的框架使用编码器和解码器网络 E S \mathcal{E}_S ES D S \mathcal{D}_S DS,分别以 θ E , S \theta_{\mathcal{E},S} θE,S θ D , S \theta_{\mathcal{D},S} θD,S为参数,从 I i I_i Ii中生成伪标签 Y i ′ Y_i' Yi,它可以等效地表示为类信任度 C i A C_iA CiA,即 [ E S , D S ] : I i → C i [{\mathcal{E}}_{S},{\mathcal{D}}_{S}]:I_{i}\rightarrow C_{i} [ES,DS]:IiCi

这里 C i = { C i k ( m ) } C_{i}=\{C_{i}^{k}(m)\} Ci={Cik(m)} C i k ( m ) C_{i}^{k}(m) Cik(m)表示图像 I I I_I II的像素 M M M属于类 k k k的置信度,其中 k = { 1 , 2 , . . K } , K ( ≥ 1 ) k=\{1,2,..K\},K(\geq1) k={1,2,..K},K(1)表示分割图中的类的数量。此后,这个置信图与 L i L_i Li相乘,得到出席的图像 I i ′ k = I i ⊙ C i k I_{i}^{'k}= I_{i}\odot C_{i}^{k} Iik=IiCik,其中( ⊙ \odot )表示元素相乘。这个被关注的图像会被生成patch,其中第 k k k类的第 i i i个被关注图像的第j个补丁用 P i , j k P_{i,j}^{k} Pi,jk来表示。


给定一个来自类 K K K的anchor patch,所有包含类 K K K的对象(或它的某些部分)的patch都被视为正的,而所有来自其他类( K − 1 K-1 K1)的补丁都被视为负的。

大量patch的适当取样对对比学习至关重要。 我们可以根据它们的类置信度对斑块进行采样,例如,一个patch的平均置信度 P i , j k P_{i,j}^k Pi,jk计算如下:
A v g i , j k = ∑ m ∈ P i , j k C i k ( m ) ∣ P i , j k ∣ . Avg_{i,j}^k=\frac{\sum\limits_{m\in P_{i,j}^k}C_i^k(m)}{|P_{i,j}^k|}. Avgi,jk=Pi,jkmPi,jkCik(m).
高的平均patch置信度表明斑块 P i , j k P_{i,j}^k Pi,jk更有可能包含属于 k k k类的物体(或其一部分),而接近于0的值则表示相反。

介于两者之间的值表示任何一个方向的不确定性。然而, A v g i , j k Av g_{i,j}^{k} Avgi,jk只是基于patch对 k k k类的信心,它忽略了两个重要的项目:(i)patch的强度外观信息和(ii) k k k类与其他( K − 1 K-1 K1)类之间的信心不确定性。

因此,我们建议根据出席的图像 I i ′ k I_{i}^{'k} Iik来计算平均patch熵。对于一个patch P i , j k P_{i,j}^{k} Pi,jk来说,它的平均patch熵是由出席图像 I i ′ k I_{i}^{'k} Iik中的像素强度值计算出来的,表示为:
E n t i , j k = ∑ m ∈ P i , j k F ( I i ′ k ( m ) ) ∣ P i , j k ∣ , w h e r e F ( x ) = − x log ⁡ ( x ) − ( 1 − x ) log ⁡ ( 1 − x ) \begin{gathered} E n t{}_{i,j}^{k}=\frac{ \sum_{m\in P_{i,j}^{k}} \mathcal{F}(I^{'k}_i(m)) }{|P_{i,j}^{k}|},\mathbf{where} \\ \mathcal{F}(x)=-x\log(x)-(1-x)\log(1-x) \end{gathered} Enti,jk=Pi,jkmPi,jkF(Iik(m)),whereF(x)=xlog(x)(1x)log(1x)
是熵函数, I i ′ k ( m ) I_i^{'k}(m) Iik(m)是贴片内第 m t h m^{th} mth个像素的强度值。 E n t i , j k Ent_{i,j}^{k} Enti,jk反映了图像 i i i中贴片 j j j的三种信息:属于 K K K类的置信度、关于其他 ( K − 1 ) (K-1) (K1)类的不确定性和来自II的强度显现(注意, I i ′ k = I i ⊙ C i k I_{i}^{'k}=I_{i}\odot C_{i}^{k} Iik=IiCik)。

因此,对于给定的K类锚点块,所有ENTK I值为N最近的块都被认为是正的,其余的都被认为是负的。 这些贴片通过编码器 E S {\mathcal{E}}_{S} ES和投影头 H S \mathcal{H}_{S} HS来获得特征嵌入,然后在下面的部分中用于对比损失公式。 锚点的嵌入被认为是查询,这与来自其他补丁的所有其他嵌入(被认为是键)进行了对比,这是我们对比学习的基础。 这一整体管道如图1(a)所示。

image-20230610203501077

我们提出的方法的总体工作流程。

(a)我们提出的伪标签引导对比学习策略(详见第3.1和3.2小节);

(b)利用有监督损失 L S u p \mathcal{L}^{Sup} LSup从标记图像 I i ∈ I L I_{i}\in\mathbb{I}_{L} IiIL中学习学生编码器ES和解码器DS;

©计算教师模型(编码器 E T {\mathcal{E}}_{T} ET和解码器 D T {\mathcal{D}}_{T} DT)对弱增广的未标记图像 I i ∈ I U I_{i}\in\mathbb{I}_{U} IiIU的预测与学生模型对强增广的预测之间的正则化损失 L R e g \mathcal{L}^{Reg} LReg。 使用来自学生分支的指数移动平均(EMA)更新 E T {\mathcal{E}}_{T} ET D T {\mathcal{D}}_{T} DT的权重。

3.2 伪标记引导对比损失

我们提出了一种新的伪标签引导的对比性损失(PLGCL),假设无标签集IU有伪标签 Y U ′ \mathbb{Y}_U' YU(伪标签的生成将在3.4小节中解释)和有标签的样本( I L , Y L \mathbb{I}_{L},\mathbb{Y}_{L} IL,YL)。

以前的工作,如JCL[8],只对给定查询的阳性样本分布计算InfoNCE损失[38]的期望值。在我们的案例中,由于存在着以类为单位的信息,我们可以对正负键的类条件的联合分布进行InfoNCE的期望值,这是PLGCL的基础。

k k k类的第 u u u个查询patch表示为 P u P_u Pu,如果 v v v是正的(即它与补丁Pu具有相同的伪/真类),其对应的第 v v v个密钥补丁为 P v k + P_{v}^{k_+} Pvk+

否则,表示为 P v k − P_{v}^{k_-} Pvk(不同于k类的负密钥补丁)。我们把 P u , P v k + , P v k − P_{u},P_{v}^{k_{+}},P_{v}^{k_{-}} Pu,Pvk+,Pvk的嵌入分别表示为 f u , f v k + , f v k − f_{u},f_{v}^{k+},f_{v}^{k-} fu,fvk+,fvk, 这样 { f u , f v k + , f v k − } ← H S ( E S ( { P u , P v k + , P v k − } ) ) \{f_{u},f_{v}^{k_{+}},f_{v}^{k_{-}}\}\leftarrow {\cal H}_{S}({\cal E}_{S}(\{P_{u},P_{v}^{k_{+}},P_{v}^{k_{-}}\})) {fu,fvk+,fvk}HS(ES({Pu,Pvk+,Pvk}))。设 f v k + ∼ p ( ⋅ ∣ k + ) f_{v}^{k_{+}}\sim p(\cdot|k_{+}) fvk+p(k+) f v k − ∼ p ( ⋅ ∣ k − ) f_{v}^{k_{-}}\sim p(\cdot |k_{-}) fvkp(k),InfoNCE损失相对于联合分布J,在所有类条件密度 p ( ⋅ ∣ k + ) p(\cdot|k_{+}) p(k+) p ( ⋅ ∣ k − ) p(\cdot|k_{-}) p(k)上的期望值表示为:
L = − E J log ⁡ exp ⁡ ( f u T ⋅ f v k + / τ ) exp ⁡ ( f u T ⋅ f v k + / τ ) + ∑ ∑ exp ⁡ ( f u T ⋅ f v k − / τ ) L=-\mathbf{E}_{\mathcal{J}}\log\frac{\exp(f_{u}^{T}\cdot f_{v}^{k_{+}}/\tau)}{\exp(f_{u}^{T}\cdot f_{v}^{k_{+}}/\tau)+\sum\sum\exp(f_{u}^{T}\cdot f_{v}^{k_{-}}/\tau)} L=EJlogexp(fuTfvk+/τ)+∑∑exp(fuTfvk/τ)exp(fuTfvk+/τ)
其中τ是温度参数[12]。 方程4的闭式上界可导出如下:
L = E J [ log ⁡ ( exp ⁡ ( f u T ⋅ f v k + / τ ) + ∑ k − ∑ v exp ⁡ ( f u T ⋅ f v k − / τ ) ) ] − E p ⁡ ( ⋅ ∣ k + ) ( f u T ⋅ f v k + / τ ) \begin{aligned} L&=\mathbf{E}_{\mathcal{J}}\bigg[\log\Big(\exp(f_u^T\cdot f_v^{k_+}/\tau) \\ &+\sum_{k_-}\sum_v\exp(f_u^T\cdot f_v^{k_-}/\tau))\bigg]-\mathbf{E}_{\operatorname{p}(\cdot|k_+)}\left(f_u^T\cdot f_v^{k_+}/\tau\right) \\ \end{aligned} L=EJ[log(exp(fuTfvk+/τ)+kvexp(fuTfvk/τ))]Ep(k+)(fuTfvk+/τ)
最后一个方程是利用凹函数上的Jensen不等式得到的,即 E [ log ⁡ ( ⋅ ) ] ≤ log ⁡ [ E ( ⋅ ) ] \mathbf{E}[\log(\cdot)]\quad\leq\quad\log[\mathbf{E}(\cdot)] E[log()]log[E()]。 现在,在所有类条件密度 p ( ⋅ ∣ k + ) p(\cdot|k_{+}) p(k+) p ( ⋅ ∣ k − ) p(\cdot|k_{-}) p(k)上,利用高斯性假设[8],我们将它们参数化为 f v k + ∼ N o r m ( μ f v k + , σ f v k + ) f_{v}^{k_{+}}\sim Norm(\mu_{f_{v}^{k_{+}}},\sigma_{f_{v}^{k_{+}}}) fvk+Norm(μfvk+,σfvk+) f v k − ∼ N o r m ( μ f v k − , σ f v k − ) f_{v}^{k_{-}}\sim Norm(\mu_{f_{v}^{k_{-}}},\sigma_{f_{v}^{k_{-}}}) fvkNorm(μfvk,σfvk)。其中 μ μ μ σ σ σ分别表示均值和协方差矩阵。 利用 E x ( e a T x ) = e a T μ + 1 2 a T σ a \mathbf{E}_{x}(e^{a^{T}x})=e^{a^{T}\mu+\frac{1}{2}a^{T}\sigma a} Ex(eaTx)=eaTμ+21aTσa,当 x ∼ N o r m ( μ , σ ) x\sim Norm(\mu,\sigma) xNorm(μ,σ) E g ( a , b , c , . . ) h ( a ) = E g ( a ) h ( a ) , \mathbf{E}_{g(a,b,c,..)}h(a)=\mathbf{E}_{g(a)}h(a), Eg(a,b,c,..)h(a)=Eg(a)h(a),,则方程4的上界导致我们的贴片式伪标记引导的对比损失:
L u P L G C L = log ⁡ [ exp ⁡ ( f u T μ f v k + / τ + λ 2 τ 2 f u T σ f v k + f u ) + ζ ∑ k − e x p ( f u T μ f v k − / τ + λ 2 τ 2 f u T σ f v k − f u ) ] − f u T μ f v k + / τ \begin{aligned} \mathcal{L}_{u}^{PLGCL}=\log\left[\exp\left(f_{u}^{T}\mu_{f_{v}^{k+}}/\tau+\frac{\lambda}{2\tau^{2}}f_{u}^{T}\sigma_{f_{v}^{k+}}f_{u}\right)\right. \\ \left.+\zeta\sum_{k_{-}}exp\left(f_{u}^{T}\mu_{f_{v}^{k_{-}}}/\tau+\frac{\lambda}{2\tau^{2}}f_{u}^{T}\sigma_{f_{v}^{k_{-}}}f_{u}\right)\right]-f_{u}^{T}\mu_{f_{v}^{k_{+}}}/\tau \end{aligned} LuPLGCL=log[exp(fuTμfvk+/τ+2τ2λfuTσfvk+fu)+ζkexp(fuTμfvk/τ+2τ2λfuTσfvkfu) fuTμfvk+/τ
其中ζ是一个缩放因子,源于 ∑ v \sum_{v} v,即对某一特定类别的所有负嵌入进行求和。如[8]所述,在训练的后期阶段,统计数据的信息量更大,因此λ被用来缩放稳定训练的 σ f k + \sigma_{f^{k}+} σfk+的效果。所提出的损失 L P L G C L \mathcal{L}^{PLGCL} LPLGCL依赖于从 f v k + , f v k − f_{v}^{k_{+}},f_{v}^{k_{-}} fvk+,fvk中对 μ f v k + , σ f v k + , μ f v k − , σ f v k − \mu_{f_{v}^{k+}},\sigma_{f_{v}^{k+}},\mu_{f_{v}^{k-}},\sigma_{f_{v}^{k-}} μfvk+,σfvk+,μfvk,σfvk的合理估计。我们通过基于熵的抽样策略准确估计正数和负数来解决这个问题(3.1小节)。

3.3 总体学习目标

与所提出的CL框架一起,我们的方法可以在半监督环境中从图像中挖掘重要的像素级信息,为此我们使用了StudentTeacher网络[47]。 我们将学生编码器和解码器分别表示为 E S , D S \mathcal{E}_{S},\mathcal{D}_{S} ES,DS,参数化为 θ E , S , θ D , S \theta_{{\cal E},S},\theta_{{\cal D},S} θE,S,θD,S,教师编码器-解码器模型 E T , D T {\mathcal{E}}_{T},{\mathcal{D}}_{T} ET,DT,参数化为 θ E , T , θ D , T \theta_{\mathcal{E},T},\theta_{\mathcal{D},T} θE,T,θD,T。 设学生投影头表示为 H s \mathcal{H}_{s} Hs,参数化为 θ H , S \theta_{\mathcal{H},S} θH,S。 在学生-教师网络中,我们将无标记图像的一致性代价 I i ∈ I U I_{i}\in\mathbb{I}_{U} IiIU定义为学生和教师模型输出之间的交叉熵(CE)损失:
L i R e g = C E [ D S ( E S ( I i s ) ) , D T ( E T ( I i w ) ) ] \mathcal{L}_{i}^{Reg}=CE\Big[\mathcal{D}_{S}\Big(\mathcal{E}_{S}(I_{i}^{s})\Big),\mathcal{D}_{T}\Big(\mathcal{E}_{T}(I_{i}^{w})\Big)\Big] LiReg=CE[DS(ES(Iis)),DT(ET(Iiw))]
其中 I i s I_{i}^{s} Iis I i w I_{i}^{w} Iiw代表输入 I i I_i Ii的强增强和弱增强。此外,我们计算来自学生编码器-解码器网络的标记样本 I i ∈ I L I_{i}\in\mathbb{I}_{L} IiIL的预测和可用的地面真相 Y i ∈ Y L Y_{i}\in\mathbb{Y}_{L} YiYL之间的监督CE损失为:
L i S u p = C E [ D S ( E S ( I i ) ) , Y i ] \mathcal{L}_i^{Sup}=CE\Big[\mathcal{D}_S\Big(\mathcal{E}_S(I_i)\Big),Y_i\Big] LiSup=CE[DS(ES(Ii)),Yi]
最终目标函数可归结为:
L i t o t a l = 1 ∣ B L ∣ ∑ I i ∈ B L L i S u p + β 1 ∣ B U ∣ ∑ I i ∈ B U L i R e g + γ 1 ∣ B ∣ ∑ I i ∈ B L i P L G C L \begin{aligned}\mathcal{L}_i^{total}=\frac{1}{|\mathcal{B}_L|}\sum_{I_i\in\mathcal{B}_L}\mathcal{L}_i^{Sup}+\beta\frac{1}{|\mathcal{B}_U|}\sum_{I_i\in\mathcal{B}_U}\mathcal{L}_i^{Reg}\\+\gamma\frac{1}{|\mathcal{B}|}\sum_{I_i\in\mathcal{B}}\mathcal{L}_i^{PLGCL}\end{aligned} Litotal=BL1IiBLLiSup+βBU1IiBULiReg+γB1IiBLiPLGCL
其中 B \mathcal{B} B为被抽样的小批量; B L \mathcal{B}_{L} BL B U \mathcal{B}_{U} BU分别为小批中的标记和未标记样品, ∣ ⋅ ∣ \left|\cdot\right| 为设定基数。 在训练期间,使用SGD优化器通过最小化方程8更新学生网络参数,而使用指数移动平均(EMA)更新教师网络参数,如下:
θ E , T ( t + 1 ) ← α θ E , T ( t ) + ( 1 − α ) θ E , S ( t + 1 ) θ D , T ( t + 1 ) ← α θ D , T ( t ) + ( 1 − α ) θ E , S ( t + 1 ) \begin{gather} \theta_{\mathcal{E},T}(t+1)\leftarrow\alpha\theta_{\mathcal{E},T}(t)+(1-\alpha)\theta_{\mathcal{E},S}(t+1) \\ \theta_{\mathcal{D},T}(t+1)\leftarrow\alpha\theta_{\mathcal{D},T}(t)+(1-\alpha)\theta_{\mathcal{E},S}(t+1) \end{gather} θE,T(t+1)αθE,T(t)+(1α)θE,S(t+1)θD,T(t+1)αθD,T(t)+(1α)θE,S(t+1)
其中t跟踪步数,α是“平滑系数”[47]或“动量系数”[23]。

3.4 伪标号生成与求精

如图1所示,我们的方法包括三个部分:(a)伪标记引导的对比学习,(b)未标记样本的一致性正则化,©标记样本的监督学习。 对比学习部分需要伪标签作为输入。 为此,我们使用一个小的半监督预热阶段50个历元来生成伪标记,仅使用方程8中的 L R e g \mathcal{L}^{Reg} LReg L S u p \mathcal{L}^{Sup} LSup。 分别在学生模型和教师模型中生成图像 I i ∈ I U I_{i}\in\mathbb{I}_{U} IiIU的弱增广和强增广。 我们使用一致性损失LREG(参见等式6)来加强两个获得的输出之间的一致性。 此外,我们还计算了学生模型Y′i对图像 I i ∈ I L I_{i}\in\mathbb{I}_{L} IiIL的分割输出与可用的地面真值 Y i ∈ Y i . Y_{i}\in\mathbb{Y}_{i}. YiYi.之间的监督CE损失 L S u p \mathcal{L}^{Sup} LSup

预热训练产生初始伪标签,在预热阶段后引入对比损耗LPLGCL,对模型进行训练,并对伪标签进行细化直至收敛。 使用当前网络参数和计算损失的梯度迭代更新学生模型的参数,而使用来自学生模型的EMA更新教师网络参数(等式9和等式10)。 算法1总结了总体工作流程。

4. 实验

5. 结果

在本文中,我们通过有效地利用伪标签,在Semisl环境中提出了一种新的CL策略。 据我们所知,这是首次尝试在半监督环境中使用一致性正则化和伪标记将CL集成到半监督医学图像分割中。 在多个领域的三个医学分割数据集上,所提出的模态不可知模型的性能优于SOTA方法,证明了该模型的有效性和可推广性。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/772036.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

行为型模式 - 模板方法模式

概述 在面向对象程序设计过程中&#xff0c;程序员常常会遇到这种情况&#xff1a;设计一个系统时知道了算法所需的关键步骤&#xff0c;而且确定了这些步骤的执行顺序&#xff0c;但某些步骤的具体实现还未知&#xff0c;或者说某些步骤的实现与具体的环境相关。 例如&#…

JAVA ---- 经典排序算法

目录 一. 插入排序 1. 直接插入排序 代码演示 2.希尔排序( 缩小增量排序 ) 二. 选择排序 1.直接选择排序 代码&#xff1a; 2. 堆排序 代码 三. 交换排序 1. 冒泡排序 代码 2. 快速排序 代码&#xff08;有注释&#xff09;&#xff1a; 动图来自网…

Mysql教程(四):DML学习

Mysql教程&#xff08;四&#xff09;&#xff1a;DML学习 前言 DML-介绍 DML英文全称是Data Manipulation Language数据库操作语言&#xff0c;用来对数据库中表的数据记录进行增删改查。 添加数据&#xff08;INSERT&#xff09;修改数据&#xff08;UPDATE&#xff09;删除…

Java 串口通讯 Demo

为什么写这篇文章 之前职业生涯中遇到的都是通过tcp协议与其他设备进行通讯&#xff0c;而这个是通过串口与其他设备进行通讯&#xff0c;意识到这里是承重板的连接&#xff0c;但实际上比如拉力、压力等模拟信号转换成数字信号的设备应该是有相当一大部分是通过这种方式通讯的…

为你精选5款体验极佳的原型设计工具!

在绘制原型图的过程中&#xff0c;使用一款的简单易操作的原型设计工具是非常重要的&#xff0c;本文精选了5款好用的原型工具与大家分享&#xff0c;一起来看看吧&#xff01; 1、即时设计 即时设计是国内很多设计师都在用的原型设计工具&#xff0c;同时它也是国产的原型设…

JMeter正则表达式提取器和JSON提取器基础用法,小白必会!

最近在利用JMeter做接口自动化测试&#xff0c;正则表达式提取器和JSON提取器用的还挺多&#xff0c;想着分享下&#xff0c;希望对大家的接口自动化测试项目有所启发。 在 JMeter 中&#xff0c;正则表达式和 JSON 提取器都是用于从响应数据中提取所需内容&#xff0c;但它们的…

界面控件Telerik UI for WinForms R2 2023——发布全新的热图控件

Telerik UI for WinForms拥有适用Windows Forms的110多个令人惊叹的UI控件。所有的UI for WinForms控件都具有完整的主题支持&#xff0c;可以轻松地帮助开发人员在桌面和平板电脑应用程序提供一致美观的下一代用户体验。 在本文中&#xff0c;我们将揭秘一下Telerik UI for W…

vue数组对象快速获取最大值和最小值(linq插件各种常用好用方法),提高开发效率

需求&#xff1a;因后端传入的数据过多&#xff0c;前端需要在数组中某一值的的最大值和最小值计算&#xff0c;平常用的最多的不就是遍历之后再比对吗&#xff0c;或者用sort方法等实现&#xff0c;同事交了我一招&#xff0c;一句话就可以获取到数组对象中最大值和最小值&…

【Docker】Docker基本概念

Docker基本概念 1.Docker概述1.1 Docker是什么&#xff1f;1.2 Docker的宗旨1.3 容器的优点1.4 Docker与虚拟机的区别1.5 容器在内核中支持的两种技术1.6 namespace的六大类型 2.Docker核心概念2.1 镜像2.2 容器2.3 仓库 3. 知识点总结3.1 Docker是什么&#xff1f;3.2 容器和虚…

Fortinet Accelerate 2023·中国区巡展收官丨让安全成就未来

7月18日&#xff0c;2023 Fortinet Accelerate Summit在上海成功举办&#xff01;这亦象征着“Fortinet Accelerate2023中国区巡展”圆满收官。Fortinet携手来自多个典型行业的百余位代表客户&#xff0c;以及亚马逊云科技、Telstra - PBS 太平洋电信、Tenable等多家生态合作伙…

RT-Thread 学习-Env开发环境搭建(一)

Env是什么 Env 是 RT-Thread 推出的开发辅助工具&#xff0c;针对基于 RT-Thread 操作系统的项目工程&#xff0c;提供编译构建环境、图形化系统配置及软件包管理功能。 其内置的 menuconfig 提供了简单易用的配置剪裁工具&#xff0c;可对内核、组件和软件包进行自由裁剪&…

PROFIBUS-DP主站转ETHERNET/IP网关ethernet有哪些协议

远创智控YC-DPM-EIP是自主研发的一款PROFIBUS-DP主站功能的通讯网关。该产品主要功能是将各种PROFIBUS-DP从站接入到ETHERNET/IP网络中。 1, 本网关连接到PROFIBUS总线中作为主站使用&#xff0c;连接到ETHERNET/IP总线中作为从站使用。 1.2 产品特点 ◆ PROFIBUS-DP/V0 协议…

AtcoderABC243场

A - Shampoo A - Shampoo ] 题目大意 高桥家有三个人&#xff1a;高桥、他的父亲和他的母亲。每个人每晚都在浴室洗头发。他们按照顺序使用AA、BB和CC毫升的洗发水。 问&#xff0c;今天早上瓶子里有VV毫升的洗发水。在不重新装满的情况下&#xff0c;谁会第一个用完洗发水洗头…

【Maven四】——maven聚合和继承

系列文章目录 Maven之POM介绍 maven命令上传jar包到nexus 【Maven二】——maven仓库 【Maven三】——maven生命周期和插件 聚合和继承 系列文章目录前言一、什么是maven的聚合和继承&why二、聚合三、继承1.可继承的POM元素2.依赖管理3.插件管理 四、聚合与继承的关系五、约…

java电子病历系统源码

电子病历系统采取结构化与自由式录入的新模式&#xff0c;自由书写&#xff0c;轻松录入。化实现病人医疗记录&#xff08;包含有首页、病程记录、检查检验结果、医嘱、手术记录、护理记录等等。&#xff09;的保存、管理、传输和重现&#xff0c;取代手写纸张病历。不仅实现了…

【Docker】Docker安装与操作

docker的安装与命令 一、安装 docker1. 安装依赖包2. 信息查看 二、Docker 镜像操作1. 搜索镜像2. 获取镜像3. 镜像加速下载4. 查看镜像相关信息5. 删除镜像6. 上传镜像7. 存出和载入镜像 三、Docker 容器操作1. 创建容器2. 查看容器3. 启动容器4. 停止容器5. 进入容器6. 容器与…

四、DML-4.小结

一、数据记录操作 1、添加数据 给指定字段添加数据 insert into employee(id, workno, name, gender, age, idcard,entrydate) values (1, 001,Itcast, 男, 18, 123456789012345678, 2023-12-12); INSERT INTO 表名 (字段名1, 字段名2, ...) VALUES (值1, 值2, ...); 给全部…

Linux--使用者管理(job control)

Linux–使用者管理(job control) 文章目录 Linux--使用者管理(job control)前言一、任务管理(job control)二、&三、 将目前的任务丢到后台中暂停 -- ctrlz四、jobs -- 查看目前的后台任务状态五、fg -- 将后台任务拿到前台来处理六、bg -- 让任务在后台下的状态变为运行中…

LeetCode 1493. 删掉一个元素以后全为 1 的最长子数组 - 二分 + 滑动窗口

删掉一个元素以后全为 1 的最长子数组 提示 中等 90 相关企业 给你一个二进制数组 nums &#xff0c;你需要从中删掉一个元素。 请你在删掉元素的结果数组中&#xff0c;返回最长的且只包含 1 的非空子数组的长度。 如果不存在这样的子数组&#xff0c;请返回 0 。 提示 1&a…

2023-07-18力扣今日二题-太难了吧

链接&#xff1a; LCP 75. 传送卷轴 题意&#xff1a; 给一个正方形迷宫&#xff0c;主角是A&#xff0c;每次可以上下左右走一格子&#xff0c;有四种类型的格子&#xff1a;墙、初始位置、魔法水晶、空地 另一个人B&#xff0c;可以传送一次A&#xff0c;只能在空地传送&…