跨视角差异-依赖网络用于体积医学图像分割|文献速递-生成式模型与transformer在医学影像中的应用

news2024/11/24 12:52:44

Title

题目

Cross-view discrepancy-dependency network for volumetric medical imagesegmentation

跨视角差异-依赖网络用于体积医学图像分割

01

文献速递介绍

医学图像分割旨在从原始图像中分离出受试者的解剖结构(例如器官和肿瘤),并为每个像素分配语义类别,这在许多临床应用中起着至关重要的作用,如器官建模、疾病诊断和治疗规划(Shamshad 等,2023)。对于三维图像,临床医生需要逐片手动描绘感兴趣区域(VOI),这需要大量的劳动和专业知识(Qureshi 等,2023)。计算机辅助诊断(CAD)系统的目标是帮助临床医生迅速描绘出VOI(Shi 等,2022)。然而,这一任务在稳健性和准确性方面仍然面临挑战。随着CAD系统需求的快速增长,开发稳健且准确的三维医学图像分割算法变得愈加紧迫。

在过去的十年中,深度卷积神经网络(DCNNs)吸引了越来越多的关注,并推动了三维医学图像分割的进展(Xu 等,2023;Liu 等,2023)。通常,构建稳健的DCNNs需要大量的数据。但在许多实际场景中,这些模型往往面临数据稀缺的问题,主要是由于某些疾病的发病率低或获取大规模三维医学图像数据集的成本高昂(Huang 等,2023;Jiao 等,2023)。为了缓解这一问题,许多方法尝试通过基于图像块的策略处理三维图像(Çiçek 等,2016;Milletari 等,2016;Isensee 等,2021)。尽管这种策略可以捕捉局部空间信息,但由于输入的感受野有限,提取长期上下文信息变得困难。作为替代,一些研究提出通过使用从三维图像中提取的多个连续切片来训练网络(Alom 等,2018;McHugh 等,2021)。这些方法将切片图像视为独立样本,并且仅使用单视角切片图像(即轴向平面),但这不可避免地忽略了来自其他两个视角(即冠状平面和矢状平面)的空间信息以及切片之间的连续性(Dong 等,2022)。因此,更为理想的方式是基于多视角切片图像开发分割模型,通过同时考虑多个正交平面来保留全面的空间信息。

Aastract

摘要

The limited data poses a crucial challenge for deep learning-based volumetric medical image segmentation, andmany methods have tried to represent the volume by its subvolumes (i.e., multi-view slices) for alleviating thisissue. However, such methods generally sacrifice inter-slice spatial continuity. Currently, a promising avenueinvolves incorporating multi-view information into the network to enhance volume representation learning, butmost existing studies tend to overlook the discrepancy and dependency across different views, ultimately limiting the potential of multi-view representations. To this end, we propose a cross-view discrepancy-dependencynetwork (CvDd-Net) to task with volumetric medical image segmentation, which exploits multi-view slice priorto assist volume representation learning and explore view discrepancy and view dependency for performanceimprovement. Specifically, we develop a discrepancy-aware morphology reinforcement (DaMR) module toeffectively learn view-specific representation by mining morphological information (i.e., boundary and positionof object). Besides, we design a dependency-aware information aggregation (DaIA) module to adequatelyharness the multi-view slice prior, enhancing individual view representations of the volume and integratingthem based on cross-view dependency. Extensive experiments on four medical image datasets (i.e., Thyroid,Cervix, Pancreas, andGlioma) demonstrate the efficacy of the proposed method on both fully-supervised and semi-supervised tasks.

有限数据对基于深度学习的体积医学图像分割构成了一个重要挑战,许多方法尝试通过其子体积(即多视图切片)来表示体积,以缓解这一问题。然而,这些方法通常牺牲了切片间的空间连续性。目前,一个有前景的方向是将多视图信息引入网络,以增强体积表示学习,但大多数现有研究往往忽视了不同视图之间的差异性和依赖性,最终限制了多视图表示的潜力。为此,我们提出了一个跨视图差异-依赖网络(CvDd-Net),用于体积医学图像分割,它利用多视图切片先验来辅助体积表示学习,并探索视图差异和视图依赖性,以提高性能。具体来说,我们开发了一个差异感知形态强化(DaMR)模块,通过挖掘形态学信息(即边界和物体的位置)来有效地学习视图特定的表示。此外,我们设计了一个依赖感知信息聚合(DaIA)模块,充分利用多视图切片先验,增强体积的个体视图表示,并基于跨视图依赖性进行整合。在四个医学图像数据集(即甲状腺、宫颈、胰腺和胶质瘤)上的广泛实验展示了所提方法在全监督和半监督任务中的有效性。

Conclusion

结论

In this work, we propose a cross-view discrepancy-dependency network (CvDd-Net) to task with volumetric medical image segmentation,which utilizes multi-view slice prior to assist volume representationlearning and explore view discrepancy and view dependency for performance improvement. Specifically, we introduce a discrepancy-awaremorphology reinforcement (DaMR) module to exploit view discrepancyby modeling morphology information (i.e., boundary and position ofobject) for learning view-specific representation. Besides, we develop adependency-aware information aggregation (DaIA) module to exploreview dependency for aggregating multi-view information after integrating prior knowledge from slices. Extensive experiments on fourdatasets demonstrate the effectiveness of our proposed method withrelatively small size of model, especially on the small target, indicatingthe effectiveness of multi-view slice prior on assisting volume representation learning. Meanwhile, our CvDd-Net reveals higher performancewhen compared with semi-supervised methods, which also testifies thepotential of multi-view learning in the application of limited data.

在本研究中,我们提出了一种用于体积医学图像分割的跨视角差异依赖网络(CvDd-Net),该方法利用多视角切片作为先验知识来辅助体积表示学习,并通过探索视角差异和视角依赖关系来提高性能。具体而言,我们引入了一种差异感知形态强化(DaMR)模块,通过建模形态信息(即物体的边界和位置)来挖掘视角差异,从而学习视角特定的表示。此外,我们开发了一种依赖感知信息聚合(DaIA)模块,在整合切片先验知识后,通过聚合多视角信息来探索视角依赖关系。针对四个数据集的广泛实验表明,我们提出的方法在相对较小的模型规模下取得了良好的效果,特别是在小目标的分割任务中,表明多视角切片先验在辅助体积表示学习中的有效性。同时,我们的CvDd-Net在与半监督方法的比较中表现出更高的性能,这也证明了多视角学习在有限数据应用中的潜力。CRediT authorship contribution stat

Figure

图片

Fig. 1. The flowchart of CvDd-Net. It consists of an encoder and a decoder (color in blue) for feature extraction and prediction map generation. Besides, it also comprises: (a) aslice-based encoder (color in green) for multi-view slice representation learning, (b) a discrepancy-aware morphology reinforcement (DaMR) module for view-specific representationlearning, and (c) a dependency-aware information aggregation (DaIA) module for multi-view representation fusion.

图1. CvDd-Net的流程图。它由一个编码器和一个解码器(蓝色部分)组成,用于特征提取和预测图生成。此外,它还包括:(a)一个基于切片的编码器(绿色部分),用于多视角切片表示学习,(b)一个差异感知形态学增强(DaMR)模块,用于视角特定表示学习,以及(c)一个依赖感知信息聚合(DaIA)模块,用于多视角表示融合。

图片

Fig. 2. Illustration of discrepancy-aware morphology reinforcement module. RCM:residual context mapping; CA: coordinate attention.

图2. 差异感知形态学增强模块的示意图。RCM:残差上下文映射;CA:坐标注意力。

图片

Fig. 3. Illustration of dependency-aware information aggregation module. CdDR:cross-dimension dependency-aware relation; CvDR: cross-view dependency-awarerelation

图3. 依赖感知信息聚合模块的示意图。CdDR:跨维度依赖感知关系;CvDR:跨视角依赖感知关系。

图片

Fig. 4. Visualization results of all competing methods on some representative cases from Thyroid (top) and Cervix (bottom) datasets. The blue and orange lines in the first andthird rows represent the boundary of prediction map and ground-truth. The final column named as GT denotes the original image and its ground-truth

图4 各竞争方法在甲状腺(上)和子宫颈(下)数据集的代表性病例上的可视化结果。第一行和第三行中的蓝色和橙色线分别表示预测图和真实标注的边界。最后一列标为GT,表示原始图像及其真实标注。

图片

Fig. 5. Visualization results of all competing methods on some representative cases from Pancreas (top) and Glioma (bottom) datasets. The blue and orange lines in the first and third rows represent the boundary of prediction map and ground-truth. The final column named as GT denotes the original image and its ground-truth.

图5 各竞争方法在胰腺(上)和胶质瘤(下)数据集的代表性病例上的可视化结果。第一行和第三行中的蓝色和橙色线分别表示预测图和真实标注的边界。最后一列标为GT,表示原始图像及其真实标注。

图片

Fig. 6. Qualitative comparison of all semi-supervised methods on some representative cases from Thyroid, Cervix, Pancreas, and Glioma (from top to bottom) datasets. Thesegmentation results are from the models trained with 50% data. The blue and orange lines represent the boundary of predication and ground-truth. The final column named asGT denotes the original image and its ground-truth

图6 所有半监督方法在一些代表性病例上的定性比较,来自甲状腺、宫颈、胰腺和胶质瘤(从上到下)数据集。分割结果来自使用50%数据训练的模型。蓝色和橙色线条表示预测结果和真实标签的边界。最后一列名为GT,表示原始图像及其真实标签。

图片

Fig. 7. Visualization of t-SNE from four datasets for validating the representation learning intuition of CvDd-Net

图7 四个数据集的t-SNE可视化,用于验证CvDd-Net的表示学习直觉。

图片

Fig. 8. Visualization of feature maps from intermediate layer of CvDd-Net. From leftto right are (a) original image with GT, feature maps (b) after encoder (before RCM),(c) after RCM (before CA), (d) after CA (before CdDR), (e) after CdDR (before CvDR),and (f) after CvDR (before decoder), respectively

图8 CvDd-Net中间层特征图的可视化。从左到右分别是:(a) 带有GT的原始图像,(b) 编码器后的特征图(RCM之前),(c) RCM后的特征图(CA之前),(d) CA后的特征图(CdDR之前),(e) CdDR后的特征图(CvDR之前),(f) CvDR后的特征图(解码器之前)。

图片

Fig. 9. Qualitative results of adaptive weights (w1 and w2 in CdDR, and w3 , w4 , and w5 in CvDR) on different datasets

图9 自适应权重(CdDR中的w1和w2,CvDR中的w3、w4和w5)在不同数据集上的定性结果。

图片

Fig. 10. Visualization of feature maps from intermediate layer of CvDd-Net that trainedwith 25% data. From left to right are (a) Image with GT, Representations from (b) axialview, (c) sagittal view, and (d) coronal view, respectively. Specifically, features shownthree columns from different views (from left to right) are: (1) slice representation, (2)feature map after CA (before CdDR), and (3) feature map after CdDR (before CvDR),respectively

图10 CvDd-Net使用25%数据训练后的中间层特征图可视化。从左到右分别为:(a) 带有GT的图像,表示来自 (b) 轴向视图,(c) 矢状视图和 (d) 冠状视图的特征。具体来说,三列不同视图的特征展示如下:(1)切片表示,(2)CA后的特征图(在CdDR之前),(3)CdDR后的特征图(在CvDR之前)。

图片

Fig. 11. Complexity analysis of different models on four datasets. The horizontal and vertical axis represent the number of model’s parameters and Dice similarity coefficient, andthe size of circle represents the FLOPs of model.

Fig. 11. 不同模型在四个数据集上的复杂度分析。横轴和纵轴分别表示模型的参数数量和Dice相似系数,圆圈的大小表示模型的FLOPs(浮点运算量)。

Table

图片

Table 1The list of symbols and their corresponding descriptions.

表1符号及其对应的描述列表。

图片

Table 2Segmentation performance of all competing methods on four datasets.

表2四个数据集上所有竞争方法的分割性能。

图片

Table 3Comparison between our method and others.

表3我们方法与其他方法的比较。

图片

Table 4Segmentation performance of CvDd-Net with different settings, including RCM, CA,CdDR, and CvDR. BB denotes backbone.

表4CvDd-Net在不同设置下的分割性能,包括RCM、CA、CdDR和CvDR。BB表示骨干网络。

图片

Table 5Segmentation performance of CvDd-Net with different multi-view slice representationon two datasets. ‘A’, ‘C’, and ‘S’ denote axial, coronal, and sagittal views, respectively.

表5CvDd-Net在两个数据集上使用不同的多视图切片表示的分割性能。‘A’,‘C’和‘S’分别表示轴向、冠状面和矢状面视图。

图片

Table 6Segmentation performance of CvDd-Net with different cross-view dependency relationon two datasets. ‘C→S’ and ‘S→C’ represent the two cross-view relations to computeview dependency weights.

表6CvDd-Net在两种数据集上使用不同跨视图依赖关系的分割性能。‘C→S’和‘S→C’表示计算视图依赖权重的两种跨视图关系。

图片

Table 7Segmentation performance of CvDd-Net with different backbones on two datasets.

表7不同后端架构的CvDd-Net在两个数据集上的分割性能。

图片

Table 8Segmentation performance of all semi-supervised methods on four datasets.

表8所有半监督方法在四个数据集上的分割性能。

图片

Table 9Segmentation performance of CvDd-Net with different adaptive weights (w1 and w2 inCdDR, and w3 , w4 , and w5 in CvDR) on two datasets.

表9CvDd-Net在两种数据集上使用不同自适应权重(CdDR中的w1和w2,以及CvDR中的w3、w4和w5)的分割性能。

图片

Table 10Segmentation performance of representative fully-supervised and semi-supervisedmethods on external Cervix dataset.

表10代表性全监督和半监督方法在外部宫颈数据集上的分割性能。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2246666.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

基本功能实现

目录 1、环境搭建 2、按键控制灯&电机 LED 电机 垂直按键(机械按键) 3、串口调试功能 4、定时器延时和定时器中断 5、振动强弱调节 6、万年历 7、五方向按键 1、原理及分析 2、程序设计 1、环境搭建 需求: 搭建一个STM32F411CEU6工程 分析: C / C 宏定义栏…

C++11新特性探索:Lambda表达式与函数包装器的实用指南

文章目录 前言🍉一、Lambda表达式(匿名函数)🍓1.1 Lambda 表达式的基本语法🍓1.2 示例:基本 Lambda 表达式🍓1.3 捕获列表(Capture)🍓1.4 使用 Lambda 表达式…

msvcp110.dll丢失修复的多种科学方法分析,详细解析msvcp110.dll文件

遇到“msvcp110.dll丢失”的错误时,这表明你的系统缺少一个关键文件,但解决这一问题比较直接。本文将指导你通过几个简单的步骤迅速修复此错误,确保你的程序或游戏可以顺利运行。接下来的操作将非常简洁明了,易于理解和执行。 一.…

HDR视频技术之四:HDR 主要标准

HDR 是 UHD 技术中最重要维度之一,带来新的视觉呈现体验。 HDR 技术涉及到采集、加工、传输、呈现等视频流程上的多个环节,需要定义出互联互通的产业标准,以支持规模化应用和部署。本文整理当前 HDR 应用中的一些代表性的国际标准。 1 HDR 发…

Bug Fix 20241122:缺少lib文件错误

今天有朋友提醒才突然发现 gitee 上传的代码存在两个很严重,同时也很低级的错误。 因为gitee的默认设置不允许二进制文件的提交, 所以PH47框架下的库文件(各逻辑层的库文件),以及Stm32Cube驱动的库文件都没上传到Gi…

c++源码阅读__smart_ptr__正文阅读

文章目录 简介源码解析1. 引用计数的实现方式2. deleter静态方法的赋值时间节点3.make_smart的实现方式 与 好处4. 几种构造函数4.1 空构造函数4.2 接收指针的构造函数4.3 接收指针和删除方法的构造函数 , 以及auto进行模板lambda的编写4.4 拷贝构造函数4.5 赋值运算符 5. rele…

【BUG】ES使用过程中问题解决汇总

安装elasticsearch内存不足问题 问题回顾 运行kibana服务的时候,无法本地访问 解决 首先排查端口问题,然后检查错误日志 无法运行kibana服务,是因为elasticsearch没有启动的原因 发现致命错误,确定是elasticsearch服务没有运行导…

C语言--分支循环编程题目

第一道题目&#xff1a; #include <stdio.h>int main() {//分析&#xff1a;//1.连续读取int a 0;int b 0;int c 0;while (scanf("%d %d %d\n", &a, &b, &c) ! EOF){//2.对三角形的判断//a b c 等边三角形 其中两个相等 等腰三角形 其余情…

Linux——用户级缓存区及模拟实现fopen、fweite、fclose

linux基础io重定向-CSDN博客 文章目录 目录 文章目录 什么是缓冲区 为什么要有缓冲区 二、编写自己的fopen、fwrite、fclose 1.引入函数 2、引入FILE 3.模拟封装 1、fopen 2、fwrite 3、fclose 4、fflush 总结 前言 用快递站讲述缓冲区 收件区&#xff08;类比输…

git(Linux)

1.git 三板斧 基本准备工作&#xff1a; 把远端仓库拉拉取到本地了 .git --> 本地仓库 git在提交的时候&#xff0c;只会提交变化的部分 就可以在当前目录下新增代码了 test.c 并没有被仓库管理起来 怎么添加&#xff1f; 1.1 git add test.c 也不算完全添加到仓库里面&…

GESP2023年9月认证C++四级( 第三部分编程题(1-2))

编程题1&#xff08;string&#xff09;参考程序&#xff1a; #include <iostream> using namespace std; long long hex10(string num,int b) {//int i;long long res0;for(i0;i<num.size();i) if(num[i]>0&&num[i]<9)resres*bnum[i]-0;else //如果nu…

Ultiverse 和web3新玩法?AI和GameFi的结合是怎样

Gamef 和 AI 是我们这个周期十分看好两大赛道之一&#xff0c;(Gamef 拥有极强的破圈效应&#xff0c;引领 Web2 用户进军 Web3 最佳利器。AI是这个周期最热门赛道&#xff0c;无论 Web2的 OpenAl&#xff0c;还是 Web3&#xff0c;都成为话题热议焦点。那么结合 GamefiA1双叙事…

如何在 UniApp 中实现 iOS 版本更新检测

随着移动应用的不断发展&#xff0c;保持应用程序的更新是必不可少的&#xff0c;这样用户才能获得更好的体验。本文将帮助你在 UniApp 中实现 iOS 版的版本更新检测和提示&#xff0c;适合刚入行的小白。我们将分步骤进行说明&#xff0c;每一步所需的代码及其解释都会一一列出…

解决 npm xxx was blocked, reason: xx bad guy, steal env and delete files

问题复现 今天一位朋友说&#xff0c;vue2的老项目安装不老依赖&#xff0c;报错内容如下&#xff1a; npm install 451 Unavailable For Legal Reasons - GET https://registry.npmmirror.com/vab-count - [UNAVAILABLE_FOR_LEGAL_REASONS] vab-count was blocked, reas…

【AI系统】GPU 架构回顾(从2018年-2024年)

Turing 架构 2018 年 Turing 图灵架构发布&#xff0c;采用 TSMC 12 nm 工艺&#xff0c;总共 18.6 亿个晶体管。在 PC 游戏、专业图形应用程序和深度学习推理方面&#xff0c;效率和性能都取得了重大进步。相比上一代 Volta 架构主要更新了 Tensor Core&#xff08;专门为执行…

每天五分钟机器学习:支持向量机数学基础之超平面分离定理

本文重点 超平面分离定理(Separating Hyperplane Theorem)是数学和机器学习领域中的一个重要概念,特别是在凸集理论和最优化理论中有着广泛的应用。该定理表明,在特定的条件下,两个不相交的凸集总可以用一个超平面进行分离。 定义与表述 超平面分离定理(Separating Hy…

docker镜像源配置、换源、dockerhub国内镜像最新可用加速源(仓库)

一、临时拉取方式 在docker pull后先拼接镜像源域名&#xff0c;后面拼接拉取的镜像名 $ docker pull dockerpull.org/continuumio/miniconda3 二、永久配置方式 vim修改/etc/docker/daemon.json&#xff0c;并重启docker服务。 # 创建目录 sudo mkdir -p /etc/docker# 写…

电脑使用——知乎、钉钉组件访问失败解决

最近发现办公电脑知乎、钉钉内置组件访问不了&#xff0c;但同网络下笔记本可以访问&#xff1b;经过检测排除了目标服务异常、防火墙拦截的原因&#xff1b;最后发现是DNS的原因&#xff0c;调整DNS首先项1.1.1.1为114.114.114.114后解决&#xff0c;现插眼记录 首先排除拦截&…

Consumer Group

不&#xff0c;kafka-consumer-groups.sh 脚本本身并不用于创建 Consumer Group。它主要用于管理和查看 Consumer Group 的状态和详情&#xff0c;比如列出所有的 Consumer Group、查看特定 Consumer Group 的详情、删除 Consumer Group 等。 Consumer Group 是由 Kafka 消费者…

pandas与open读取csv/txt文件速度比较

pandas与open读取csv/txt文件速度比较 由于在工作中经常需要读取txt或csv文件&#xff0c;使用pandas与open均可以读取并操作文件内容&#xff0c;但不知道那个速度更快一些&#xff0c;所以写了一个脚本去比较在文件大小不同的情况下读取数据的速度 测试结果: 大小pandas速度…