在医学图像分割领域,U-Net模型及其变体的创新应用正在带来显著的性能提升和效率优化。最新研究显示,通过引入结构化状态空间模型(SSM)和轻量级LSTM(xLSTM)等技术,VMAXL-UNet模型在多个医学图像数据集上取得了优异的分割性能。例如,在ISIC17和ISIC18数据集上,VMAXL-UNet的平均交并比(mIoU)和Dice系数均高于其他先进模型;在Kvasir-SEG和ClinicDB数据集上,其优势更为显著,尤其是在目标边界模糊的情况下,VMAXL-UNet能够有效捕捉长距离依赖关系,提升分割性能。
这些创新不仅提高了医学图像分割的准确性,还为实时处理和计算受限的应用环境提供了高效的解决方案。我整理了10篇【Unet+医学图像】的相关论文,全部论文PDF版,工中号 沃的顶会 回复“Unet医学”即可领取。
GASA-UNet:Global Axial Self-Attention U-Net for 3D Medical Image Segmentation
文章解析
论文提出了一种改进的U-Net模型GASA-UNet,通过引入Global Axial Self-Attention (GASA)块,结合Transformer的全局注意力机制与局部特征提取能力,解决了医学图像中器官边界模糊和小结构分割困难的问题。
实验表明,该模型在多个基准数据集上显著提升了分割性能。
创新点
设计了融合全局与局部特征的3D自注意力模块GASA,赋予U-Net最小参数增量下的全局轴向自注意力能力。
提出了基于三个2D卷积核生成补丁的新方法,增强了语义相似特征的空间编码能力。
通过通道拼接和位置嵌入扩展自注意力输出,进一步提升特征区分度。
研究方法
将3D特征空间映射为坐标系,利用正交2D卷积核替代传统3D卷积核生成多视角补丁。
结合自注意力机制、通道拼接和位置嵌入对补丁进行处理,实现全局与局部信息融合。
在BTCV、AMOS和KiTS23等医学图像分割数据集上验证模型性能。
研究结论
GASA-UNet在小解剖结构分割方面表现出显著优势,Dice分数和归一化表面Dice指标均有提升。
新提出的补丁生成方法和自注意力机制有效增强了模型对语义相似特征的区分能力。
与CNN、ViT和Mamba等主流模型相比,GASA-UNet在参数增加较少的情况下实现了更优的分割效果。
STA-Unet:Rethink the semantic redundant for Medical Imaging Segmentation
文章解析
本文提出了一种新的UNet架构(STA-UNet),通过引入Super Token Attention机制,有效减少了浅层Transformer的冗余计算,同时保留了丰富的全局信息。
实验结果表明,该方法在四个公开数据集上的Dice分数和IOU表现优于现有最先进的方法。
创新点
首次将Super Token Attention机制引入UNet架构,解决浅层Transformer的冗余问题。
提出STA模块以优化视觉Transformer的浅层特征学习能力,提升模型效率。
通过减少特征冗余,显著提高多器官分割任务的性能。
研究方法
分析了现有Transformer UNet架构中浅层冗余的问题。
设计并集成了Super Token Attention(STA)模块到UNet架构中。
在四个公开医学影像数据集上验证STA-UNet的有效性。
研究结论
STA-UNet在Dice分数和IOU指标上显著优于现有方法。
Super Token Attention机制能够有效减少浅层Transformer的冗余计算,提升模型性能。
研究为未来医学影像分割任务提供了更高效的解决方案。