一、本文介绍
本文记录的是利用Contextual Transformer (CoT) 模块优化YOLOv11的目标检测网络模型。 CoT将静态上下文和自注意力学习动态上下文统一在一个架构中,有效地提升了在 2D 特征图上进行视觉表示学习时自注意力学习的能力,本文将深入研究CoT的原理,并将其应用到YOLOv11中,进而更有效的增强模型对视觉信息的学习和表示能力。
专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!
文章目录
- 一、本文介绍
- 二、ParNet 介绍
-
- 2.1 出发点
- 2.2 原理
- 2.3 结构
- 三、CoT的实现代码
- 四、创新模块
-
- 4.1 改进点⭐
- 五、添加步骤
-
- 5.1 修改一
- 5.2 修改二
- 5.3 修改三
- 六、yaml模型文件
-



















