一、本文介绍
本文记录的是利用Bottleneck Transformers (BoT)
优化YOLOv11
的目标检测网络模型。标准的卷积操作虽然能有效捕获局部信息,但在处理需要全局信息整合的任务时存在局限性,而自注意力机制能够有效地建模长距离依赖,因此考虑将其引入到视觉架构中。本文利用BoT模块
将标准卷积和自注意力相结合,提高模型的全局感知能力。
专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!
文章目录
- 一、本文介绍
- 二、Bottleneck Transformers介绍
-
- 2.1 原理
-
- 2.1.1 架构组成
- 2.2.2 MHSA层
- 2.1 优势
- 三、Bottleneck Transformers的实现代码
- 四、创新模块
-
- 4.1 改进点⭐
- 五、添加步骤
-
- 5.1 修改ultralytics/nn/modules/block.py
- 5.2 修改ultralytics/nn/modules/__init__.py
- 5.3 修改ultralytics/nn/modules/tasks.py
- 六、yaml模型文件
-
- 6.1 模型改进⭐