为了感谢各位对本项目的支持,本项目的赠品是yolov5-PAGCP通道剪枝算法.具体使用教程
-
ultralytics/cfg/models/11/yolo11-RevCol.yaml
使用(ICLR2023)Reversible Column Networks对yolo11主干进行重设计,里面的支持更换不同的C3k2-Block.
-
EMASlideLoss
使用EMA思想与SlideLoss进行相结合.
-
ultralytics/cfg/models/11/yolo11-dyhead-DCNV3.yaml
使用DCNV3替换DyHead中的DCNV2.
-
ultralytics/cfg/models/11/yolo11-C3k2-EMBC.yaml
使用Efficientnet中的MBConv与EffectiveSE改进C3k2.
-
ultralytics/cfg/models/11/yolo11-GhostHGNetV2.yaml
使用Ghost_HGNetV2作为YOLO11的backbone.
-
ultralytics/cfg/models/11/yolo11-RepHGNetV2.yaml
使用Rep_HGNetV2作为YOLO11的backbone.
-
ultralytics/cfg/models/11/yolo11-C3k2-DWR-DRB.yaml
使用UniRepLKNet中的DilatedReparamBlock对DWRSeg中的Dilation-wise Residual(DWR)的模块进行二次创新后改进C3k2.
-
ultralytics/cfg/models/11/yolo11-ASF-P2.yaml
在ultralytics/cfg/models/11/yolo11-ASF.yaml的基础上进行二次创新,引入P2检测层并对网络结构进行优化.
-
ultralytics/cfg/models/11/yolo11-CSP-EDLAN.yaml
使用DualConv打造CSP Efficient Dual Layer Aggregation Networks改进yolo11.
-
ultralytics/cfg/models/11/yolo11-bifpn-SDI.yaml
使用U-NetV2中的 Semantics and Detail Infusion Module对BIFPN进行二次创新.
-
ultralytics/cfg/models/11/yolo11-goldyolo-asf.yaml
利用华为2023最新GOLD-YOLO中的Gatherand-Distribute与ASF-YOLO中的Attentional Scale Sequence Fusion进行二次创新改进yolo11的neck.
-
ultralytics/cfg/models/11/yolo11-dyhead-DCNV4.yaml
使用DCNV4对DyHead进行二次创新.(请关闭AMP进行训练,使用教程请看20240116版本更新说明)
-
ultralytics/cfg/models/11/yolo11-HSPAN.yaml
对MFDS-DETR中的HS-FPN进行二次创新后得到HSPAN改进yolo11的neck.
-
ultralytics/cfg/models/11/yolo11-GDFPN.yaml
使用DAMO-YOLO中的RepGFPN与ICCV2023 DySample进行二次创新改进Neck.
-
ultralytics/cfg/models/11/yolo11-HSPAN-DySample.yaml
对MFDS-DETR中的HS-FPN进行二次创新后得到HSPAN再进行创新,使用ICCV2023 DySample改进其上采样模块.
-
ultralytics/cfg/models/11/yolo11-ASF-DySample.yaml
使用ASF-YOLO中的Attentional Scale Sequence Fusion与ICCV2023 DySample组合得到Dynamic Sample Attentional Scale Sequence Fusion.
-
ultralytics/cfg/models/11/yolo11-C3k2-DCNV2-Dynamic.yaml
利用自研注意力机制MPCA强化DCNV2中的offset和mask.
-
ultralytics/cfg/models/11/yolo11-C3k2-iRMB-Cascaded.yaml
使用EfficientViT CVPR2023中的CascadedGroupAttention对EMO ICCV2023中的iRMB进行二次创新来改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-iRMB-DRB.yaml
使用UniRepLKNet中的DilatedReparamBlock对EMO ICCV2023中的iRMB进行二次创新来改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-iRMB-SWC.yaml
使用shift-wise conv对EMO ICCV2023中的iRMB进行二次创新来改进C3k2.
-
ultralytics/cfg/models/11/yolo11-DBBNCSPELAN.yaml
使用Diverse Branch Block CVPR2021对YOLOV9中的RepNCSPELAN进行二次创新后改进yolo11.
-
ultralytics/cfg/models/11/yolo11-OREPANCSPELAN.yaml
使用Online Convolutional Re-parameterization (CVPR2022)对YOLOV9中的RepNCSPELAN进行二次创新后改进yolo11.
-
ultralytics/cfg/models/11/yolo11-DRBNCSPELAN.yaml
使用UniRepLKNet中的DilatedReparamBlock对YOLOV9中的RepNCSPELAN进行二次创新后改进yolo11.
-
ultralytics/cfg/models/11/yolo11-DynamicHGNetV2.yaml
使用CVPR2024 parameternet中的DynamicConv对CVPR2024 RTDETR中的HGBlokc进行二次创新.
-
ultralytics/cfg/models/11/yolo11-C3k2-RVB-EMA.yaml
使用CVPR2024 RepViT中的RepViTBlock和EMA注意力机制改进C3k2.
-
ultralytics/cfg/models/11/yolo11-ELA-HSFPN.yaml
使用Efficient Local Attention改进HSFPN.
-
ultralytics/cfg/models/11/yolo11-CA-HSFPN.yaml
使用Coordinate Attention CVPR2021改进HSFPN.
-
ultralytics/cfg/models/11/yolo11-CAA-HSFPN.yaml
使用CVPR2024 PKINet中的CAA模块HSFPN.
-
ultralytics/cfg/models/11/yolo11-CSMHSA.yaml
对Mutil-Head Self-Attention进行创新得到Cross-Scale Mutil-Head Self-Attention.
- 由于高维通常包含更高级别的语义信息,而低维包含更多细节信息,因此高维信息作为query,而低维信息作为key和Value,将两者结合起来可以利用高维的特征帮助低维的特征进行精细过滤,可以实现更全面和丰富的特征表达。
- 通过使用高维的上采样信息进行Query操作,可以更好地捕捉到目标的全局信息,从而有助于增强模型对目标的识别和定位能力。
-
ultralytics/cfg/models/11/yolo11-CAFMFusion.yaml
利用具有HCANet中的CAFM,其具有获取全局和局部信息的注意力机制进行二次改进content-guided attention fusion.
-
ultralytics/cfg/models/11/yolo11-C3k2-Faster-CGLU.yaml
使用TransNeXt CVPR2024中的Convolutional GLU对CVPR2023中的FasterNet进行二次创新.
-
ultralytics/cfg/models/11/yolo11-C3k2-Star-CAA.yaml
使用StarNet CVPR2024中的StarBlock和CVPR2024 PKINet中的CAA改进C3k2.
-
ultralytics/cfg/models/11/yolo11-bifpn-GLSA.yaml
使用GLSA模块对bifpn进行二次创新.
-
ultralytics/cfg/models/11/yolo11-BIMAFPN.yaml
利用BIFPN的思想对MAF-YOLO的MAFPN进行二次改进得到BIMAFPN.
-
ultralytics/cfg/models/11/yolo11-C3k2-AdditiveBlock-CGLU.yaml
使用CAS-ViT中的AdditiveBlock和TransNeXt CVPR2024中的Convolutional GLU改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-MSMHSA-CGLU.yaml
使用CMTFNet中的M2SA和TransNeXt CVPR2024中的Convolutional GLU改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-IdentityFormer-CGLU.yaml
使用Metaformer TPAMI2024中的IdentityFormer和TransNeXt CVPR2024中的CGLU改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-RandomMixing-CGLU.yaml
使用Metaformer TPAMI2024中的RandomMixing和TransNeXt CVPR2024中的CGLU改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-PoolingFormer-CGLU.yaml
使用Metaformer TPAMI2024中的PoolingFormer和TransNeXt CVPR2024中的CGLU改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-ConvFormer-CGLU.yaml
使用Metaformer TPAMI2024中的ConvFormer和TransNeXt CVPR2024中的CGLU改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-CaFormer-CGLU.yaml
使用Metaformer TPAMI2024中的CaFormer和TransNeXt CVPR2024中的CGLU改进C3k2.
-
ultralytics/cfg/models/11/yolo11-LAWDS.yaml
Light Adaptive-weight downsampling.自研模块,具体讲解请看百度云链接中的视频.
-
ultralytics/cfg/models/11/yolo11-C3k2-EMSC.yaml
Efficient Multi-Scale Conv.自研模块,具体讲解请看百度云链接中的视频.
-
ultralytics/cfg/models/11/yolo11-C3k2-EMSCP.yaml
Efficient Multi-Scale Conv Plus.自研模块,具体讲解请看百度云链接中的视频.
-
Lightweight Shared Convolutional Detection Head
自研轻量化检测头. detect:ultralytics/cfg/models/11/yolo11-LSCD.yaml seg:ultralytics/cfg/models/11/yolo11-seg-LSCD.yaml pose:ultralytics/cfg/models/11/yolo11-pose-LSCD.yaml obb:ultralytics/cfg/models/11/yolo11-obb-LSCD.yaml
- GroupNorm在FOCS论文中已经证实可以提升检测头定位和分类的性能.
- 通过使用共享卷积,可以大幅减少参数数量,这使得模型更轻便,特别是在资源受限的设备上.
- 在使用共享卷积的同时,为了应对每个检测头所检测的目标尺度不一致的问题,使用Scale层对特征进行缩放. 综合以上,我们可以让检测头做到参数量更少、计算量更少的情况下,尽可能减少精度的损失.
-
Task Align Dynamic Detection Head
自研任务对齐动态检测头. detect:ultralytics/cfg/models/11/yolo11-TADDH.yaml seg:ultralytics/cfg/models/11/yolo11-seg-TADDH.yaml pose:ultralytics/cfg/models/11/yolo11-pose-TADDH.yaml obb:ultralytics/cfg/models/11/yolo11-obb-TADDH.yaml
- GroupNorm在FCOS论文中已经证实可以提升检测头定位和分类的性能.
- 通过使用共享卷积,可以大幅减少参数数量,这使得模型更轻便,特别是在资源受限的设备上.并且在使用共享卷积的同时,为了应对每个检测头所检测的目标尺度不一致的问题,使用Scale层对特征进行缩放.
- 参照TOOD的思想,除了标签分配策略上的任务对齐,我们也在检测头上进行定制任务对齐的结构,现有的目标检测器头部通常使用独立的分类和定位分支,这会导致两个任务之间缺乏交互,TADDH通过特征提取器从多个卷积层中学习任务交互特征,得到联合特征,定位分支使用DCNV2和交互特征生成DCNV2的offset和mask,分类分支使用交互特征进行动态特征选择.
-
ultralytics/cfg/models/11/yolo11-FDPN.yaml
自研特征聚焦扩散金字塔网络(Focusing Diffusion Pyramid Network)
- 通过定制的特征聚焦模块与特征扩散机制,能让每个尺度的特征都具有详细的上下文信息,更有利于后续目标的检测与分类。
- 定制的特征聚焦模块可以接受三个尺度的输入,其内部包含一个Inception-Style的模块,其利用一组并行深度卷积来捕获丰富的跨多个尺度的信息。
- 通过扩散机制使具有丰富的上下文信息的特征进行扩散到各个检测尺度.
-
ultralytics/cfg/models/11/yolo11-FDPN-DASI.yaml
使用HCFNet中的Dimension-Aware Selective Integration Module对自研的Focusing Diffusion Pyramid Network再次创新.
-
ultralytics/cfg/models/11/yolo11-RGCSPELAN.yaml
自研RepGhostCSPELAN.
- 参考GhostNet中的思想(主流CNN计算的中间特征映射存在广泛的冗余),采用廉价的操作生成一部分冗余特征图,以此来降低计算量和参数量。
- 舍弃yolov5与yolo11中常用的BottleNeck,为了弥补舍弃残差块所带来的性能损失,在梯度流通分支上使用RepConv,以此来增强特征提取和梯度流通的能力,并且RepConv可以在推理的时候进行融合,一举两得。
- 可以通过缩放因子控制RGCSPELAN的大小,使其可以兼顾小模型和大模型。
-
Lightweight Shared Convolutional Separamter BN Detection Head
基于自研轻量化检测头上,参考NASFPN的设计思路把GN换成BN,并且BN层参数不共享. detect:ultralytics/cfg/models/11/yolo11-LSCSBD.yaml seg:ultralytics/cfg/models/11/yolo11-seg-LSCSBD.yaml pose:ultralytics/cfg/models/11/yolo11-pose-LSCSBD.yaml obb:ultralytics/cfg/models/11/yolo11-obb-LSCSBD.yaml
- 由于不同层级之间特征的统计量仍存在差异,Normalization layer依然是必须的,由于直接在共享参数的检测头中引入BN会导致其滑动平均值产生误差,而引入 GN 又会增加推理时的开销,因此我们参考NASFPN的做法,让检测头共享卷积层,而BN则分别独立计算。
-
ultralytics/cfg/models/11/yolo11-EIEStem.yaml
- 通过SobelConv分支,可以提取图像的边缘信息。由于Sobel滤波器可以检测图像中强度的突然变化,因此可以很好地捕捉图像的边缘特征。这些边缘特征在许多计算机视觉任务中都非常重要,例如图像分割和物体检测。
- EIEStem模块还结合空间信息,除了边缘信息,EIEStem还通过池化分支提取空间信息,保留重要的空间信息。结合边缘信息和空间信息,可以帮助模型更好地理解图像内容。
- 通过3D组卷积高效实现Sobel算子。
-
ultralytics/cfg/models/11/yolo11-C3k2-EIEM.yaml
提出了一种新的EIEStem模块,旨在作为图像识别任务中的高效前端模块。该模块结合了提取边缘信息的SobelConv分支和提取空间信息的卷积分支,能够学习到更加丰富的图像特征表示。
- 边缘信息学习: 卷积神经网络 (CNN)通常擅长学习空间信息,但是对于提取图像中的边缘信息可能稍显不足。EIEStem 模块通过SobelConv分支,显式地提取图像的边缘特征。Sobel滤波器是一种经典的边缘检测滤波器,可以有效地捕捉图像中强度的突然变化,从而获得重要的边缘信息。
- 空间信息保留: 除了边缘信息,图像中的空间信息也同样重要。EIEStem模块通过一个额外的卷积分支 (conv_branch) 来提取空间信息。与SobelCon 分支不同,conv_branch提取的是原始图像的特征,可以保留丰富的空间细节。
- 特征融合: EIEStem模块将来自SobelConv分支和conv_branch提取的特征进行融合 (concatenate)。 这种融合操作使得学习到的特征表示既包含了丰富的边缘信息,又包含了空间信息,能够更加全面地刻画图像内容。
-
ultralytics/cfg/models/11/yolo11-ContextGuideFPN.yaml
Context Guide Fusion Module(CGFM)是一个创新的特征融合模块,旨在改进YOLO11中的特征金字塔网络(FPN)。该模块的设计考虑了多尺度特征融合过程中上下文信息的引导和自适应调整。
- 上下文信息的有效融合:通过SE注意力机制,模块能够在特征融合过程中捕捉并利用重要的上下文信息,从而增强特征表示的有效性,并有效引导模型学习检测目标的信息,从而提高模型的检测精度。
- 特征增强:通过权重化的特征重组操作,模块能够增强重要特征,同时抑制不重要特征,提升特征图的判别能力。
- 简单高效:模块结构相对简单,不会引入过多的计算开销,适合在实时目标检测任务中应用。 这期视频讲解在B站:https://www.bilibili.com/video/BV1Vx4y1n7hZ/
-
ultralytics/cfg/models/11/yolo11-LSDECD.yaml
基于自研轻量化检测头上(LSCD),使用detail-enhanced convolution进一步改进,提高检测头的细节捕获能力,进一步改善检测精度. detect:ultralytics/cfg/models/11/yolo11-LSDECD.yaml segment:ultralytics/cfg/models/11/yolo11-seg-LSDECD.yaml pose:ultralytics/cfg/models/11/yolo11-pose-LSDECD.yaml obb:ultralytics/cfg/models/11/yolo11-obb-LSDECD.yaml
- DEA-Net中设计了一个细节增强卷积(DEConv),具体来说DEConv将先验信息整合到普通卷积层,以增强表征和泛化能力。然后,通过使用重参数化技术,DEConv等效地转换为普通卷积,不需要额外的参数和计算成本。
-
ultralytics/cfg/models/11/yolo11-C3k2-SMPCGLU.yaml
Self-moving Point Convolutional GLU模型改进C3k2. SMP来源于CVPR2023-SMPConv,Convolutional GLU来源于TransNeXt CVPR2024.
- 普通的卷积在面对数据中的多样性和复杂性时,可能无法捕捉到有效的特征,因此我们采用了SMPConv,其具备最新的自适应点移动机制,从而更好地捕捉局部特征,提高特征提取的灵活性和准确性。
- 在SMPConv后添加CGLU,Convolutional GLU 结合了卷积和门控机制,能够选择性地通过信息通道,提高了特征提取的有效性和灵活性。
-
Re-CalibrationFPN
为了加强浅层和深层特征的相互交互能力,推出重校准特征金字塔网络(Re-CalibrationFPN). P2345:ultralytics/cfg/models/11/yolo11-ReCalibrationFPN-P2345.yaml(带有小目标检测头的ReCalibrationFPN) P345:ultralytics/cfg/models/11/yolo11-ReCalibrationFPN-P345.yaml P3456:ultralytics/cfg/models/11/yolo11-ReCalibrationFPN-P3456.yaml(带有大目标检测头的ReCalibrationFPN)
- 浅层语义较少,但细节丰富,有更明显的边界和减少失真。此外,深层蕴藏着丰富的物质语义信息。因此,直接融合低级具有高级特性的特性可能导致冗余和不一致。为了解决这个问题,我们提出了SBA模块,它有选择地聚合边界信息和语义信息来描绘更细粒度的物体轮廓和重新校准物体的位置。
- 相比传统的FPN结构,SBA模块引入了高分辨率和低分辨率特征之间的双向融合机制,使得特征之间的信息传递更加充分,进一步提升了多尺度特征融合的效果。
- SBA模块通过自适应的注意力机制,根据特征图的不同分辨率和内容,自适应地调整特征的权重,从而更好地捕捉目标的多尺度特征。
-
ultralytics/cfg/models/11/yolo11-CSP-PTB.yaml
Cross Stage Partial - Partially Transformer Block 在计算机视觉任务中,Transformer结构因其强大的全局特征提取能力而受到广泛关注。然而,由于Transformer结构的计算复杂度较高,直接将其应用于所有通道会导致显著的计算开销。为了在保证高效特征提取的同时降低计算成本,我们设计了一种混合结构,将输入特征图分为两部分,分别由CNN和Transformer处理,结合了卷积神经网络(CNN)和Transformer机制的模块,旨在增强特征提取的能力。 我们提出了一种名为CSP_PTB(Cross Stage Partial - Partially Transformer Block)的模块,旨在结合CNN和Transformer的优势,通过对输入通道进行部分分配来优化计算效率和特征提取能力。
- 融合局部和全局特征:多项研究表明,CNN的感受野大小较少,导致其只能提取局部特征,但Transformer的MHSA能够提取全局特征,能够同时利用两者的优势。
- 保证高效特征提取的同时降低计算成本:为了能引入Transformer结构来提取全局特征又不想大幅度增加计算复杂度,因此提出Partially Transformer Block,只对部分通道使用TransformerBlock。
- MHSA_CGLU包含Mutil-Head-Self-Attention和ConvolutionalGLU(TransNext CVPR2024),其中Mutil-Head-Self-Attention负责提取全局特征,ConvolutionalGLU用于增强非线性特征表达能力,ConvolutionalGLU相比于传统的FFN,具有更强的性能。
- 可以根据不同的模型大小和具体的运行情况调节用于Transformer的通道数。
-
ultralytics/cfg/models/11/yolo11-SOEP.yaml
小目标在正常的P3、P4、P5检测层上略显吃力,比较传统的做法是加上P2检测层来提升小目标的检测能力,但是同时也会带来一系列的问题,例如加上P2检测层后计算量过大、后处理更加耗时等问题,日益激发需要开发新的针对小目标有效的特征金字塔,我们基于原本的PAFPN上进行改进,提出SmallObjectEnhancePyramid,相对于传统的添加P2检测层,我们使用P2特征层经过SPDConv得到富含小目标信息的特征给到P3进行融合,然后使用CSP思想和基于AAAI2024的OmniKernel进行改进得到CSP-OmniKernel进行特征整合,OmniKernel模块由三个分支组成,即三个分支,即全局分支、大分支和局部分支、以有效地学习从全局到局部的特征表征,最终从而提高小目标的检测性能。(该模块需要在train.py中关闭amp、且在ultralytics/engine/validator.py 115行附近的self.args.half设置为False、跑其余改进记得修改回去!) 出现这个报错的:RuntimeError: cuFFT error: CUFFT_INTERNAL_ERROR,如果你是40系显卡,需要更新torch大于2.0,并且cuda大于12.0.
-
ultralytics/cfg/models/11/yolo11-CGRFPN.yaml
Context-Guided Spatial Feature Reconstruction Feature Pyramid Network.
- 借鉴ECCV2024-CGRSeg中的Rectangular Self-Calibration Module经过精心设计,用于空间特征重建和金字塔上下文提取,它在水平和垂直方向上捕获全局上下文,并获得轴向全局上下文来显式地建模矩形关键区域.
- PyramidContextExtraction Module使用金字塔上下文提取模块(PyramidContextExtraction),有效整合不同层级的特征信息,提升模型的上下文感知能力。
- FuseBlockMulti 和 DynamicInterpolationFusion 这些模块用于多尺度特征的融合,通过动态插值和多特征融合,进一步提高了模型的多尺度特征表示能力和提升模型对复杂背景下目标的识别能力。
-
ultralytics/cfg/models/11/yolo11-FeaturePyramidSharedConv.yaml
- 多尺度特征提取 通过使用不同膨胀率的卷积层,模块能够提取不同尺度的特征。这对捕捉图像中不同大小和不同上下文的信息非常有利。 低膨胀率捕捉局部细节,高膨胀率捕捉全局上下文。
- 参数共享 使用共享的卷积层 self.share_conv,大大减少了需要训练的参数数量。相比于每个膨胀率使用独立的卷积层,共享卷积层能够减少冗余,提升模型效率。 减少了模型的存储和计算开销,提升了计算效率。
- 高效的通道变换 通过1x1卷积层 self.cv1 和 self.cv2,模块能够高效地调整通道数,并进行特征融合。1x1卷积层在减少参数量的同时还能保留重要的特征信息。
- 更细粒度的特征提取 FeaturePyramidSharedConv 使用卷积操作进行特征提取,能够捕捉更加细粒度的特征。相比之下,SPPF 的池化操作可能会丢失一些细节信息。 卷积操作在特征提取时具有更高的灵活性和表达能力,可以更好地捕捉图像中的细节和复杂模式。
-
APT(Adaptive Power Transformation)-TAL.
为了使不同gt预测对的匹配质量和损失权重更具鉴别性,我们通过自定义的PowerTransformer显著增强高质量预测框的权重,抑制低质量预测框的影响,并使模型在学习的过程可以更关注质量高的预测框。
-
ultralytics/cfg/models/11/yolo11-EMBSFPN.yaml
基于BIFPN、MAF-YOLO、CVPR2024 EMCAD提出全新的Efficient Multi-Branch&Scale FPN. Efficient Multi-Branch&Scale FPN拥有<轻量化>、<多尺度特征加权融合>、<多尺度高效卷积模块>、<高效上采样模块>、<全局异构核选择机制>。
- 具有多尺度高效卷积模块和全局异构核选择机制,Trident网络的研究表明,具有较大感受野的网络更适合检测较大的物体,反之,较小尺度的目标则从较小的感受野中受益,因此我们在FPN阶段,对于不同尺度的特征层选择不同的多尺度卷积核以适应并逐步获得多尺度感知场信息。
- 借鉴BIFPN中的多尺度特征加权融合,能把Concat换成Add来减少参数量和计算量的情况下,还能通过不同尺度特征的重要性进行自适用选择加权融合。
- 高效上采样模块来源于CVPR2024-EMCAD中的EUCB,能够在保证一定效果的同时保持高效性。
-
ultralytics/cfg/models/11/yolo11-CSP-PMSFA.yaml
自研模块:CSP-Partial Multi-Scale Feature Aggregation.
- 部分多尺度特征提取:参考CVPR2020-GhostNet、CVPR2024-FasterNet的思想,采用高效的PartialConv,该模块能够从输入中提取多种尺度的特征信息,但它并不是在所有通道上进行这种操作,而是部分(Partial)地进行,从而提高了计算效率。
- 增强的特征融合: 最后的 1x1 卷积层通过将不同尺度的特征融合在一起,同时使用残差连接将输入特征与处理后的特征相加,有效保留了原始信息并引入了新的多尺度信息,从而提高模型的表达能力。
-
ultralytics/cfg/models/11/yolo11-MutilBackbone-DAF.yaml
自研MutilBackbone-DynamicAlignFusion.
- 为了避免在浅层特征图上消耗过多计算资源,设计的MutilBackbone共享一个stem的信息,这个设计有利于避免计算量过大,推理时间过大的问题。
- 为了避免不同Backbone信息融合出现不同来源特征之间的空间差异,我们为此设计了DynamicAlignFusion,其先通过融合来自两个不同模块学习到的特征,然后生成一个名为DynamicAlignWeight去调整各自的特征,最后使用一个可学习的通道权重,其可以根据输入特征动态调整两条路径的权重,从而增强模型对不同特征的适应能力。
-
ultralytics/cfg/models/11/yolo11-C3k2-MutilScaleEdgeInformationEnhance.yaml
自研CSP-MutilScaleEdgeInformationEnhance. MutilScaleEdgeInformationEnhance模块结合了多尺度特征提取、边缘信息增强和卷积操作。它的主要目的是从不同尺度上提取特征,突出边缘信息,并将这些多尺度特征整合到一起,最后通过卷积层输出增强的特征。这个模块在特征提取和边缘增强的基础上有很好的表征能力.
- 多尺度特征提取:通过 nn.AdaptiveAvgPool2d 进行多尺度的池化,提取不同大小的局部信息,有助于捕捉图像的多层次特征。
- 边缘增强:EdgeEnhancer 模块专门用于提取边缘信息,使得网络对边缘的敏感度增强,这对许多视觉任务(如目标检测、语义分割等)有重要作用。
- 特征融合:将不同尺度下提取的特征通过插值操作对齐到同一尺度,然后将它们拼接在一起,最后经过卷积层融合成统一的特征表示,能够提高模型对多尺度特征的感知。
-
ultralytics/cfg/models/11/yolo11-CSP-FreqSpatial.yaml
FreqSpatial 是一个融合时域和频域特征的卷积神经网络(CNN)模块。该模块通过在时域和频域中提取特征,旨在捕捉不同层次的空间和频率信息,以增强模型在处理图像数据时的鲁棒性和表示能力。模块的主要特点是将 Scharr 算子(用于边缘检测)与 时域卷积 和 频域卷积 结合,通过多种视角捕获图像的结构特征。
- 时域特征提取:从原始图像中提取出基于空间结构的特征,主要捕捉图像的细节、边缘信息等。
- 频域特征提取:从频率域中提取出频率相关的模式,捕捉到图像的低频和高频成分,能够帮助模型在全局和局部的尺度上提取信息。
- 特征融合:将时域和频域的特征进行加权相加,得到最终的输出特征图。这种加权融合允许模型同时考虑空间结构信息和频率信息,从而增强模型在多种场景下的表现能力。
-
ultralytics/cfg/models/11/yolo11-C3k2-MutilScaleEdgeInformationSelect.yaml
基于自研CSP-MutilScaleEdgeInformationEnhance再次创新. 我们提出了一个 多尺度边缘信息选择模块(MutilScaleEdgeInformationSelect),其目的是从多尺度边缘信息中高效选择与目标任务高度相关的关键特征。为了实现这一目标,我们引入了一个具有通过聚焦更重要的区域能力的注意力机制ICCV2023 DualDomainSelectionMechanism, DSM。该机制通过聚焦图像中更重要的区域(如复杂边缘和高频信号区域),在多尺度特征中自适应地筛选具有更高任务相关性的特征,从而显著提升了特征选择的精准度和整体模型性能。
-
GlobalEdgeInformationTransfer
实现版本1:ultralytics/cfg/models/11/yolo11-GlobalEdgeInformationTransfer1.yaml 实现版本2:ultralytics/cfg/models/11/yolo11-GlobalEdgeInformationTransfer2.yaml 实现版本3:ultralytics/cfg/models/11/yolo11-GlobalEdgeInformationTransfer3.yaml 总所周知,物体框的定位非常之依赖物体的边缘信息,但是对于常规的目标检测网络来说,没有任何组件能提高网络对物体边缘信息的关注度,我们需要开发一个能让边缘信息融合到各个尺度所提取的特征中,因此我们提出一个名为GlobalEdgeInformationTransfer(GEIT)的模块,其可以帮助我们把浅层特征中提取到的边缘信息传递到整个backbone上,并与不同尺度的特征进行融合。
- 由于原始图像中含有大量背景信息,因此从原始图像上直接提取边缘信息传递到整个backbone上会给网络的学习带来噪声,而且浅层的卷积层会帮助我们过滤不必要的背景信息,因此我们选择在网络的浅层开发一个名为MutilScaleEdgeInfoGenetator的模块,其会利用网络的浅层特征层去生成多个尺度的边缘信息特征图并投放到主干的各个尺度中进行融合。
- 对于下采样方面的选择,我们需要较为谨慎,我们的目标是保留并增强边缘信息,同时进行下采样,选择MaxPool 会更合适。它能够保留局部区域的最强特征,更好地体现边缘信息。因为 AvgPool 更适用于需要平滑或均匀化特征的场景,但在保留细节和边缘信息方面的表现不如 MaxPool。
- 对于融合部分,ConvEdgeFusion巧妙地结合边缘信息和普通卷积特征,提出了一种新的跨通道特征融合方式。首先,使用conv_channel_fusion进行边缘信息与普通卷积特征的跨通道融合,帮助模型更好地整合不同来源的特征。然后采用conv_3x3_feature_extract进一步提取融合后的特征,以增强模型对局部细节的捕捉能力。最后通过conv_1x1调整输出特征维度。
-
ultralytics/cfg/models/11/yolo11-efficientViT.yaml
(CVPR2023)efficientViT替换yolo11主干.
-
ultralytics/cfg/models/11/yolo11-fasternet.yaml
(CVPR2023)fasternet替换yolo11主干.
-
ultralytics/cfg/models/11/yolo11-timm.yaml
使用timm支持的主干网络替换yolo11主干.
-
ultralytics/cfg/models/11/yolo11-convnextv2.yaml
使用convnextv2网络替换yolo11主干.
-
ultralytics/cfg/models/11/yolo11-EfficientFormerV2.yaml
使用EfficientFormerV2网络替换yolo11主干.(需要看常见错误和解决方案的第五点)
-
ultralytics/cfg/models/11/yolo11-vanillanet.yaml
vanillanet替换yolo11主干.
-
ultralytics/cfg/models/11/yolo11-LSKNet.yaml
LSKNet(2023旋转目标检测SOTA的主干)替换yolo11主干.
-
ultralytics/cfg/models/11/yolo11-swintransformer.yaml
SwinTransformer-Tiny替换yolo11主干.
-
ultralytics/cfg/models/11/yolo11-repvit.yaml
RepViT替换yolo11主干.
-
ultralytics/cfg/models/11/yolo11-CSwinTransformer.yaml
使用CSWin-Transformer(CVPR2022)替换yolo11主干.(需要看常见错误和解决方案的第五点)
-
ultralytics/cfg/models/11/yolo11-HGNetV2.yaml
使用HGNetV2作为YOLO11的backbone.
-
ultralytics/cfg/models/11/yolo11-unireplknet.yaml
使用UniRepLKNet替换yolo11主干.
-
ultralytics/cfg/models/11/yolo11-TransNeXt.yaml
使用TransNeXt改进yolo11的backbone.(需要看常见错误和解决方案的第五点)
-
ultralytics/cfg/models/rt-detr/yolo11-rmt.yaml
使用CVPR2024 RMT改进rtdetr的主干.
-
ultralytics/cfg/models/11/yolo11-pkinet.yaml
使用CVPR2024 PKINet改进backbone.(需要安装mmcv和mmengine)
-
ultralytics/cfg/models/11/yolo11-mobilenetv4.yaml
使用MobileNetV4改进yolo11-backbone.
-
ultralytics/cfg/models/11/yolo11-starnet.yaml
使用StarNet CVPR2024改进yolo11-backbone.
-
ultralytics/cfg/models/11/yolo11-inceptionnext.yaml
使用InceptionNeXt CVPR2024替换backbone.
-
ultralytics/cfg/models/11/yolo11-FocalModulation.yaml
使用Focal Modulation替换SPPF.
-
ultralytics/cfg/models/11/yolo11-SPPF-LSKA.yaml
使用LSKA注意力机制改进SPPF,增强多尺度特征提取能力.
-
ultralytics/cfg/models/11/yolo11-AIFI.yaml
使用RT-DETR中的Attention-based Intrascale Feature Interaction(AIFI)改进yolo11.
-
ultralytics/cfg/models/11/yolo11-AIFIRepBN.yaml
使用ICML-2024 SLAB中的RepBN改进AIFI.
-
ultralytics/cfg/models/11/yolo11-bifpn.yaml
添加BIFPN到yolo11中.
其中BIFPN中有三个可选参数:- Fusion
其中BIFPN中的Fusion模块支持五种: weight, adaptive, concat, bifpn(default), SDI
其中weight, adaptive, concat出自paper链接-Figure 3, SDI出自U-NetV2 - node_mode
支持大部分C3k2-XXX结构. - head_channel
BIFPN中的通道数,默认设置为256.
- Fusion
-
ultralytics/cfg/models/11/yolo11-slimneck.yaml
使用VoVGSCSP\VoVGSCSPC和GSConv替换yolo11 neck中的C3k2和Conv.
-
Asymptotic Feature Pyramid Networkreference
a. ultralytics/cfg/models/11/yolo11-AFPN-P345.yaml
b. ultralytics/cfg/models/11/yolo11-AFPN-P345-Custom.yaml
c. ultralytics/cfg/models/11/yolo11-AFPN-P2345.yaml
d. ultralytics/cfg/models/11/yolo11-AFPN-P2345-Custom.yaml
其中Custom中的block支持大部分C3k2-XXX结构. -
ultralytics/cfg/models/11/yolo11-RCSOSA.yaml
使用RCS-YOLO中的RCSOSA替换C3k2.
-
ultralytics/cfg/models/11/yolo11-goldyolo.yaml
利用华为2023最新GOLD-YOLO中的Gatherand-Distribute进行改进特征融合模块
-
ultralytics/cfg/models/11/yolo11-GFPN.yaml
使用DAMO-YOLO中的RepGFPN改进Neck.
-
ultralytics/cfg/models/11/yolo11-EfficientRepBiPAN.yaml
使用YOLOV6中的EfficientRepBiPAN改进Neck.
-
ultralytics/cfg/models/11/yolo11-ASF.yaml
使用ASF-YOLO中的Attentional Scale Sequence Fusion改进yolo11.
-
ultralytics/cfg/models/11/yolo11-SDI.yaml
使用U-NetV2中的 Semantics and Detail Infusion Module对yolo11中的feature fusion部分进行重设计.
-
ultralytics/cfg/models/11/yolo11-HSFPN.yaml
使用MFDS-DETR中的HS-FPN改进yolo11的neck.
-
ultralytics/cfg/models/11/yolo11-CSFCN.yaml
使用Context and Spatial Feature Calibration for Real-Time Semantic Segmentation中的Context and Spatial Feature Calibration模块改进yolo11.
-
ultralytics/cfg/models/11/yolo11-CGAFusion.yaml
使用DEA-Net中的content-guided attention fusion改进yolo11-neck.
-
ultralytics/cfg/models/11/yolo11-SDFM.yaml
使用PSFusion中的superficial detail fusion module改进yolo11-neck.
-
ultralytics/cfg/models/11/yolo11-PSFM.yaml
使用PSFusion中的profound semantic fusion module改进yolo11-neck.
-
ultralytics/cfg/models/11/yolo11-GLSA.yaml
使用GLSA模块改进yolo11的neck.
-
ultralytics/cfg/models/11/yolo11-CTrans.yaml
使用[AAAI2022] UCTransNet中的ChannelTransformer改进yolo11-neck.(需要看常见错误和解决方案的第五点)
-
ultralytics/cfg/models/11/yolo11-p6-CTrans.yaml
使用[AAAI2022] UCTransNet中的ChannelTransformer改进yolo11-neck.(带有p6版本)(需要看常见错误和解决方案的第五点)
-
ultralytics/cfg/models/11/yolo11-MAFPN.yaml
使用MAF-YOLO的MAFPN改进Neck.
-
ultralytics/cfg/models/11/yolo11-dyhead.yaml
添加基于注意力机制的目标检测头到yolo11中.
-
ultralytics/cfg/models/11/yolo11-EfficientHead.yaml
对检测头进行重设计,支持2种轻量化检测头.详细请看ultralytics/nn/extra_modules/head.py中的Detect_Efficient class.
-
ultralytics/cfg/models/11/yolo11-aux.yaml
参考YOLOV7-Aux对YOLO11添加额外辅助训练头,在训练阶段参与训练,在最终推理阶段去掉.
其中辅助训练头的损失权重系数可在ultralytics/utils/loss.py中的class v8DetectionLoss中的__init__函数中的self.aux_loss_ratio设定,默认值参考yolov7为0.25. -
ultralytics/cfg/models/11/yolo11-seg-EfficientHead.yaml(实例分割)
对检测头进行重设计,支持2种轻量化检测头.详细请看ultralytics/nn/extra_modules/head.py中的Detect_Efficient class.
-
ultralytics/cfg/models/11/yolo11-SEAMHead.yaml
使用YOLO-Face V2中的遮挡感知注意力改进Head,使其有效地处理遮挡场景.
-
ultralytics/cfg/models/11/yolo11-MultiSEAMHead.yaml
使用YOLO-Face V2中的遮挡感知注意力改进Head,使其有效地处理遮挡场景.
-
ultralytics/cfg/models/11/yolo11-PGI.yaml
使用YOLOV9的programmable gradient information改进YOLO11.(PGI模块可在训练结束后去掉)
-
Lightweight Asymmetric Detection Head
detect:ultralytics/cfg/models/11/yolo11-LADH.yaml segment:ultralytics/cfg/models/11/yolo11-seg-LADH.yaml pose:ultralytics/cfg/models/11/yolo11-pose-LADH.yaml obb:ultralytics/cfg/models/11/yolo11-obb-LADH.yaml 使用Faster and Lightweight: An Improved YOLOv5 Object Detector for Remote Sensing Images中的Lightweight Asymmetric Detection Head改进yolo11-head.
-
Adaptive Training Sample Selection匹配策略.
在ultralytics/utils/loss.py中的class v8DetectionLoss中自行选择对应的self.assigner即可.
-
soft-nms(IoU,GIoU,DIoU,CIoU,EIoU,SIoU,ShapeIoU)
soft-nms替换nms.(建议:仅在val.py时候使用,具体替换请看20240122版本更新说明)
-
ultralytics/cfg/models/11/yolo11-nmsfree.yaml
仿照yolov10的思想采用双重标签分配和一致匹配度量进行训练,后处理不需要NMS!
-
ultralytics/cfg/models/11/yolo11-ContextGuidedDown.yaml
使用CGNet中的Light-weight Context Guided DownSample进行下采样.
-
ultralytics/cfg/models/11/yolo11-SPDConv.yaml
使用SPDConv进行下采样.
-
ultralytics/cfg/models/11/yolo11-dysample.yaml
使用ICCV2023 DySample改进yolo11-neck中的上采样.
-
ultralytics/cfg/models/11/yolo11-CARAFE.yaml
使用ICCV2019 CARAFE改进yolo11-neck中的上采样.
-
ultralytics/cfg/models/11/yolo11-HWD.yaml
使用Haar wavelet downsampling改进yolo11的下采样.(请关闭AMP情况下使用)
-
ultralytics/cfg/models/11/yolo11-v7DS.yaml
使用YOLOV7 CVPR2023的下采样结构改进YOLO11中的下采样.
-
ultralytics/cfg/models/11/yolo11-ADown.yaml
使用YOLOV9的下采样结构改进YOLO11中的下采样.
-
ultralytics/cfg/models/11/yolo11-SRFD.yaml
使用A Robust Feature Downsampling Module for Remote Sensing Visual Tasks改进yolo11的下采样.
-
ultralytics/cfg/models/11/yolo11-WaveletPool.yaml
使用Wavelet Pooling改进YOLO11的上采样和下采样。
-
ultralytics/cfg/models/11/yolo11-LDConv.yaml
使用LDConv改进下采样.
-
ultralytics/cfg/models/11/yolo11-C3k2-Faster.yaml
使用C3k2-Faster替换C3k2.(使用FasterNet中的FasterBlock替换C3k2中的Bottleneck)
-
ultralytics/cfg/models/11/yolo11-C3k2-ODConv.yaml
使用C3k2-ODConv替换C3k2.(使用ODConv替换C3k2中的Bottleneck中的Conv)
-
ultralytics/cfg/models/11/yolo11-C3k2-ODConv.yaml
使用C3k2-ODConv替换C3k2.(使用ODConv替换C3k2中的Bottleneck中的Conv)
-
ultralytics/cfg/models/11/yolo11-C3k2-Faster-EMA.yaml
使用C3k2-Faster-EMA替换C3k2.(C3k2-Faster-EMA推荐可以放在主干上,Neck和head部分可以选择C3k2-Faster)
-
ultralytics/cfg/models/11/yolo11-C3k2-DBB.yaml
使用C3k2-DBB替换C3k2.(使用DiverseBranchBlock替换C3k2中的Bottleneck中的Conv)
-
ultralytics/cfg/models/11/yolo11-C3k2-CloAtt.yaml
使用C3k2-CloAtt替换C3k2.(使用CloFormer中的具有全局和局部特征的注意力机制添加到C3k2中的Bottleneck中)(需要看常见错误和解决方案的第五点)
-
ultralytics/cfg/models/11/yolo11-C3k2-SCConv.yaml
SCConv(CVPR2020 http://mftp.mmcheng.net/Papers/20cvprSCNet.pdf)与C3k2融合.
-
ultralytics/cfg/models/11/yolo11-C3k2-SCcConv.yaml
ScConv(CVPR2023 https://openaccess.thecvf.com/content/CVPR2023/papers/Li_SCConv_Spatial_and_Channel_Reconstruction_Convolution_for_Feature_Redundancy_CVPR_2023_paper.pdf)与C3k2融合.
(取名为SCcConv的原因是在windows下命名是不区分大小写的) -
ultralytics/cfg/models/11/yolo11-KernelWarehouse.yaml
使用Towards Parameter-Efficient Dynamic Convolution添加到yolo11中.
使用此模块需要注意,在epoch0-20的时候精度会非常低,过了20epoch会正常. -
ultralytics/cfg/models/11/yolo11-C3k2-DySnakeConv.yaml
DySnakeConv与C3k2融合.
-
ultralytics/cfg/models/11/yolo11-C3k2-DCNV2.yaml
使用C3k2-DCNV2替换C3k2.(DCNV2为可变形卷积V2)
-
ultralytics/cfg/models/11/yolo11-C3k2-DCNV3.yaml
使用C3k2-DCNV3替换C3k2.(DCNV3为可变形卷积V3(CVPR2023,众多排行榜的SOTA))
官方中包含了一些指定版本的DCNV3 whl包,下载后直接pip install xxx即可.具体和安装DCNV3可看百度云链接中的视频. -
ultralytics/cfg/models/11/yolo11-C3k2-OREPA.yaml
使用C3k2-OREPA替换C3k2.Online Convolutional Re-parameterization (CVPR2022)
-
ultralytics/cfg/models/11/yolo11-C3k2-REPVGGOREPA.yaml
使用C3k2-REPVGGOREPA替换C3k2.Online Convolutional Re-parameterization (CVPR2022)
-
ultralytics/cfg/models/11/yolo11-C3k2-DCNV4.yaml
使用DCNV4改进C3k2.(请关闭AMP进行训练,使用教程请看20240116版本更新说明)
-
ultralytics/cfg/models/11/yolo11-C3k2-ContextGuided.yaml
使用CGNet中的Light-weight Context Guided改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-MSBlock.yaml
使用YOLO-MS中的MSBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-DLKA.yaml
使用deformableLKA改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-DAttention.yaml
使用Vision Transformer with Deformable Attention(CVPR2022)改进C3k2.(需要看常见错误和解决方案的第五点)
使用注意点请看百度云视频.(DAttention(Vision Transformer with Deformable Attention CVPR2022)使用注意说明.) -
使用ParC-Net中的ParC_Operator改进C3k2.(需要看常见错误和解决方案的第五点)
使用注意点请看百度云视频.(20231031更新说明) -
ultralytics/cfg/models/11/yolo11-C3k2-DWR.yaml
使用DWRSeg中的Dilation-wise Residual(DWR)模块,加强从网络高层的可扩展感受野中提取特征.
-
ultralytics/cfg/models/11/yolo11-C3k2-RFAConv.yaml
使用RFAConv中的RFAConv改进yolo11.
-
ultralytics/cfg/models/11/yolo11-C3k2-RFCBAMConv.yaml
使用RFAConv中的RFCBAMConv改进yolo11.
-
ultralytics/cfg/models/11/yolo11-C3k2-RFCAConv.yaml
使用RFAConv中的RFCAConv改进yolo11.
-
ultralytics/cfg/models/11/yolo11-C3k2-FocusedLinearAttention.yaml
使用FLatten Transformer(ICCV2023)中的FocusedLinearAttention改进C3k2.(需要看常见错误和解决方案的第五点)
使用注意点请看百度云视频.(20231114版本更新说明.) -
ultralytics/cfg/models/11/yolo11-C3k2-MLCA.yaml
使用Mixed Local Channel Attention 2023改进C3k2.(用法请看百度云视频-20231129版本更新说明)
-
ultralytics/cfg/models/11/yolo11-C3k2-AKConv.yaml
使用AKConv 2023改进C3k2.(用法请看百度云视频-20231129版本更新说明)
-
ultralytics/cfg/models/11/yolo11-C3k2-UniRepLKNetBlock.yaml
使用UniRepLKNet中的UniRepLKNetBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-DRB.yaml
使用UniRepLKNet中的DilatedReparamBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-AggregatedAtt.yaml
使用TransNeXt中的聚合感知注意力改进C3k2.(需要看常见错误和解决方案的第五点)
-
ultralytics/cfg/models/11/yolo11-C3k2-SWC.yaml
使用shift-wise conv改进yolo11中的C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-iRMB.yaml
使用EMO ICCV2023中的iRMB改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-VSS.yaml
使用最新的Mamba架构Mamba-UNet中的VSS对C3k2中的BottleNeck进行改进,使其能更有效地捕获图像中的复杂细节和更广泛的语义上下文.
-
ultralytics/cfg/models/11/yolo11-C3k2-LVMB.yaml
使用最新的Mamba架构Mamba-UNet中的VSS与Cross Stage Partial进行结合,使其能更有效地捕获图像中的复杂细节和更广泛的语义上下文.
-
ultralytics/cfg/models/11/yolo11-RepNCSPELAN.yaml
使用YOLOV9中的RepNCSPELAN进行改进yolo11.
-
ultralytics/cfg/models/11/yolo11-C3k2-DynamicConv.yaml
使用CVPR2024 parameternet中的DynamicConv改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-GhostDynamicConv.yaml
使用CVPR2024 parameternet中的GhostModule改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-RVB.yaml
使用CVPR2024 RepViT中的RepViTBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-DGCST.yaml
使用Lightweight Object Detection中的Dynamic Group Convolution Shuffle Transformer改进yolo11.
-
ultralytics/cfg/models/11/yolo11-C3k2-RetBlock.yaml
使用CVPR2024 RMT中的RetBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-PKI.yaml
使用CVPR2024 PKINet中的PKIModule和CAA模块改进C3k2.
-
ultralytics/cfg/models/11/yolo11-RepNCSPELAN_CAA.yaml
使用CVPR2024 PKINet中的CAA模块改进RepNCSPELAN.
-
ultralytics/cfg/models/11/yolo11-C3k2-fadc.yaml
-
ultralytics/cfg/models/11/yolo11-C3k2-PPA.yaml
使用HCFNet中的Parallelized Patch-Aware Attention Module改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-Star.yaml
使用StarNet CVPR2024中的StarBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-KAN.yaml
KAN In! Mamba Out! Kolmogorov-Arnold Networks. 目前支持:
- FastKANConv2DLayer
- KANConv2DLayer
- KALNConv2DLayer
- KACNConv2DLayer
- KAGNConv2DLayer
-
ultralytics/cfg/models/11/yolo11-C3k2-DEConv.yaml
使用DEA-Net中的detail-enhanced convolution改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-Heat.yaml
使用vHeat中的HeatBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-WTConv.yaml
使用ECCV2024 Wavelet Convolutions for Large Receptive Fields中的WTConv改进C3k2-BottleNeck.
-
ultralytics/cfg/models/11/yolo11-C3k2-FMB.yaml
使用ECCV2024 SMFANet的Feature Modulation block改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-gConv.yaml
使用Rethinking Performance Gains in Image Dehazing Networks的gConvblock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-WDBB.yaml
使用YOLO-MIF中的WDBB改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-DeepDBB.yaml
使用YOLO-MIF中的DeepDBB改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-AdditiveBlock.yaml
使用CAS-ViT中的AdditiveBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-MogaBlock.yaml
使用MogaNet ICLR2024中的MogaBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-IdentityFormer.yaml
使用Metaformer TPAMI2024中的IdentityFormer改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-RandomMixing.yaml
使用Metaformer TPAMI2024中的RandomMixingFormer改进C3k2.(需要看常见错误和解决方案的第五点)
-
ultralytics/cfg/models/11/yolo11-C3k2-PoolingFormer.yaml
使用Metaformer TPAMI2024中的PoolingFormer改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-ConvFormer.yaml
使用Metaformer TPAMI2024中的ConvFormer改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-CaFormer.yaml
使用Metaformer TPAMI2024中的CaFormer改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-FFCM.yaml
使用Efficient Frequency-Domain Image Deraining with Contrastive Regularization ECCV2024中的Fused_Fourier_Conv_Mixer改C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-SFHF.yaml
使用SFHformer ECCV2024中的block改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-MSM.yaml
使用Revitalizing Convolutional Network for Image Restoration TPAMI2024中的MSM改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-HDRAB.yaml
使用Pattern Recognition 2024|DRANet中的RAB( residual attention block)改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-RAB.yaml
使用Pattern Recognition 2024|DRANet中的HDRAB(hybrid dilated residual attention block)改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-LFE.yaml
使用Efficient Long-Range Attention Network for Image Super-resolution ECCV2022中的Local feature extraction改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-SFA.yaml
使用FreqFormer的Frequency-aware Cascade Attention-SFA改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-CTA.yaml
使用FreqFormer的Frequency-aware Cascade Attention-CTA改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-IDWC.yaml
使用InceptionNeXt CVPR2024中的InceptionDWConv2d改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C3k2-IDWD.yaml
使用InceptionNeXt CVPR2024中的InceptionDWBlock改进C3k2.
-
ultralytics/cfg/models/11/yolo11-C2BRA.yaml
使用BIFormer CVPR2023中的Bi-Level Routing Attention改进C2PSA.
-
ultralytics/cfg/models/11/yolo11-C2CGA.yaml
使用EfficientViT CVPR2023中的CascadedGroupAttention改进C2PSA.
-
ultralytics/cfg/models/11/yolo11-C2DA.yaml
使用Vision Transformer with Deformable Attention(CVPR2022)中的DAttention改进C2PSA.
-
ultralytics/cfg/models/11/yolo11-C2DPB.yaml
使用CrossFormer中的DynamicPosBias-Attention改进C2PSA.
-
ultralytics/cfg/models/11/yolo11-fasternet-bifpn.yaml
fasternet与bifpn的结合.
其中BIFPN中有三个可选参数:- Fusion
其中BIFPN中的Fusion模块支持五种: weight, adaptive, concat, bifpn(default), SDI
其中weight, adaptive, concat出自paper链接-Figure 3, SDI出自U-NetV2 - node_mode
其中目前(后续会更新喔)支持这些结构 - head_channel
BIFPN中的通道数,默认设置为256.
- Fusion
-
ultralytics/cfg/models/11/yolo11-ELA-HSFPN-TADDH.yaml
使用Efficient Local Attention改进HSFPN,使用自研动态动态对齐检测头改进Head.
-
ultralytics/cfg/models/11/yolo11-FDPN-TADDH.yaml
自研结构的融合.
- 自研特征聚焦扩散金字塔网络(Focusing Diffusion Pyramid Network)
- 自研任务对齐动态检测头(Task Align Dynamic Detection Head)
-
ultralytics/cfg/models/11/yolo11-starnet-C3k2-Star-LSCD.yaml
轻量化模型组合.
- CVPR2024-StarNet Backbone.
- C3k2-Star.
- Lightweight Shared Convolutional Detection Head.
-
集成Mamba-YOLO.(需要编译请看百度云视频-20240619版本更新说明) ultralytics/cfg/models/mamba-yolo/Mamba-YOLO-T.yaml ultralytics/cfg/models/mamba-yolo/Mamba-YOLO-B.yaml ultralytics/cfg/models/mamba-yolo/Mamba-YOLO-L.yaml ultralytics/cfg/models/mamba-yolo/yolo-mamba-seg.yaml
- EMA
- SimAM
- SpatialGroupEnhance
- BiLevelRoutingAttention, BiLevelRoutingAttention_nchw
- TripletAttention
- CoordAtt
- CBAM
- BAMBlock
- EfficientAttention(CloFormer中的注意力)
- LSKBlock
- SEAttention
- CPCA
- deformable_LKA
- EffectiveSEModule
- LSKA
- SegNext_Attention
- DAttention(Vision Transformer with Deformable Attention CVPR2022)
- FocusedLinearAttention(ICCV2023)
- MLCA
- TransNeXt_AggregatedAttention
- LocalWindowAttention(EfficientViT中的CascadedGroupAttention注意力)
- Efficient Local AttentionEfficient Local Attention
- CAA(CVPR2024 PKINet中的注意力)
- CAFM
- AFGCAttentionNeural Networks ECCV2024
- SlideLoss,EMASlideLoss.(可动态调节正负样本的系数,让模型更加注重难分类,错误分类的样本上)
- IoU,GIoU,DIoU,CIoU,EIoU,SIoU,MPDIoU,ShapeIoU.
- Inner-IoU,Inner-GIoU,Inner-DIoU,Inner-CIoU,Inner-EIoU,Inner-SIoU,Inner-ShapeIoU.
- Wise-IoU(v1,v2,v3)系列(IoU,WIoU,EIoU,GIoU,DIoU,CIoU,SIoU,MPDIoU,ShapeIoU).
- Inner-Wise-IoU(v1,v2,v3)系列(IoU,WIoU,EIoU,GIoU,DIoU,CIoU,SIoU,MPDIoU,ShapeIoU).
- FocalLoss,VarifocalLoss,QualityfocalLoss
- Focaler-IoU系列(IoU,GIoU,DIoU,CIoU,EIoU,SIoU,WIoU,MPDIoU,ShapeIoU)
- Powerful-IoU,Powerful-IoUV2,Inner-Powerful-IoU,Inner-Powerful-IoUV2,Focaler-Powerful-IoU,Focaler-Powerful-IoUV2,Wise-Powerful-IoU(v1,v2,v3),Wise-Powerful-IoUV2(v1,v2,v3)论文链接
- Normalized Gaussian Wasserstein Distance.
-
20241013-yolov11-v1.1
- 初版发布。
-
20241018-yolov11-v1.2
- 移植完200+改进点。
- 修复已知问题。
-
20241027-yolov11-v1.3
- 修复已知问题。
- 新增自研CSP-MutilScaleEdgeInformationEnhance.
- 新增Efficient Frequency-Domain Image Deraining with Contrastive Regularization中的Fused_Fourier_Conv_Mixer.
- 更新使用教程.
- 百度云视频增加20241027更新说明.
-
20241103-yolov11-v1.4
- 新增自研Rep Shared Convolutional Detection Head.
- 修复已知问题。
- 增加实例分割、姿态检测、旋转目标检测怎么用里面的改进视频在使用说明.
- 百度云视频增加20241103更新说明.
-
20241112-yolov11-v1.5
- 新增自研CSP-FreqSpatial.
- 新增SFHformer ECCV2024中的block改进C3k2.
- 新增Revitalizing Convolutional Network for Image Restoration TPAMI2024中的MSM改进C3k2.
- 更新使用教程.
- 百度云视频增加20241112更新说明.
- 修复一些已知问题.
-
20241124-yolov11-v1.6
- 基于自研CSP-MutilScaleEdgeInformationEnhance再次创新得到CSP-MutilScaleEdgeInformationSelect.
- 新增Pattern Recognition 2024|DRANet中的HDRAB和RAB模块改进C3k2.
- 新增ECCV2022-ELAN中的Local feature extraction改进C3k2.
- 使用Bi-Level Routing Attention改进C2PSA.
- 使用CascadedGroupAttention改进C2PSA.
- 使用DAttention改进C2PSA.
- 更新使用教程.
- 百度云视频增加20241124更新说明.
- 修复一些已知问题.
-
20241207-yolov11-v1.7
- 新增自研GlobalEdgeInformationTransfer.
- 新增FreqFormer的Frequency-aware Cascade Attention改进C3k2.
- 新增CVPR2024InceptionNeXt中的IDWC、IDWB的改进.
- 新增CrossFormer中的DynamicPosBias-Attention改进C2PSA.
- 更新使用教程.
- 百度云视频增加20241207更新说明.