Skip to content

Latest commit

 

History

History
244 lines (176 loc) · 29.4 KB

README.md

File metadata and controls

244 lines (176 loc) · 29.4 KB

SimplePaperReading

分享公众号GiantPandaCV中的博客&"神经网络架构搜索"中的博客列表。

目录

LLM压缩

LLM剪枝

博客列表

LLM量化

博客列表

LLM蒸馏

博客列表

神经网络结构搜索

博客列表
Bag of Tricks for Neural Architecture Search
ECCV20 BigNAS无需后处理直接部署
Microsoft NNI 有关NAS的核心类
Microsoft NNI入门
NAS的挑战和解决方案-一份全面的综述
NetAug 韩松团队新作
P-DARTS 渐进式搜索
CVPR2021 NAS相关论文链接
DARTS 可微分神经网络结构搜索开创者
DNA: Block-wisely Supervised NAS with KD
【神经网络搜索】Efficient Neural Architecture Search
ICLR 2021 NAS 相关论文(包含Workshop)
NAS-RL(ICLR2017)
神经网络架构国内外发展现状
【神经网络搜索】NAS总结
【神经网络架构搜索】NAS-Bench-101: 可复现神经网络搜索
【神经网络搜索】NasBench301 使用代理模型构建Benchmark
【神经网络搜索】Once for all
PC-DARTS 部分通道链接
【神经网络搜索】ProxyLessNAS
【神经网络架构搜索】SMASH直接生成候选网络权重
Semi-Supervised Neural Architecture Search
【神经网络搜索】Single Path One Shot
你所需要知道的关于AutoML和NAS的知识点

注意力机制

博客列表
【CV中的Attention机制】Non-Local-neural-networks的理解与实现
【CV中的Attention机制】BiSeNet中的FFM模块与ARM模块
【CV中的Attention机制】CBAM的姊妹篇-BAM模块
【CV中的Attention机制】DCANet解读
【CV中的Attention机制】Selective-Kernel-Networks-SE进化版
【CV中的Attention机制】ShuffleAttention
【CV中的Attention机制】易于集成的Convolutional-Block-Attention-Module-CBAM模块
【CV中的Attention机制】融合Non-Local和SENet的GCNet
【CV中的Attention机制】模块梳理合集
【CV中的attention机制】语义分割中的scSE模块
【cv中的Attention机制】最简单最易实现的SE模块
卷积神经网络中的即插即用模块
神经网络加上注意力机制,精度反而下降,为什么会这样呢?

Transformer

博客题目
A Battle of Network Structures: An Empirical Study of CNN, Transformer, and MLP
BoTNet:Bottleneck Transformers for Visual Recognition
CvT: 如何将卷积的优势融入Transformer
DeiT:使用Attention蒸馏Transformer

目标检测

博客题目
增强CNN学习能力的Backbone:CSPNet
打通多个视觉任务的全能Backbone:HRNet
两阶段实时检测网络ThunderNet
【CV中的特征金字塔】Feature Pyramid Network

YOLOv3系列

博客题目
【从零开始学习YOLOv3】1. YOLO cfg文件解析
【从零开始学习YOLOv3】2. 代码配置和数据集处理
【从零开始学习YOLOv3】3. YOLOv3的数据组织与处理
【从零开始学习YOLOv3】4. YOLOv3中的参数进化
【从零开始学习YOLOv3】5. 网络模型的构建
【从零开始学习YOLOv3】6. 模型构建中的YOLOLayer
【从零开始学习YOLOv3】7. 教你在YOLOv3模型中添加Attention机制
【从零开始学习YOLOv3】8. YOLOv3中Loss部分计算
我们是如何改进YOLOv3进行红外小目标检测的?
YOLOv3和SSD有什么区别
一张图梳理YOLOv4论文

CenterNet系列

博客题目
CenterNet0-pytorch版CenterNet训练自己的数据集
CenterNet1-数据加载解析
CenterNet2-骨干网络之hourglass
CenterNet3-骨干网络之DLASeg
CenterNet4-loss计算代码解析
CenterNet5-测试推理过程
用关键点进行目标检测
CenterNet代码原理详解

多目标跟踪

博客题目
Deep SORT多目标跟踪算法代码解析(上)
Deep SORT多目标跟踪算法代码解析(下)
Deep SORT多目标跟踪算法代码解析
DarkLabel转换MOT、ReID、VOC格式数据集脚本分享
Deep SORT论文阅读笔记

知识蒸馏

博客题目
【Attention Transfer】paying more attention to attention
Towards Oracle Knowledge Distillation with NAS
【知识蒸馏】Deep Mutual Learning
【知识蒸馏】Knowledge Review
知识蒸馏综述: 知识的类型
知识蒸馏综述:网络结构搜索应用
知识蒸馏综述:代码整理
知识蒸馏综述:蒸馏机制

领域综述

博客题目
Bag of Tricks for Object Detection
【科普】神经网络中的随机失活方法
DeepSort框架梳理
precision和recall重新理解
PyTorch中模型的可复现性
目标检测和感受野的总结和想法
【综述】神经网络中不同类型的卷积层
卷积神经网络中的各种池化操作
多目标跟踪MOT16数据集和评价指0标
【翻译】手把手教你用AlexeyAB版Darknet

工具集

博客题目
Fixing the train-test resolution discrepancy
【论文阅读】Mixed Precision Training
PyTorch Lightning工具学习
Tensorflow2.0 入门
Ubuntu16.04 Cuda11.1 Cudnn8.1 Tensorflow2.4环境配置
DarkLabel转换MOT、ReID、VOC格式数据集脚本分享
docker入门级使用教程
深度学习应用的服务端部署
Python Yaml配置工具
Sphinx 快速构建工程文档
Tmux科研利器-更方便地管理实验
人脸轻量级
如何使用logging生成日志
如何更好地调整学习率?
如何阅读和学习深度学习项目代码
快速入门使用tikz绘制深度学习网络图
【译】科研敏感性锻炼
简易关键点标注软件分享
分布式训练框架Horovod初步学习
PyTorch消除训练瓶颈 提速技巧