性能对比:
https://paperswithcode.com/sota/multi-object-tracking-on-mot20-1
1、1*1卷积核作用,降维
https://blog.csdn.net/qq_43170213/article/details/97375510
1*1卷积核的作用_nefetaria的博客-CSDN博客_1*1卷积核的作用
2、图像语义信息
对图像中语义信息、高层和底层特征的理解_Brucechows的博客-CSDN博客_低层特征和高层特征
FPN解决小物体检测,高语义
3、select search
Selective Search (选择搜索)_JNingWei的博客-CSDN博客_search selective
4、卷积核的优势
卷积核的优势-权值共享与局部感知能力_椰楠liu的博客-CSDN博客_卷积层局部感知
5、神经元、每个神经元连接数
什么是卷积神经网络中的-----“神经元”以及“连接数”_ct雨田的博客-CSDN博客_卷积神经网络神经元
6、ROI pooling. 特征池化
ROI POOLING 介绍 - 善良的大猪猪 - 博客园
8、归一化区别
输入归一化、批量归一化(BN)与层归一化(LN)_璇焱如柳的博客-CSDN博客_层归一化
9、ocr置信度
视频OCR中的文本置信度阈值(threshold)参数有什么作用?_视频分析服务 VAS_常见问题_华为云
10、深度学习head、neck、backbone三个术语分别是指什么?
深度学习head、neck、backbone三个术语分别是指什么?_AI界扛把子的博客-CSDN博客_深度学习head
11、损失函数
2022-图像检索资料总结 - 知乎 (zhihu.com)
(188条消息) softmax、softmax损失函数、cross-entropy损失函数_zhaotun123的博客-CSDN博客_softmax损失函数公式
一文看尽深度学习中的15种损失函数 - 知乎 (zhihu.com)
预测结果和实际真值的差距。 均方损失、交叉熵损失
交叉熵与均方差_DawnRanger的博客-CSDN博客_交叉熵和均方误差
交叉熵、Focal loss、L1,L2,smooth L1损失函数、IOU Loss、GIOU、DIOU和CIOU_做计算机视觉的小硕妹子的博客-CSDN博客
(217条消息) 详解L1、L2、smooth L1三类损失函数_千音qy的博客-CSDN博客_l1范数损失
yolov4项目记录6-损失计算_Swayzzu的博客-CSDN博客_yolov4损失函数计算
(192条消息) 物体检测之损失函数:标准交叉熵损失、平衡交叉熵损失、 Focal Loss_灬钰栊灬的博客-CSDN博客_平衡交叉熵
YOLOV5-损失函数 - 知乎 (zhihu.com)
【人脸识别loss】Arcface loss - 简书 (jianshu.com)
11.1 方差 标准差 均方误差
(161条消息) 辨析:方差 和 均方误差 的联系和区别_lutsest的博客-CSDN博客_均方误差和方差的关系
12、掩膜
图像中的掩膜(Mask)是什么_bitcarmanlee的博客-CSDN博客_掩膜
13、人脸识别
一般来说,人脸识别分三步走:
科普一下人脸识别技术 - 知乎
现有的人脸识别算法 ,检测的人需要是训练过的人吗-CSDN论坛
看懂人脸识别算法技术发展脉络_元宇宙iwemeta的博客-CSDN博客_人脸识别算法发展
15、图像淹模、连通域
图像中的掩膜(Mask)是什么_bitcarmanlee的博客-CSDN博客_掩膜
OpenCV——图像连通域_我有一個夢想的博客-CSDN博客_opencv 连通域
16、sift图像匹配
SIFT图像匹配_Yep_Ying的博客-CSDN博客_sift图像匹配
17、标注原则
目标检测标注原则_..Severus的博客-CSDN博客_目标检测标注
18、模型转换维度input_shape
Tensorflow Keras 中input_shape引发的维度顺序冲突问题(NCHW与NHWC)_JachinDo的博客-CSDN博客
19,计算余弦相似性
Python计算余弦相似性(cosine similarity)方法汇总 - 知乎
20、样本不均衡
正负样本不均衡:过滤简单样本、正负样本筛选比例
难易样本不均衡:权重惩罚、数据增强
类别间样本不均衡:权重惩罚、数据增强
样本不平衡问题总结_要坚持写博客呀的博客-CSDN博客_样本不均衡会产生什么问题
(161条消息) 目标检测正负样本区分和平衡策略(anchor-based)_SSSlasH的博客-CSDN博客_正负样本比例
21、pytorch图像预处理
transforms.Compose()函数_马鹏森的博客-CSDN博客_transforms.compose
22、 改变维度
tensor中的view()、sequeeze()、resize()操作_fly_Xiaoma的博客-CSDN博客_tensor.view()
23、
24、训练和测试区别Pytorch:model.train()和model.eval()用法和区别,以及model.eval()和torch.no_grad()的区别 - 知乎 25、torch.randn()
requires_grad,grad_fn,grad的含义及使用_dlage的博客-CSDN博客_requires_grad_
26、numpy转置
Python矩形转置transpose--实战应用详解_Exceed Oneself的博客-CSDN博客_transpose(2,0,1)
27、EfficientnetB0~B7
【论文解读】一文看懂EfficientnetB0~B7模型所有细节_xiyou_1996的博客-CSDN博客_efficientnet论文解读
28、批量归一化的作用
(201条消息) 深度学习之BatchNormalization的作用_专注于计算机视觉的AndyJiang的博客-CSDN博客_batch normalization作用
浅层参数的微弱变化经过多层线性变换和激活函数后被放大,改变了每一层的输入分布,造成深层网络不断调整适应这些分布变化,最终导致难以训练收敛。
1>缓解梯度小时,加速网络收敛
激活函数的输入数据落在非饱和区。
2>简化调参,网络更稳定
容易调整学习率,不至于网络加深,被放大问题
3>防止过拟合
将每个batch均值和方差引入网络,增加噪音
深度学习中的normalization_化茧成蝶梦成真的博客-CSDN博客_normalization作用
29、极大似然估计
https://www.csdn.net/tags/MtTaEg2sNjM0NTgzLWJsb2cO0O0O.html
30、PCA
主成分分析(PCA):通过图像可视化深入理解 - 腾讯云开发者社区-腾讯云
31、relu和leaky relu
激活函数ReLU与Leaky ReLU的区别 (1)_平民科技的博客-CSDN博客_leakyrelu和relu的区别
32、维度
1 # 形状为[],零维
[1,2,3] # 形状为[3],一维
[[1,2],[3,4]] # 形状为[2,2],二维
[[[1,2],[3,4]],[[1,2],[3,4]]] # 形状为[2,2,2],三维
33、softmax和二分类交叉损失熵
简简单单了解一下softmax与交叉熵_非晚非晚的博客-CSDN博客_softmax交叉熵
34、正则化防止过拟合
什么是正则化?
深度学习——正则化 (wjhsh.net)
35、空洞卷积的好处
扩大感受野:在deep net中为了增加感受野且降低计算量,总要进行降采样(pooling或s2/conv),这样虽然可以增加感受野,但空间分辨率降低了。为了能不丢失分辨率(持怀疑态度),且仍然扩大感受野,可以使用空洞卷积。这在检测,分割任务中十分有用。一方面感受野大了可以检测分割大目标,另一方面分辨率高了可以精确定位目标。
捕获多尺度上下文信息:空洞卷积有一个参数可以设置dilation rate,具体含义就是在卷积核中填充dilation rate-1个0,因此,当设置不同dilation rate时,感受野就会不一样,也即获取了多尺度信息。多尺度信息在视觉任务中相当重要啊。
36、提高模型泛化率
提升深度学习模型泛化性的方法_Jumi爱笑笑的博客-CSDN博客_如何提高模型的泛化能力
37、提高模型鲁棒性
鲁棒性的含义以及如何提高模型的鲁棒性 - 知乎
38、cpu gpu
https://blog.csdn.net/qq_34405401/article/details/108519823
39、Transformer和cnn的区别
Transformer入门Transformer和CNN之间的区别_MAUM的博客-CSDN博客_transformer和cnn的区别
1、Transformer还是机器学习,但是没有卷积、pooling等操作,也没有循环;
2、很好的利用了每一行数据之间的相关性,机制的解释性是比较强的,更适用于NLP;
3、CNN关注于二维局部数据之间的相互关联,随着层的加深,关注区域会更广,更适用于图像处理。
40、协方差
协方差表示的是两个变量总体误差的期望。
如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值时另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值;如果两个变量的变化趋势相反,即其中一个变量大于自身的期望值时另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值。
协方差为0的两个随机变量称为是不相关的。
41、小目标检测解决
这种方法的难点是:需要处理好图片与图片之间的切割线上的目标,因此需要通过一定的重叠区来解决。
(215条消息) 目标检测算法——YOLOv5改进|增加小目标检测层_加勒比海带66的博客-CSDN博客_yolov5增加小目标检测层
小目标检测常用解决方法_kuweicai的博客-CSDN博客_小目标检测的解决方案
目标检测——深度学习下的小目标检测(检测难的原因和Tricks) - E-Dreamer - 博客园
(177条消息) YOLOv5改进之六:增加小目标检测层_人工智能算法研究院的博客-CSDN博客_yolov5添加小目标检测层
(177条消息) YOLOV5 模型和代码修改——针对小目标识别_xiaoY322的博客-CSDN博客_yolov5小目标检测
42、rtsp推流
(156条消息) rtsp推流_Pikachu_simple的博客-CSDN博客_rtsp推流
43、滤波器
OpenCV学习记录(二 图像去噪、四种滤波方式)_枯叶夕阳的博客-CSDN博客_opencv噪声处理
46、GAN
https://blog.csdn.net/u011426016/article/details/106617092
47、nms改进
(157条消息) 目标检测NMS非极大值抑制及改进_颢师傅的博客-CSDN博客_nms改进
48、上采样
(161条消息) 深度网络中的上采样总结_包休的博客-CSDN博客_上采样网络
49、数据增强(传统图像处理和GAN生成数据集)
深度学习之数据增强_阿狗哲哲的博客-CSDN博客_深度学习数据增强
(204条消息) 深度学习生成对抗网络(GAN)_杨丝儿的博客-CSDN博客_生成对抗网络
50、图像增强
(162条消息) 图像处理(1) : 图像增强_QtHalcon的博客-CSDN博客_图像增强
51、模式识别
模式识别与人工智能的关系是什么?_福昕资讯 (foxitsoftware.cn)
52、 tensor.topk
【PyTorch】torch.max()和torch.topk() - 知乎 (zhihu.com)
(162条消息) 【菜菜的CV进阶之路-Pytorch基础-库函数】topk()详解_凤⭐尘的博客-CSDN博客_菜菜pytorch
53、softmax
一文详解Softmax函数 - 知乎 (zhihu.com)
54、pytorch搭建训练网络
(162条消息) pytorch简单神经网络搭建和训练实例_Bernard.Dong的博客-CSDN博客_pytorch 训练实例
(162条消息) optimizer.zero_grad()_bigbigvegetable的博客-CSDN博客_optimizer.zero_grad
55、optimizer adam和sgd区别
Pytorch学习笔记08----优化器算法Optimizer详解(SGD、Adam) - 雨后观山色 - 博客园 (cnblogs.com)
56、防止过拟合方法
过拟合:训练集误差下降,验证集误差上升
1>早停法
每隔一段时间在验证集做评估,当验证集误差增大时,停止训练。
2>模型简化
当数据不充分时,模型拟合能力过强,降低模型深度,简化结构。
3>dropout
以概率p保留神经元,1-p丢弃神经元。也属于正则化的一种。一般用于全连接层。
4>数据增强
数据是检测模型的血液,技巧都不如增加数据丰富性的效果。
手段:
几何变换(平移、翻转、缩放、剪裁等,翻转180度效果明显)
光学变换(亮度、对比度、色相和饱和度的随机扰动、通道色域之间交换等)
增加噪声(高斯噪声)
数据源扩充(将检测物体和其他背景融合)
5>L1和L2正则化
通过在损失函数增加一项对网络参数的约束,使参数渐渐变小,模型区域简单。
L1:没有平方
导致参数稀疏,参数w有可能为0。 模型压缩,可以适用。
L2:
不会为0,既保留了拟合能力,也保留了泛华能力。
57、深度学习的学习数据分布
深度学习在学习数据的分布空间深度学习中的数据分布到底是指的什么?有没有准确和严谨的定义,或者比较直观的理解? - 知乎 (zhihu.com) 58、拥挤与遮挡问题
方法:
1>改进nms soft nms
2>增加语义信息,引入额外特征,分割信息
3>划分多个part处理,再综合考虑
4>排斥损失:Repulsion loss
5> or-cnn
59、多尺度检测、小目标检测
方法:
1>降低下采样率和空洞卷积提升小物体检测性能
2>设计anchor,提升proposal质量
如果anchor过大,物体太小,iou就很小,有影响
3>多尺度训练可以构建出图像金字塔,增加样本多样性
4>特征融合,构建特征金字塔,将浅层和深层特征优势互补
60、优化器
1>SGD
优点:小批量训练优化,分担训练压力
数据小批量,更多次的梯度更新,收敛更快
缺点:小批量容易局部最优解
初始学习率不好选择
2>Adam
优点:学习率确定在一个范围内,更新更加平稳
更快收敛,尤其网络复杂
61、yolov5s 、5m
https://blog.csdn.net/Rocky6688/article/details/107199675/
62、resnet
网络做调整
(207条消息) 深度学习_经典网络_ResNet详解及常见问题总结_【WeThinkIn】的主理人的博客-CSDN博客_resnet核心设计
ResNet主要思想(总结)_51CTO博客_resnet核心思想
63、(174条消息) TensorFlow 和keras有什么区别?_AI界扛把子的博客-CSDN博客_tensorflow和keras的区别
64、
谈一谈CS.CV方向如何阅读论文? - 知乎 (zhihu.com)
CV方向的高效阅读英文文献方法总结 - 爱码网 (likecs.com)
65、生成式自监督学习、 对比学习
(177条消息) 一文梳理无监督对比学习(MoCo/SimCLR/SwAV/BYOL/SimSiam)_code_kd的博客-CSDN博客_swav 对比
66、(13 封私信 / 80 条消息) SOTA,benchmark和baseline分别是什么意思? - 知乎 (zhihu.com)
67、视觉 Transformer 优秀开源工作:timm 库 vision transformer 代码解读 - 知乎 (zhihu.com)
68、vit self attention
(177条消息) Vision transformer_MarDino的博客-CSDN博客
(177条消息) 什么是VIT?_薇酱的博客-CSDN博客_vit技术
真香!Vision Transformer 快速实现 Mnist 识别 (baidu.com)
(177条消息) 学习Transformer:自注意力与多头自注意力的原理及实现_此人姓于名叫罩百灵的博客-CSDN博客_多头自注意力机制和自注意力机制
69、(178条消息) [email protected] 与 [email protected] 是什么意思,YOLOv5_hjseo_seg的博客-CSDN博客_map0.5:0.95
70、https://blog.csdn.net/tomy2426214836/article/details/105981202
71、【梯度消失和梯度爆炸及解决方法】https://mbd.baidu.com/ma/s/AXta6qDm
72、 梯度下降
什么是梯度_guanhuazhan的博客-CSDN博客_梯度
(190条消息) 梯度下降(详解)_流年若逝的博客-CSDN博客_梯度下降
73、(179条消息) Top-1 accuracy和Top-5 accuracy的概念及理解_LIsaWinLee的博客-CSDN博客_top1accuracy
74、度量学习
Metric Learning——度量学习 - 常给自己加个油 - 博客园
(181条消息) 度量学习(Metric Learning)【AMSoftmax、Arcface】_u013250861的博客-CSDN博客_amsoftmax
(215条消息) 度量学习:ArcFace算法和工程应用总结_⊙月的博客-CSDN博客_arcface人脸相似度是如何计算的
(181条消息) 人脸识别损失函数简介与Pytorch实现:ArcFace、SphereFace、CosFace_taoqick的博客-CSDN博客_pytorch实现cosface
(191条消息) Circle loss_Ox__AI的博客-CSDN博客_cricle loss
75、学习率、batchsize 训练影响
(184条消息) 深度学习笔记(五):学习率过大过小对于网络训练有何影响以及如何解决_TravelingLight77的博客-CSDN博客_学习率太大
(184条消息) 权重衰减(weight decay)与学习率衰减(learning rate decay)_Microstrong0305的博客-CSDN博客_weightdecay (184条消息) 深度学习学习率对模型训练的影响_星空下0516的博客-CSDN博客_学习率对模型训练的影响
76、图像检索
2022-图像检索资料总结 - 知乎 (zhihu.com)
77、全卷机FCN
(192条消息) 全卷积神经网络FCN_业余科了个研的博客-CSDN博客_全卷积神经网络
78、(192条消息) EfficientNet网络详解_太阳花的小绿豆的博客-CSDN博客_efficientnet
79、anchor的作用
、(198条消息) YOLOv3中Anchor理解_奔跑的小仙女的博客-CSDN博客_yolov3anchor
80、(198条消息) 相关科普:CNN与FCN区别,FCN网络结构详述_计算机视觉-Archer的博客-CSDN博客_cnn和fcn
81、(205条消息) 给定两个特征向量,以下哪些方法可以计算这两个向量相似度?_冰露可乐的博客-CSDN博客_计算两个特征向量的相似度 82、512维度
【张量、向量、矩阵、卷积】https://mbd.baidu.com/ma/s/myNWTEQc
(205条消息) FeatureMap的通道和特征点的维度_小ccccc的博客-CSDN博客_feature map的通道数
83、迁移学习技巧
(213条消息) 常见的迁移学习方法_点PY的博客-CSDN博客_迁移学习方法
84、pytorch cuda基础镜像 base runtime devel https://hub.docker.com/layers/pytorch/pytorch/1.6.0-cuda10.1-cudnn7-devel/images/sha256-ccebb46f954b1d32a4700aaeae0e24bd68653f92c6f276a608bf592b660b63d7?context=explore
85、SVM 支持向量机
(215条消息) 机器学习:支持向量机(SVM)_燕双嘤的博客-CSDN博客_支持向量机
86、神经元实现
(215条消息) Python 实现一个简单的神经网络(附代码)_Dr.sky_的博客-CSDN博客_python神经网络代码
87、分类模型对比详解和对比ResNet和DenseNet和MobileNet_SpikeKing的博客-CSDN博客_mobilenet和resnet哪个准
88、全连接层与Softmax (softmax classifier)_DecafTea的博客-CSDN博客_全连接层softmax