Yolov-1-TX2上用YOLOv3训练自己数据集的流程(VOC2007-TX2-GPU)
Yolov--2--一文全面了解深度学习性能优化加速引擎---TensorRT
Yolov--3--TensorRT中yolov3性能优化加速(基于caffe)
yolov-5-目标检测:YOLOv2算法原理详解
yolov--8--Tensorflow实现YOLO v3
yolov--9--YOLO v3的剪枝优化
yolov--10--目标检测模型的参数评估指标详解、概念解析
yolov--11--YOLO v3的原版训练记录、mAP、AP、recall、precision、time等评价指标计算
yolov--12--YOLOv3的原理深度剖析和关键点讲解
问题
DarkNet_53= Conv3x3 + Sum_(下采样 Conv3x3_步长为2 + N x DarkNetBlock) ---N为下采样次数
DarkNetBlock(含2层卷积)= Conv1x1 + Conv3x3 + Residual
所以我们可以发现DarkNet-53一共有1 + (1 + 1 x 2 ) + (1 + 2 x2) + (1 + 8 x 2) + (1 + 8 x 2) + (1 + 4 x 2) +全连接= 53个卷积层。
什么是Batch Normalization?
什么是Leaky ReLU?
可以对比v2和v3的backbone看看:(DarkNet-19 与 DarkNet-53)
有些博客YOLO V1误差函数图有误,在此更改并强调!
https://blog.csdn.net/qq_33869371/article/details/87706617
https://blog.csdn.net/qq_33869371/article/details/90438256
https://blog.csdn.net/qq_33869371/article/details/89416062
有问题交流的小伙伴,请加微信:hy1786591,请注明 姓名_专业_学校/公司,同意后请写清楚问题 哈~,多谢!
参考:
https://blog.csdn.net/leviopku/article/details/82660381#commentBox
https://blog.csdn.net/chandanyan8568/article/details/81089083
https://www.cnblogs.com/CJT-blog/p/10457438.html
https://blog.csdn.net/qq_27825451/article/details/88971395