分享一篇计算机视觉知识点的相关博文汇总,非常系统全面
计算机视觉四大基本任务(分类、定位、检测、分割)
目标检测论文及解读汇总
图像语义分割综述
从AlexNet理解卷积神经网络的一般结构
【深度学习】经典神经网络 VGG 论文解读
深度学习之基础模型-VGG
深度学习卷积神经网络——经典网络GoogLeNet(Inception V3)网络的搭建与实现
ResNet解析
ResNetV2:ResNet深度解析
Xception算法详解
DenseNet算法详解
旷视科技提出物体检测专用Backbone——DetNet
变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作。
如何通俗易懂地解释卷积?
“看懂”卷积神经网(Visualizing and Understanding Convolutional Networks)
CNN入门必读经典:Visualizing and Understanding Convolutional Networks
如何理解空洞卷积(dilated convolution)?
总结-空洞卷积(Dilated/Atrous Convolution)
Batch Normalization导读
深度学习中的Normalization模型
Group Normalization 及其MXNet、Gluon实现
理解dropout
机器学习中的范数规则化之(一)L0、L1与L2范数
机器学习中正则化项L1和L2的直观理解
全卷积网络 FCN 详解
一文读懂卷积神经网络中的1x1卷积核
卷积神经网络中用1 * 1 卷积有什么作用或者好处呢?
如何理解卷积神经网络中的1 * 1卷积
深度神经网络中的感受野(Receptive Field)
损失函数改进方法总览
请问faster rcnn和ssd 中为什么用smooth l1 loss,和l2有什么区别?
何恺明大神的「Focal Loss」,如何更好地理解?
交叉熵损失函数
卷积神经网络系列之softmax,softmax loss和cross entropy的讲解
Contrastive Loss (对比损失)
Triplet Loss及其梯度
路遥知马力——Momentum
比Momentum更快:揭开Nesterov Accelerated Gradient的真面目
如何理解神经网络中通过add的方式融合特征?
瑟木:计算机视觉中的注意力机制
张戎:计算机视觉中的注意力机制
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
边框回归(Bounding Box Regression)详解
NMS——非极大值抑制
Soft NMS算法笔记
深度学习中的激活函数导引
如何理解ReLU activation function?
请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function?
rafaelpadilla/Object-Detection-Metrics
语义分割之评价指标
怎么选取训练神经网络时的Batch size?
深度机器学习中的batch的大小对学习效果有何影响?
如何理解 Graph Convolutional Network(GCN)?