关于神经网络的一些心得总结

【一些基础概念】

feature  map:用不同的滤波器去卷及图像会得到不同特征的映射,即feature map

ground truth:正确的标注,训练集对监督学习技术的分类的正确性

【一些乱七八糟的心得和记录】

1、神经元的概念:用100种卷积核去卷积就有100个feature map,这100个feature map就组成了一层神经元

2、隐藏层的作用:可以看成是使用一个非线性的方式打乱输入数据,来让输入数据对应的类别在最后一层变得线性可分

3、非极大抑制:即抑制不是极大值的元素,可理解为局部最大搜索。例如在行人检测中,滑动窗口经提取特征,经分类器分类识别后,每个窗口都会得到一个分数。但是滑动窗口会导致很多窗口与其他窗口存在包含或者大部分交叉的情况,这时就需要NMS(非极大抑制)来选取那些邻域里分数最高(行人概率最大)的窗口,抑制那些分数低的窗口

4、下采样(subsampled)又名降采样(downsampled),是缩小图像。目的:(1)使得图像符合显示区域的大小(2)生成对应图像的缩略图

上采样(upsampled)又名图像插值(interpolating),是放大图像。一般采用内插值法,在原有像素基础上像素点之间插入新的元素

5、全连接层:全连接层需要把输入拉成一列向量。卷积取得是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图,因为用到了全部的局部特征,所以叫全连接

6、局部连接和权值共享,图像的空间联系是局部的,就像人是通过一个局部的感受野去感受完整图像一样,每个神经元都不需要对全局图像做感受,每个神经元只感受局部的图像区域,然后再更高层,将这些不同局部的神经元综合起来就可以得到全局信息。

简单点来说就是,卷积核卷积的过程就是局部连接和权值共享,假设用一个3*3的卷积核进行卷积,感受野就是9,局部连接的意识就是这9个像素对应输出的一个值。权值共享就是这个卷积核遍历整个图片,整个图片都用同一个卷积核的参数。这样就大大减少了参数的数量。。神经网络训练的就是卷积核的数量和偏置。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

你可能感兴趣的:(深度学习)