:如果你也对机器人、人工智能感兴趣,看来我们志同道合✨
:不妨浏览一下我的博客主页【https://blog.csdn.net/weixin_51244852】
:文章若有幸对你有帮助,可点赞 收藏 ⭐不迷路
:内容若有错误,敬请留言 指正!原创文,转载请注明出处
吴恩达老师的《机器学习》课程,B站链接:(https://www.bilibili.com/video/BV164411b7dx)
python学习教程:廖雪峰老师的官网的Pyhon教学,https://www.liaoxuefeng.com/wiki/1016959663602400/1018877595088352
过拟合:过拟合和欠拟合的形象解释
迁移学习:迁移学习概述
监督学习、无监督学习:【机器学习笔记】有监督学习和无监督学习
人工智能、机器学习与深度学习的区别:深度学习和机器学习的区别;AI、机器学习和深度学习之间的区别是什么?
感知机:深度学习入门笔记(三):感知机
深度学习框架介绍:深度学习入门+实战【完】
imagenet介绍:ImageNet图像数据集介绍
一个简单的卷积神经网络是由各种层按照顺序排列组成的,网络中每个层使用一个可微分的函数将数据从一层传递到下一层,通常卷积神经网络主要由五种类型的层组成:卷积层、批正则化层、非线性映射层、池化层、全连接层等。通过将这些层叠加起来,就可以构建出一个完整的卷积神经网络,最后在根据任务的不同定义不同的函数。
卷积运算是卷积神经网络中最基本的组成部分,计算过程就是元素乘积求和。卷积运算可采用合适的卷积核(过滤器、滤波器,英文为fliter)实现垂直边缘的检测。本身卷积核就好像一个孔径大小一致的过滤器一样,筛选出不能通过去的物质。因此卷积核本身就有特征,可以是垂直检测,也可以是水平边缘检测,通过修改卷积核中的参数,可以做到任意角度的边缘检测。
卷积运算有两个缺点:
1.随着卷积的次数不断增加,图像的尺寸会越来越小;
2.图像中处于角落的像素在运算时候由于参与运算的次数只有一次,因此该像素将会丢失。
为了解决上述的两个问题,在原来像素的基础在外围添加像素层数,不仅可以增加图像的尺寸还可以增加边缘像素参与运算的次数。其中填充的层数称为padding。NXn尺寸的图像乘以f*f卷积核的运算,得到(n-f+1)X(n-f+1)的新图像。Padding的中文意思就是填充。
6.过滤器一般都是设计成奇数的,有两点原因:1.这样的话padding取值是对称的;2.过滤器有一个中心参数。
7.步长S的定义就是说过滤器在移动过程中是每两步移动一下,包括水平移动和垂直移动。也就是说每连续移动两步就会输出一个数据,这样的例子中步长就是2。
8.N:定义为图像的尺寸边长;f:定义为过滤器的尺寸边长;p:定义为增加的层数;s:步长,最后得到的图像尺寸的计算公式为:()*()
7.图像在计算机中就是由很多很多像素组成的,每个像素对应一个数,因此图像可以当做一个矩阵,在处理过程中其实就是对它的像素进行处理,比如进行矩阵运算。
8.卷积运算不仅可以应用在平面(二维)图像上,也就是黑白图,只有两种颜色,也可以运用在三维的图像上,所谓的三维图像其实就是RGB、彩色图像,它是由三通道的颜色组成的,因此我们可以将一张彩色图看成由三张图叠加而成的,分别是红绿蓝三张图。
9.在卷积运算中,彩色图是要跟一个三维的过滤器进行乘积的,这个三维过滤器其实就是为了对应彩色图中红绿蓝三个通道的。
11.输出图像的通道数等于过滤器的数量。
12.在进行卷积运算之后得到的最后图像进行输出,将高乘以宽再乘以通道数记得到所有特征,将这些特征排列成一列输出,也就是列向量,然后在输入到softmax填充函数中。
13.在进行多次卷积运算中,图像的尺寸会逐渐减小,通道数会逐渐增加。一个经典的卷积神经网络通常有三层,一个是卷积层,一个是池化层,最后是全连接层。
14.池化层其中含有最大池化层,它与卷积层的区别在于卷积运算的不同,输出图像的尺寸计算公式是一样的,池化层选取过滤器内含有特征的值,比如最大值,平均值,分别代表着池化层中的最大池化层和平均池化层。
15.卷积运算过程中的参数不仅包含了过滤器中的参数,还包含了一个输出的矩阵存在的偏差,这个偏差也是一个参数。
9.典型神经网络有LeNet-5、AlexNet、VGG-16。
图像卷积
基本术语:卷积核、窗口、模板、操作数
卷积系数:卷积核内的元素数值
卷积神经网路的概念
1.卷积和池化层
2.卷积网络
卷积层特点:
1.局部感受野
2.权重共享机制
3.池化下采样操作
4.获取了图像的迁移、变形与尺度空间不变性特征
如何在opencv中加载卷积神经网络各个层?