【深度学习】基础知识——CNN

知乎参考:卷积神经网络CNN学习 - 知乎 (zhihu.com)

B站视频:1.1 卷积神经网络基础_哔哩哔哩_bilibili

全连接层:将卷积后的图像与输入图像建立全连接,模拟神经细胞

在知乎参考文章的基础上补充B站视频卷积相关知识:
1、输入图像通常为RGB图像,则有一张图片有R, G, B三个矩阵,那么卷积核也要对应三个矩阵,然后卷积核卷积相应的矩阵,三个卷积结果相加,得到输出图像矩阵。
2、卷积核的通道数与输入矩阵通道数相同,输出矩阵的通道数与卷积核的个数相同。
3、激活函数:
sigmoid函数:梯度爆炸
ReLU函数:反向传播时,如果有梯度特别大,则权重中心很容易小于0——不要用特别大的学习率学习,容易导致很多神经元失活
最后一层常用softmax函数(多分类),二分类常用sigmoid函数
4、越界情况:加padding

概念统一:
卷积核又叫滤波器(kernel或filter)
通道数即深度

5、池化层:减少数据量,不增加参数
最大池化层:池化核内取最大
平均池化层:取平均
池化核大小一般和步长一致

你可能感兴趣的:(深度学习,cnn,神经网络)