李宏毅机器学习笔记3——卷积神经网络

Image Classification
把图片设成同尺寸。
李宏毅机器学习笔记3——卷积神经网络_第1张图片

image是一个模型的输入。
“y head”dimention长度决定了辨别多少种类动物。
输出的y’与y head的Cross entropy越小越好。
李宏毅机器学习笔记3——卷积神经网络_第2张图片
tensor张量
向量里的值代表某一个位置颜色的强度。
模型的弹性越大,越容易overfitting

观察一:
不一定要看整个图片,可能只看图片中的几个关键点就可以识别了。
李宏毅机器学习笔记3——卷积神经网络_第3张图片

每个neuro只需观察自己的receptive field
常见的receptive field的kernel size是3×3
receptive field之间常是重叠的,之间跨度为stride,超出正方体就补零padding
李宏毅机器学习笔记3——卷积神经网络_第4张图片
观察二
李宏毅机器学习笔记3——卷积神经网络_第5张图片
李宏毅机器学习笔记3——卷积神经网络_第6张图片
李宏毅机器学习笔记3——卷积神经网络_第7张图片
卷积层的好处
李宏毅机器学习笔记3——卷积神经网络_第8张图片
卷积层用在图片识别不容易overfitting,之外就不好说了。
李宏毅机器学习笔记3——卷积神经网络_第9张图片
Feature Map
李宏毅机器学习笔记3——卷积神经网络_第10张图片
receptive field数值与fitter数值相乘再相加。
Convolution
本来一个image有3个channel,通过Convolution成新图片64个channel,再继续叠:
李宏毅机器学习笔记3——卷积神经网络_第11张图片
对比两个观察
李宏毅机器学习笔记3——卷积神经网络_第12张图片
观察三
采样像素不会影像图片。
李宏毅机器学习笔记3——卷积神经网络_第13张图片
Pooling
pooling的结果是使得特征减少,参数减少,但pooling的目的并不仅在于此。
李宏毅机器学习笔记3——卷积神经网络_第14张图片
例如保留每个channel里最大值:
李宏毅机器学习笔记3——卷积神经网络_第15张图片
一般会做两次convolution,做一次pooling.
pooling是为了减少运算量,如果运算能力强,可不用,提高准确性。
全部的卷积神经网络(CNN)步骤
李宏毅机器学习笔记3——卷积神经网络_第16张图片
CNN应用playing go
围棋和图像有相似性,可看做19*19像素。
李宏毅机器学习笔记3——卷积神经网络_第17张图片
CNN缺点
没法处理image放大缩小旋转,同图放大可能就识别失败了。

你可能感兴趣的:(机器学习,机器学习,cnn,深度学习)