lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)

 

神经网络

看看各大神经网络模型的层数把~

lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第1张图片

 

让我们再回顾一下神经网络的结构,这地方我就不赘述了,根据ppt就能看懂lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第2张图片lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第3张图片lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第4张图片lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第5张图片

 

再看一下图像识别的流程,就是把一个图片的像素拉成一个向量,如图就是把256个像素拉成一个向量,代表256个特征,根据256个特征输出识别的值,这是个多分类任务,输出1-10的概率中2的概率最大,那就是2

lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第6张图片lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第7张图片

通常神经网络结构构建是需要经验的,

lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第8张图片

在数字识别中,真实值其实就是一个代表1-10的向量,如果答案是1,那就是【1,0,0,0,0...】

lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第9张图片lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第10张图片lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第11张图片lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第12张图片

 

神经网络真的层数越多越好吗?层数越多,就说明我们的参数越多,参数越多那肯定拟合的更好啦,它就会拥有更小的bias(偏差)和更大的方差,方差大的话那么我们增加数据量不就可以了嘛~真的是这样吗?

lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第13张图片

甚至有人这样说,我们可以思考一下,任何一个N维的向量都可以通过一层神经网络变成M维的,那我们只需要一层就够了呀,为什么还要很多层呢?真的是这样吗?这些个问题以后再解答

lhy机器学习(三): ML Lecture 6 Brief Introduction of Deep Learning(神经网络)_第14张图片

你可能感兴趣的:(机器学习,神经网络,机器学习,人工智能)