机器学习结构的梳理

2012年以来,数据的爆发式增长为深度学习算法在语音和视觉识别上实现突破,令人工智能产业落地和商业化发展成为可能,人工智能市场前景巨大。
通常将人工智能分为弱人工智能和强人工智能,前者让机器具备观察和感知的能力,可以做到一定程度的理解和推理,而强人工智能让机器获得自适应能力,解决一些之前没有遇到过的问题。但是目前的科研工作都集中在弱人工智能这部分

弱人工智能有希望取得突破,是如何实现的,“智能”又从何而来呢?这主要归功于一种实现人工智能的方法——机器学习

机器学习是一种实现人工智能的方法。机器学习最基本的做法是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。
深度学习是一种实现机器学习的技术。深度学习本来并不是一种独立的学习方法,其本身也会用到有监督和无监督的学习方法来训练深度神经网络。

下面用一幅图来梳理一下机器学习
机器学习结构的梳理_第1张图片
最基础的是线性回归和神经网络,线性回归只能描述非常简单的映射关系,稍微复杂一点关系的描述就要加上非线性回归。如果把这些非线性的映射关系叠加起来就是一个神经网络。

神经网络输入的信息是一维的信息,输入是一维,不同的网络之间进行的是一个简单的代数运算,经过非线性激励形成新的学习层和下一层进行信息的交互。

CNN基本的代数运算用卷积和来代替,卷积核是二维的处理算子,神经网络到CNN(卷积神经网络)是空间上的扩展。CNN中卷积本质上就是利用共享的参数过滤器,通过计算中心像素点以及相邻像素点的加权和来构成feature map实现空间上的提取,当加权系数就是卷积核的权重系数。CNN的两大核心思想:网络局部连接、卷积核参数共享。

神经网络到RNN(循环神网络)是一个时间上的扩展,神经网络处理一维信息时,但是这些信息是有时间联系的,比如人的语音。神经网络处理这些关系的时候,把在某一刻的输出作为下一刻的输入,处理的是前一刻和这一刻的信息,通过时域递归方式,就可以找到之前信息和之后信息的关系,同时还能学习信息到最后判断映射关系。但是在信息的传递的过程中,每一次获取前一时刻的信息或出现信息的衰减。为了避免信息的逐层衰减,引入了LSTM(长短期记忆网络),长短记忆都可以学习。根据输入信息判断一些信息是需要提前记住的,在下一刻处理的时候判断前面记住的信息是否要释放。

线性回归,神经网络,卷积神经网络、循环神经网络,长短期记忆网络是整个深度学习的基础。在这个基础之上,我们可以辐射出很多方向。CNN是应用于图片分类,图片经过神经网络进行提取特征,再经过传统神经网络进行处理,最后进行判断。但是在现实生活中,收集到的图片并不是特别理想,比如有云、草、树等。那我们在处理图片的时候就要做目标分类和目标检测。

再转到LSTM,它善于处理一维信息。现在在语言的提取和生成方面发挥着巨大的作用,用于语言生成。

CNN和LSTM的结合,CNN善于图片的理解,LSTM善于语句的生成和时域信息的处理,可以用于视频的分类。

随着社会的发展辐射出了很多的应用,比如增强学习和对抗网络。增强学习是模仿人类学习的模型,不停地学习反馈,慢慢的学会决策的能力。另一个是对抗网络,是生成网络和判别网络的结合,有利于生成很多数据,相当于是一个无监督学习。

介绍到这里,相信大家对机器学习的结构已经有一些了解,接下来就来了解一下神经网络的实现过程吧
神经网络的实现过程分为四个部分
1、准备数据集
2、搭建NN结构,从输入到输出,先搭建计算图,再用会话执行
3、大量特征数据喂给NN,迭代优化NN参数
4、使用训练好的模型预测和分类

搭建神经网络一般按照八股
搭建神经网络的八股:准备、前向传播、反向传播、迭代
前向传播定义输入、参数和输出
反向传播定义损失函数、返乡传播方法,在会话中完成迭代

你可能感兴趣的:(机器学习结构的梳理)