神经网络

一、神经网络

神经网络也叫感知机(perceptron),拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层,在输出层得到分类结果。

二、分类

1、CNN(卷积神经网络)

卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks)。

对于CNN来说,并不是所有上下层神经元都能直接相连,而是通过“卷积核”作为中介。同一个卷积核在所有图像内是共享的,图像通过卷积操作后仍然保留原先的位置关系。

CNN模型限制参数了个数并挖掘了局部结构


2、RNN(循环神经网络)

循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)

循环神经网络具有记忆性、参数共享并且图灵完备(Turing completeness),因此能以很高的效率对序列的非线性特征进行学习 。循环神经网络在自然语言处理(Natural Language Processing, NLP),例如语音识别、语言建模、机器翻译等领域有重要应用,也被用于各类时间序列预报或与卷积神经网络(Convoutional Neural Network,CNN)相结合处理计算机视觉问题。


3、DNN(深度神经网络)

DNN是指深度神经网络。与RNN循环神经网络、CNN卷积神经网络的区别就是DNN特指全连接的神经元结构,并不包含卷积单元或是时间上的关联,无法对时间序列上的变化进行建模。


4、LSTM (Long Short-Term Memory) 长短期记忆网络

LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。

LSTM区别于RNN的地方,主要就在于它在算法中加入了一个判断信息有用与否的“处理器”,这个处理器作用的结构被称为cell。

一个cell当中被放置了三扇门,分别叫做输入门、遗忘门和输出门。一个信息进入LSTM的网络当中,可以根据规则来判断是否有用。只有符合算法认证的信息才会留下,不符的信息则通过遗忘门被遗忘。

说起来无非就是一进二出的工作原理,却可以在反复运算下解决神经网络中长期存在的大问题。

5、GAN(Generative Adversarial Networks)生成式对抗网络

模型通过框架中(至少)两个模块:生成模型G(Generative Model)和判别模型D(Discriminative Model)的互相博弈学习产生相当好的输出,理想状态D(G(x))=0.5。


写在后面的话:

谢谢你看到这里,这里是一只努力学习人工智能的AI数据采集小白。其实做数据采集的话,主要是为技术提供模型训练数据,数据采了很多,但是具体技术是如何应用的却知之甚少,这也是开始学习AI的缘由。文章基本是我在AI学习过程中的笔记总结,内容大多整理自各个网站、网课、论文中的精华,如有侵权,欢迎私戳。有些东西只有了解了才能发现其中的有趣之处,路过的大牛欢迎指点带飞~

你可能感兴趣的:(神经网络)