【Machine Learning】8 神经网络:表述(Neural Networks:Representation)

8.1 非线性假设(Non-linear hypotheses

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第1张图片

在非线性的多项式中,特征数变多,特征耦合产生的项数目庞大,普通的逻辑回归根本无法处理此类问题。

8.2 神经元和大脑(Neurons and the brain

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第2张图片

大脑学习的方法与计算机的算法

8.3 模型表示 I(Model representation I

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第3张图片【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第4张图片

神经网络示意如上图。

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第5张图片【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第6张图片

神经网络基本结构及其详解。

8.4 模型表示 II(Model representation II

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第7张图片

前向传播示意图,如图右半部分所示,可以表示为矩阵 向量乘积。

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第8张图片

  把左边部分挡住,这可以看作一个逻辑回归,但这里的输入不再是x,而是a。不过a也是在x中学习得到的,可以看作比x更高级更复杂也更有效的特征,为什么会更有效或者高阶特征如何利用 ?往下\downarrow

8.5 例子和直观理解(Examples and intuitions I)

通过一个具体的神经网络求解输入为非线性函数的例子让我们理解神经网络如何学习非线性假设。

加入一个偏置单元

简单的神经元实现AND逻辑门:                                            简单神经元实现OR逻辑门:

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第9张图片   【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第10张图片

简单神经元实现NOT逻辑门:

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第11张图片

8.6 例子和直观理解(Examples and intuitions II)

我们想要实现一个同或门XNOR,需要在I中基本逻辑门上建立神经网络:

已知xnor=(x_{1}\,and\,x_{2})or(not\,x_{1}\,and\,not\,x_{2})

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第12张图片

通过多个隐藏层,我们可以实现更复杂的函数,这就是神经网络这种结构的好处。

输入的特征\rightarrow复杂的特征\rightarrow更复杂的特征\rightarrow\cdots\rightarrow想要的结果

8.7 多类分类

我们需要训练神经网络,得到如下四个输出,来帮助我们分类行人、汽车、摩托、卡车。

值得注意的是这里的输出不用{1,2,3,4}表示。

【Machine Learning】8 神经网络:表述(Neural Networks:Representation)_第13张图片

如何实现如同这里更复杂的神经网络呢?\downarrow

你可能感兴趣的:(机器学习,Machine,Learning)