动手学深度学习笔记day1:线性回归模型、softmax分类模型、多层感知机

目录

线性回归模型

1.模型

 

2.数据集

3.损失函数

4.优化函数

 

softmax与分类模型

1.分类问题

 2.softmax运算符

3. 矢量运算表达式

4.交叉熵损失函数

 

多层感知机模型

1.隐藏层

2.表达公式

3.激活函数

3.1 ReLU函数

3.2 Sigmoid函数


线性回归模型

1.模型

以房价预测模型为例进行线性回归模型的讲解,假设影响房价的因素为房屋面积(平方米)和房屋年龄(年),这两个因素与房价之间为线性关系:

 

2.数据集

我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。

 

3.损失函数

在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。 它在评估索引为 i 的样本误差的表达式为

4.优化函数

当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解叫作数值解(numerical solution)。

在求数值解的优化算法中,小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。它的算法很简单:先选取一组模型参数的初始值,如随机选取;接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值。在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch)B,然后求小批量中数据样本的平均损失有关模型参数的导数(梯度),最后用此结果与预先设定的一个正数的乘积作为模型参数在本次迭代的减小量。

 

总结一下,优化函数的有以下两个步骤:

  • (i)初始化模型参数,一般来说使用随机初始化;
  • (ii)我们在数据上迭代多次,通过在负梯度方向移动参数来更新每个参数。

 

softmax与分类模型

1.分类问题

 

        对于简单的图像分类问题,输入为图像的像素,以2×2的图片为例,色彩为灰度,各个像素值记为x1,x2,x3,x4. 设真实标签对应的离散值为y1、y2、y3.

     设置权重和偏差来获得输出值,并用神经网络展示如下:

动手学深度学习笔记day1:线性回归模型、softmax分类模型、多层感知机_第1张图片

 2.softmax运算符

针对直接使用输出层的两个问题:

1.输出值的范围不确定,很难判断出具体的含义;

2.无法建立不确定范围的输出值与离散化标签之间的关系。

针对这些问题,使用一种运算符softmax解决,该算符输出值变换为正数,且和为1的概率分布。

动手学深度学习笔记day1:线性回归模型、softmax分类模型、多层感知机_第2张图片

 

 

3. 矢量运算表达式

为了提高计算效率,使用矢量进行运算,单个样本的计算表达式如下:

动手学深度学习笔记day1:线性回归模型、softmax分类模型、多层感知机_第3张图片

在小批量训练数据中,可一次处理n个样本以进一步提高效率,此时表达式如下:

4.交叉熵损失函数

在线性回归模型中使用均方误差作为损失函数,要求尽可能减少该损失,但是在离散分类问题中,只需知道标签的概率分布即可,使其尽可能接近真实标签的概率分布,因而不需要使用较为“严格”的均方误差函数。

 

基于以上考虑,使用交叉熵作为损失函数,它更适合衡量概率分布的差异。


动手学深度学习笔记day1:线性回归模型、softmax分类模型、多层感知机_第4张图片

 

多层感知机模型

1.隐藏层

在神经网络模型中,在输入层和输出层之间的称为隐藏层,如下图所示是一个含有5个隐藏单元的网络。

动手学深度学习笔记day1:线性回归模型、softmax分类模型、多层感知机_第5张图片

2.表达公式

动手学深度学习笔记day1:线性回归模型、softmax分类模型、多层感知机_第6张图片

3.激活函数

      以上式子表明全连接层对数据进行仿射变换,多个仿射变换仍是一个仿射变换,因而需要引入非线性变换。使用的非线性函数称为激活函数(activation function)。以下为几种常见的激活函数。

3.1 ReLU函数

3.2 Sigmoid函数

3.3 tanh函数

3.4 如何选择激活函数

      ReLu函数是一个通用的激活函数,目前在大多数情况下使用。但是,ReLU函数只能在隐藏层中使用。

用于分类器时,sigmoid函数及其组合通常效果更好。由于梯度消失问题,有时要避免使用sigmoid和tanh函数。

在神经网络层数较多的时候,最好使用ReLu函数,ReLu函数比较简单计算量少,而sigmoid和tanh函数计算量大很多。

在选择激活函数的时候可以先选用ReLu函数如果效果不理想可以尝试其他激活函数。

 

4.多层感知机

       多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换。多层感知机的层数和各隐藏层中隐藏单元个数都是超参数。以单隐藏层为例并沿用本节之前定义的符号,多层感知机按以下方式计算输出:

 

 

你可能感兴趣的:(动手学深度学习笔记day1:线性回归模型、softmax分类模型、多层感知机)