HBU-NNDL 第三章习题作业

习题3-2

在线性空间中,证明一个点到平面(; ) =w^{T}x+b = 0的距离为|(; )|/‖‖。

HBU-NNDL 第三章习题作业_第1张图片

取平面(; ) = 0中任意一点x_{0},得到向量\overrightarrow{x_{0}x}(即x-x_{0}),其中点x到平面的距离d为向量\overrightarrow{x_{0}x}在平面法向量w上的投影,d=\left | \left | \overrightarrow{x_{0}x} \right | \right |\cdot cos\theta,θ为\overrightarrow{x_{0}x}与法向量w的夹角。

cos\theta=\frac{\left | \overrightarrow{x_{0}x}\cdot w \right |}{\left \| \overrightarrow{x_{0}x}\right \|\left \| w \right \|}=\frac{\left | \overrightarrow{x}\cdot w - \overrightarrow{x_{0}\cdot }w\right |}{\left \| \overrightarrow{x_{0}x} \right \|\left \| w \right \|}=\frac{\left | f(x;w)-f(x_{0};w) \right |}{\left \| \overrightarrow{x_{0}x}\right \|\left \| w \right \|}

因为点x_{0}在平面f(x;w)内,所以有

cos\theta=\frac{\left | f(x;w) \right |}{\left \| \overrightarrow{x_{0}x}\right \|\left \| w \right \|}

带入d中得:

d=\frac{\left | f(x;w) \right |}{\left \| w \right \|}

习题3-5

在Logistic回归中,是否可以用\hat{y}=\sigma (w^{T}x)去逼近正确的标签,并用平方损失(y-\hat{y})^{2}最小化来优化参数?

不可以。

       logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。

sigmoid:使大的值更大、小的值更小(数值被归整到0-1之间);多用于二分类问题。

线性回归的输出使用sigmoid激活后成为logistic回归,logistic 回归能实现非线性特征变换,这也就是加深网络的意义。

softmax:使所有的值之和为1(保持数值间的大小关系);可用于多标签分类问题。

sigmoid 处理的是单个输入值,不关注整体输入数据的关系。softmax 处理的是单个与整体的输入值,关注整体输入数据的关系。

logistic回归不能用均方误差,在使用One-Hot编码表示分类问题的真实标签的情况下,我们使用平方损失函数计算模型的预测损失时会计算预测标签中每一个类别的可能性与真实标签之间的差距。
若我们想要得到更小的损失则需要模型预测得到的预测标签整体与One-Hot编码的真实标签相近,这对于模型来说计算精度要求过高,在分类我们上我们往往只关注模型对数据的真实类别的预测概率而不关注对其他类别的预测概率。所以对分类问题来说,平方损失函数不太适用。

习题3-6

在 Softmax 回归的风险函数(公式 (3.39))中,如果加上正则化项会有什么影响?

        Softmax回归中使用的个权重向量是冗余的,即对所有的权重向量都减去一个同样的向量 ,不改变其输出结果。因此,Softmax回归往往需要使用正则化来约束其参数。此外,我们还可以利用这个特性来避免计算Softmax函数时在数值计算上溢出问题。

你可能感兴趣的:(HBU-NNDL 第三章习题作业)