机器学习课后题——线性回归模型

第5章 线性回归模型

5.1 试分析在什么情况下,式fx=wTx+b 不必考虑偏置项b。

答:我的看法是,如果样本 x  中有某一个属性 xi  为固定值时,wixi+b 等价于偏置项。

即此时  wixi+b  与 b  等价,不必考虑偏置项b。

5.2为研究某化学反应过程中,温度x对产品得率y的影响,测得数据如下:

温度(℃) 100  110  120  130  140  150  160  170  180  190

得率(%)   45    51  54   61   66    70   74   78   85   89

根据上述实验数据,建立一元线性回归方程。当温度为200℃时,得率是多少。

解:首先计算相关系数:

rxy=xi-xyi-yxi-x2yi-y2=0.998

可知y与x高度相关,可以使用回归模型:

设一元回归模型为:

y=wx+b

则:

w=10×101570-1450×67310×218500-14502=0.483

b=67310-0.483×145010=-2.735

所以,回归方程为:

y=0.483x-2.735

带入,x=200 ,得y=93.865

5.3 梯度下降法找到的一定是下降最快的方向么?

答: 不一定是,梯度下降只是‘局部最优下降’,梯度下降法并不是下降最快的方向,它只是目标函数在当前的点的高维切平面上下降最快的方向。

5.4 判断下列说法是否正确,并说明理由。

(1)逻辑回归是监督机器学习的算法.

答:正确

逻辑回归(Logistic Regression,LR)是一种广义的线性回归分析模型, 它使用了真值对数据进行训练,需要打标数据,所以应该属于监督学习算法。

(2)逻辑回归主要用来做回归。

答:错误

逻辑回归可以用在回归、二分类和多分类等问题上,主要用来处理分类问题

(3)在训练逻辑回归模型之前,对特征进行标准化是必须的。

    答:错误

特征标准化的主要目的是实现模型的最优化,并不是必要过程。

你可能感兴趣的:(机器学习,机器学习,逻辑回归)