python进行多元非线性回归_免费Python机器学习课程二:多元线性回归

从头开始学习为Python中任意数量的变量开发多元线性回归。

线性回归可能是最简单的机器学习算法。对于初学者来说非常好,因为它使用简单的公式。因此,这对学习机器学习概念很有帮助。在本文中,我将尝试逐步解释多元线性回归。

概念和公式

线性回归使用我们在学校都学过的简单公式:

Y = C + AX

提醒一下,Y是输出或因变量,X是输入或自变量,A是斜率,C是截距。

对于线性回归,对于相同的公式,我们遵循以下符号:

如果我们有多个自变量,则线性回归的公式将如下所示:

在这里," h"称为假设。这是预测的输出变量。Theta0是偏差项,所有其他theta值是系数。它们首先是随机启动的,然后使用算法进行优化,以便此公式可以紧密预测因变量。

成本函数和梯度下降

当theta值从一开始就被初始化时,该公式未经过训练以预测因变量。该假设与原始输出变量" Y"相去甚远。这是估算所有训练数据的累积距离的公式:

这称为成本函数。如果您注意到了,它从假设(预测输出)中减去y(原始输出),取平方去掉负数,求和除以2乘以m。在此,m是训练数据的数量。您可能会看到成本函数是原始输出和预测输出之间差异的指示。机器学习算法的思想是最小化成本函数,以使原始输出与预测输出之间的差异更小。为此&

你可能感兴趣的:(python进行多元非线性回归)