岭回归——线性回归算法

岭回归:

岭回归(英文名:ridge regression, Tikhonov regularization)是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘法。

通过sklearn机器学习工具库
代码十分简洁,内有详细步骤和解释。
直接复制,带入数据,进行调用即可出结果,模型参数设置见文末

def Ridge_Regression(X_train, Y_train, X_test, Y_test):
    """
    X_train: 特征训练集
    Y_train: 标注训练集
    X_test: 特征测试集
    Y_test: 标注测试集
    """

    # 01.创建模型
    from sklearn.linear_model import Ridge
    Ridge_model = Ridge(alpha=0.1)

    # 02.训练模型
    Ridge_model = Ridge_model.fit(X_train, Y_train)

    # 03.模型预测
    Y_pred = Ridge_model.predict(X_test)

    # 04.模型评价
    from sklearn.metrics import mean_squared_error
    print('MSE:', mean_squared_error(Y_test, Y_pred))

    # 05.输出模型参数
    print('coef:', Ridge_model.coef_)
    print('intercept:', Ridge_model.intercept_)

    return

模型参数:

参数alpha:惩罚项系数,取值范围为:0-1,取0时等同于最小二乘法

这里的模型评价指标选择了:
均方误差MSE

在上面代码中都是针对测试集的效果,也可以对训练集进行预测,然后评价训练集的效果,综合比较,可以看看是否会出现过拟合现象。

输出的模型参数:

· coef_:回归系数
· intercept_:常数项(截距)
……
更多的模型参数,见官网

你可能感兴趣的:(【Python】机器学习,算法,回归,线性回归)