机器学习学习笔记(八)多项式回归与模型泛化

对非线性的数据进行处理,相应的预测

----添加新的特征:原有的特征进行多项式组合

scikit-learn中的多项式回归

PolynomialFeatures构建特征

导包:from sklearn.preprocessing importPolynomialFeatures

实例:poly=PolynomialFeatures(degree=2)##最多二次幂特征

poly.fit(X)

X2=poly.transform(X)

线性回归:

from sklearn.linear_model import LinearRegression

lin_reg2=LinearRegression()

lin_reg2.fit(X2,y)

y_predict2=lin_reg2.predict(X2)

绘制:plt.scatter(x,y)

plt.plot(np.sort(x),y_predict2[np.argsort(x)],color='red')


Pipeline

将三步合成在一起:多项式的特征,数据的归一化,线性回归。

导包:from sklearn.pipeline import Pipeline

from sklearn.preprocessing import StandardScaler

创建管道:

poly_reg=Pipeline([

   ("poly",PolynomialFeatures(degree=2)),

   ("std_scaler",StandardScaler()),

   ("lin_reg",LinearRegression())

])

fit:poly_reg.fit(X,y)

预测:y_predict=poly_reg.predict(X)

绘制:plt.scatter(x,y)

plt.plot(np.sort(x),y_predict[np.argsort(x)],color='red')


过拟合(Overfitting)和欠拟合(Underfitting)

欠拟合(Underfitting):算法所训练的模型不能完整表述数据关系

过拟合(Overfitting):算法所训练的模型过多地表达了数据间的噪音关系

例子:分类判断是猫还是狗?


欠拟合:比如,模型分别出来有眼睛的都是狗或者猫,这种特征太普遍了,太一般了其他动物都是有眼睛的。

过拟合:狗的毛发是黄色的。因为可能只有这只狗的毛发是黄色的。特征太细节。

学习曲线:随着训练样本的逐渐增多,算法训练处的模型的表现能力

交叉验证


导包:

from sklearn.model_selection import cross_val_score

knn_clf=KNeighborsClassifier()

cross_val_score(knn_clf,X_train,y_train)

k-folds交叉验证:把训练数据集分成k份,称为k-folds cross validation

缺点:每次训练k个模型,相当于整体性能慢了k倍

留一法LOO-CV:把训练数据集分成m份,成为留一法Leave-One-Out Cross Validaion

完全不受随机的影响,最接近模型真正的性能指标。

缺点:计算量巨大

偏差方差权衡 Bias Variance Trade off

模型误差=偏差(Bias)+方差(Variance)+不可避免的误差

偏差Bias

导致偏差的主要原因:对问题本身的假设不正确。例如:非线性数据使用线性回归;欠拟合;使用的特征本身离问题之间高度不相关

高偏差的算法:线性回归;参数学习的算法,因为对数据具有极强的假设

方差

数据的一点点扰动都会较大地影响模型。

通常原因:使用的模型太复杂。例如高阶多项式回归;过拟合

高方差的算法:KNN;非参数学习的算法,因为不对数据进行任何假设

大多数算法具有相应的参数,可以调整偏差和方差。例如KNN中的k;线性回归中的多项式回归。

偏差和方差通常是矛盾的。

降低偏差,会提高方差。

降低方差,会提高偏差。

机器学习的主要挑战来自于方差!

降低高方差的通常手段:

(1)降低模型复杂度

(2)减少数据维度;降噪

(3)增加样本数

(4)使用验证集合

(5)模型正则化

模型正则化Regularization



岭回归

from sklearn.linear_model import Ridge

def RidgeRegression(degree,alpha):

    return Pipeline([

   ('poly',PolynomialFeatures(degree=degree)),

   ('std_scaler',StandardScaler()),

    ('ridge_reg',Ridge(alpha=alpha))

    ])

LASSO回归(Least Absolute Shrinkage and Selection Operator Regression)

导包:from sklearn.linear_model import Lasso

封装:def LasssoRegression(degree,alpha):

    return Pipeline([('poly',PolynomialFeatures(degree=degree)),

                    ('std_scaler',StandardScaler()),

                    ('lasso_reg',Lasso(alpha=alpha))

    ])

使用:

lasso1_reg=LasssoRegression(20,0.01)

lasso1_reg.fit(X_train,y_train)

y1_predict=lasso1_reg.predict(X_test)

mean_squared_error(y_test,y1_predict)

plot_model(lasso1_reg)

 L1,L2弹性网络

意思是:让theta越小越好。 实际用L1取代,因为L0正则的优化是一个NP难的问题。

弹性网结合了岭回归和LASSO回归的优势,通常正则化最先尝试的是岭回归(计算精准,缺点:不能特征选择)然后选择弹性网,最后选择LASSO回归。

你可能感兴趣的:(机器学习学习笔记(八)多项式回归与模型泛化)