如何进行变量筛选和特征选择(二)?最优子集回归

01 模型简介

最优子集回归是多元线性回归方程的自变量选择的一类方法。从全部自变量所有可能的自变量组合的子集回归方程中挑选最优者。如m个自变量会拟合2m-1个子集回归方程,然后用回归方程的统计量作准则(如交叉验证误差、Cp、BIC、调整R2等指标)从中挑选。
采用的R包是leaps,函数是regsubsets()。

结合一个线性回归的例子,和大家分享一下如何运用R软件实现最优子集回归。

02 加载数据

加载包和读取数据

library(glmnet)
load(file="Lineartest")
data <- Lineartest

03 数据相关性可视化表达

library(corrplot)
data.cor <- cor(data)
corrplot(data.cor, method = "ellipse") #是否提示多重共线性问题

运用cor()函数得到数据的相关系数矩阵,将相关系数矩阵作图,可以直观看出共线性:每个格子中椭圆面积越小,表示相关性越强。

相关性矩阵.png

04 采用regsubsets() 筛选

library(leaps)
sub.fit <- regsubsets(BSAAM ~ ., data = data)# 执行最优子集回归
best.summary <- summary(sub.fit)
按照模型评价标准找到评价指标
which.min(best.summary$cp)#马洛斯Cp值
which.max(best.summary$adjr2) #调整R2
which.min(best.summary$bic) #贝叶斯信息准则

执行最优子集回归后返回的是自变量组合的子集回归方程,以及每个回归方程对应的评价指标,采用which函数选取最优的回归方程。其中调整R2越大越好,马洛斯Cp越小越好。

05 变量筛选

将返回结果的调整R2作图,可以看到在模型变量个数为3的时候,调整R2最大。

plot(best.summary$adjr2, type = "l",xlab = "numbers of Features", 
     ylab = "adjr2",main = "adjr2 by Feature Inclusion")
调整R2.png

究竟是哪些变量是入选的最优变量呢?可做图观察,图横坐标为自变量,纵坐标是调整R2,且最上面的变量搭建的回归方程的调整R2是最大的,同时利用coef()可以查看最优回归方程的回归系数,结合来看变量APSLAKE、OPRC和OPSLAKE是筛选出来的变量。

plot(sub.fit, scale = "adjr2",main = "Best Subset Features")
coef(sub.fit, 3)
(Intercept)     APSLAKE      OPRC      OPSLAKE 
15424.597    1712.481    1797.465    2389.838 
最优子集展示.png

06 多重共线性检查

将筛选的变量建模并进行共线性检查,方差膨胀系数大于5说明有严重的共线性。对这两个强相关的变量,我们分别做模型,挑选调整R2大的模型。最终我们保留f3模型。

f2 <- lm(BSAAM ~ APSLAKE + OPRC + OPSLAKE, data = data)
vif(f2)
APSLAKE     OPRC     OPSLAKE 
1.011499  6.452569   6.444748
####这两个强相关的变量分别做模型,挑选R2 大的模型
f3 <- lm(BSAAM ~ APSLAKE + OPSLAKE, data = data)#调整R2:0.9002
f4 <- lm(BSAAM ~ APSLAKE + OPRC, data = data)#调整R2:0.862

以上就是本次跟大家分享的内容,觉得有用的话点赞、留言哦~

你可能感兴趣的:(如何进行变量筛选和特征选择(二)?最优子集回归)