机器学习模型缺一不可的REF的特征选择神器

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 一、RFE是什么?
  • 二、使用步骤
    • 1.案例
    • 2.参数解析
  • 总结


前言

`如何用RFE选择重要特征的比例,并保留下来。特征的选择对于模型的训练速度和精度有着巨大的影响,如何用合适的特征是非常重要的。


提示:以下是本篇文章正文内容,下面案例可供参考

一、RFE是什么?

RFE:递归特征删除法是不断训练模型,每次训练完毕删除掉n个重要性低的特征,然后对新的特征再次进行训练,又一次得到特征重要性,再次删除n个重要性低的特征,直到特征数满足自己的设定。

二、使用步骤

1.案例

代码如下(示例):

from sklearn.linear_model import Lasso
from sklearn.feature_selection import RFE
warnings.filterwarnings('ignore')
lasso = Lasso()
ref = REF(lasso,7)
ref.fit(x,y)
X= x.loc[:,ref.get_support]
data= pd.concat([X,y],axis=1)合并特征和目标值
df = pd.dateframe(data)
a=df.corr()使用皮尔逊相关系数查看特征的相关性
print(a)

机器学习模型缺一不可的REF的特征选择神器_第1张图片

2.参数解析

REF()里面第一个参数用lasso/岭回归比lr更稳定,第二个参数所选参数量
用rfe.get_support选择留下排名前第二个参数的数量


总结

在工作中,这个方法对于机器学习模型训练速度和表现起到非常重要的意义,各位家人们可以试试。

你可能感兴趣的:(机器学习,python,人工智能)