特征工程的几种常见方法

特征归一化

目的:将所有的数值型特征归一化到一个固定的区间

Why:以使用梯度下降算法作为优化算法的模型为例,归一化好的特征能够帮助模型更快的迭代,找到最优解

How: 线性归一化、均值归一化

缺点:对于梯度下降算法的模型比较有用,对决策树一类的模型,无需归一化

特征编码

目的:有些模型转化成数值型特征才能继续工作

Why: 对于某些字符串特征无法直接编码,需要转化成数字编码

How:

  • 序号编码:将编码转化成多个序号 比如 高、中、低 对应 1 2 3
  • 独热编码:高、中、低 分别对应(1,0,0)、(0,1,0)、(0,0,1)
  • Hash编码:
  • 数字编码: 目标字符串在给定字符串中有相同字符的个数
  • 二进制编码:高、中、低 分别对应 00、01、10
  • Helmert Contrast、Sum Contrast
  • Embedding 编码,能体现相似实体之间关系的编码方式
  • NaN编码:为空值编码
  • 多项式编码:多项式核可以解决线性算法无法解决 XOR问题
  • 范围编码:每个范围算一个值
  • 分层范围编码,将独热编码与范围编码相组合
  • 限定值的编码:求根号,求log等
  • 事件编码:节假日,星期日等编码
  • 时空编码:GPS-coordinates, cities,countries, addresses

缺点:编码种类众多,如何选择适合的编码是个问题

自然语言的特征清洗过程

组合特征

目的:如果一类特征有特别多的特征类别,容易发生过拟合,可以使用基于决策树的特征组合寻找方法,将特征判别组合成一条决策树的路径,在路径上进行二分类,得到特征的选择。

特征提取

目的:找到一个线性变换,在降低维度的情况下,使得关注的结果最优

LDA:线性判别分析

​ 大致思路:将两部分内容映射到一个超平面上,使得同类样本之间的协方差最小,不同类样本集合的中心距离最大,可以用作降维,或者进行有监督分类

PCA:

​ 大致思路:选择投影后使得数据方差最大的方向来投影,将原始数据转化为一组各维度线性无关的表示,与LDA最大区别为无监督,收益函数是重构后的矩阵各字段两两之间协方差为0,字段方差尽可能大

ICA:

​ 大致思路:

特征选择

3.1 相关性分析

  1. GBDT 特征分析,选择信息增益最大的特征
  2. 尝试组合不同时间窗口的模型组合,最后再来做融合,模型效果会有提升

你可能感兴趣的:(特征工程的几种常见方法)