连续特征离散化--汇总

说明:本文内容来自网络,此处仅是简单汇总

内容一

来源:https://www.cnblogs.com/-Sai-/p/6707327.html

 在工业界,很少直接将连续值作为逻辑回归模型的特征输入,而是将连续特征离散化为一系列0、1特征交给逻辑回归模型,这样做的优势有以下几点:

  1. 离散特征的增加和减少都很容易,易于模型的快速迭代;
  2. 稀疏向量内积乘法运算速度快,计算结果方便存储,容易扩展;
  3. 离散化后的特征对异常数据有很强的鲁棒性:比如一个特征是年龄>30是1,否则0。如果特征没有离散化,一个异常数据“年龄300岁”会给模型造成很大的干扰;
  4. 逻辑回归属于广义线性模型,表达能力受限;单变量离散化为N个后,每个变量有单独的权重,相当于为模型引入了非线性,能够提升模型表达能力,加大拟合;
  5. 离散化后可以进行特征交叉,由M+N个变量变为M*N个变量,进一步引入非线性,提升表达能力;
  6. 特征离散化后,模型会更稳定,比如如果对用户年龄离散化,20-30作为一个区间,不会因为一个用户年龄长了一岁就变成一个完全不同的人。当然处于区间相邻处的样本会刚好相反,所以怎么划分区间是门学问;
  7. 特征离散化以后,起到了简化了逻辑回归模型的作用,降低了模型过拟合的风险。

李沐曾经说过:模型是使用离散特征还是连续特征,其实是一个“海量离散特征+简单模型” 同 “少量连续特征+复杂模型”的权衡。既可以离散化用线性模型,也可以用连续特征加深度学习。就看是喜欢折腾特征还是折腾模型了。通常来说,前者容易,而且可以n个人一起并行做,有成功经验;后者目前看很赞,能走多远还须拭目以待。

 

内容二

来源:https://wenku.baidu.com/view/a6cffadd5122aaea998fcc22bcd126fff7055dd1.html

连续特征离散化是采取各种方法将连续的区间划分为小的区间,并将这连续的小区间
连续特征离散化的本质是:决定选择多少个分割点和确定分割点的位置。 

离散化处理的一般过程为: 

  1. 对连续特征值按照某种指定的规则进行排序 
  2. 初步确定连续属性的划分断点 
  3. 按照某种给定的判断标准继续分割断点或合并断点 
  4. 如果第三步得到判断标准的终止条件,则终止整个连续特征离散化的过程,否则继续按第三步执行

 
离散化方法的分类:
主要的分类体系有无监督的和有监督的(又分为建立在错误码率、熵值或者统计信息基础上的离散化方法,典型代表是等频、等宽的连续特征离散化方法)、动态的和静态的、全局的和局部的、分列式的(从上至下)和合并式的(从下至上) 、单变量的和多变量的以及直接的和增量式的。

离散化方法的评价 

  • 区间的个数:是对模型简洁性的要求 
  • 离散化所导致的不一致性:离散化后的不一致性不能比离散化之前高。 
  • 预测准确性:通常通过交叉检验模式建立分叉树来衡量。 
  • 具有最简单的离散化结果 

优点: 

  • 易于模型的快速迭代 
  • 稀疏向量内积乘法运算速度快,计算结果方便存储,容易扩展 
  • 离散化后的特征对异常数据有很强的鲁棒性 
  • 提升了逻辑回归模型的表达能力,加大拟合 
  • 模型更稳定 
  • 简化逻辑回归模型,降低其过拟合风险 

没有任何离散化算法可以适用于任何环境下,在实际应用时需要根据数据集的特点和学习环境等选择合适的离散化方法, 而关联规则分析中的离散化既需要考虑各特征间的内在联系,又需要考虑在没有类信息的情况下对数据集进行有效的离散化。

你可能感兴趣的:(机器学习)