常见分类算法应用范围/数据要求

是的,下面有几个其他算法的具体介绍

单一的分类算法:决策树、贝叶斯、人工神经网络、K-近邻、支持向量机和基于关联规则的分类,HMM

组合分类算法:Bagging和Boosting

k-近邻(kNN,k-Nearest Neighbors)算法

找出与未知样本x距离最近的k个训练样本,看这k个样本中多数属于哪一类,就把x归为那一类。

模型输入要求:连续值,类别型变量需进行one-hot编码,由于是计算距离,有必要对数据进行归一化

模型重要参数:K值及距离的定义

优点:易于理解和实现

缺点:计算量大,复杂度高,不适合实时场景

应用场景:图像压缩

   2.朴素贝叶斯

利用Bayes定理来预测一个未知类别的样本属于各个类别的可能性,选择其中可能性较大的一个类别作为该样本的最终类别

模型输入要求:连续值需离散化成概率密度,如高斯模型 http://blog.csdn.net/u012162613/article/details/48323777,同时贝叶斯的输入为概率,因此需要非负

模型重要参数:

优点:生成式模型,通过计算概率来进行分类,可以用来处理多分类问题,对小规模的数据表现很好,适合多分类任务,适合增量式训练,算法也比较简单。

缺点:需要一个很强的条件独立性假设前提

应用场景:文本分类(如:垃圾邮件识别)

3.神经网络

神经网络(Artificial Neural Networks,ANN)是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型

模型输入要求:归一化特征

模型重要参数:网络层数及节点数

优点:具有实现任何复杂非线性映射的功能

缺点:收敛速度慢、计算量大、训练时间长,易收敛到局部最优

应用场景:图像处理,模式识别

4.支持向量机

根据结构风险最小化准则,以较大化分类间隔构造最优分类超平面来提高学习机的泛化能力

模型输入:二分类,归一化

模型重要参数:核函数

优点:可以解决小样本情况下的机器学习问题,可以解决高维问题 可以避免神经网络结构选择和局部极小点问题

缺点:核函数敏感,不加修改的情况下只能做二分类

应用场景:高维文本分类,小样本分类

 5.决策树

决策树(decision tree)是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别

模型输入:可处理连续值,类别型变量需one-hot

模型重要参数:树的高度

优点:超强的学习能力和泛化能力,训练速度快

缺点:易过拟合,改进为随机森林(Random Forest, RF)

应用场景:搜索排序

 6.LR

根据现有数据对分类边界线建立回归公式,依次进行分类

模型输入:连续值需离散化,类别型变量需one-hot

模型重要参数:输入特征离散化

优点:训练速度快,适合实时场景

缺点:拟合能力较差,不能处理非线下场景,需要人为设置组合特征

应用场景:各种实时系统:如ctr 预估
转自 http://f.dataguru.cn/thread-896022-1-1.html

你可能感兴趣的:(基础算法,分类算法)