1、决策树易于理解和解释,可以可视化分析,容易提取出规则。
2、可以同时处理标称型和数值型数据。
3、测试数据集时,运行速度比较快。
4、决策树可以很好的扩展到大型数据库中,同时它的大小独立于数据库大小。
1、对缺失数据处理比较困难。
2、容易出现过拟合问题。
3、忽略数据集中属性的相互关联。
4、ID3算法计算信息增益时结果偏向数值比较多的特征。
1、对决策树进行剪枝。可以采用交叉验证法和加入正则化的方法。
2、使用基于决策树的combination算法,如bagging算法,randomforest算法,可以解决过拟合的问题。
ID3算法是以信息论为基础,以信息熵和信息增益度为衡量标准,从而实现对数据的归纳分类。ID3算法计算每个属性的信息增益,并选取具有最高增益的属性作为给定的测试属性。C4.5算法核心思想是ID3算法,是ID3算法的改进,改进方面有:
优点:
产生的分类规则易于理解,准确率较高。
缺点:
1)在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效;
2)C4.5只适合于能够驻留于内存的数据集,当训练集大得无法在内存容纳时程序无法运行。
增益率计算:
各个特征的固有值IV(a):
特征a的取值数量越多,则IV(a)越大
信息增益及信息熵增:
a:样本集中的某一特征
Dv:某特征所有取值为v 的样本的集合
信息熵计算:
是一种决策树分类方法,采用基于最小距离的基尼指数估计函数,用来决定由该子数据集生成的决策树的拓展形。如果目标变量是标称的,称为分类树;如果目标变量是连续的,称为回归树。分类树是使用树结构算法将数据分成离散类的方法。
优点:
1)非常灵活,可以允许有部分错分成本,还可指定先验概率分布,可使用自动的成本复杂性剪枝来得到归纳性更强的树。
2)在面对诸如存在缺失值、变量数多等问题时CART 显得非常稳健。
基尼指数:
那给定一个训练集,它的基尼指数又是什么呢? 假设训练集中有K类,C1,C2,C3…Ck 那么其基尼指数为:
和上式的第二项对应,更进一步,如果训练样本被特征A的是否取某一个值a而被分成D1和D2两部分,那么在特征A的条件下的基尼指数为:
相当于对根据特征A划分的两个小集合分别求基尼指数然后根据经验概率取期望得到特征A下的D的基尼指数。基尼指数表示集合D的不确定性,而基尼指数Gini(D,A)表示经A=a分割后集合的不确定性,基尼指数越大,集合不确定性就越大,这跟熵的概念类似,心细的读者也发现,本篇文章和上篇在公式上有诸多相似之处。
优点 :
1)KNN是一种在线技术,新数据可以直接加入数据集而不必进行重新训练
2)KNN理论简单,容易实现
缺点:
1)对于样本容量大的数据集计算量比较大。
2)样本不平衡时,预测偏差比较大。如:某一类的样本比较少,而其它类样本比较多。
3)KNN每一次分类都会重新进行一次全局运算。
4)k值大小的选择。
应用领域:
文本分类、模式识别、聚类分析,多分类领域
支持向量机是一种基于分类边界的方法。其基本原理是(以二维数据为例):如果训练数据分布在二维平面上的点,它们按照其分类聚集在不同的区域。基于分类边界的分类算法的目标是,通过训练,找到这些分类之间的边界(直线的――称为线性划分,曲线的――称为非线性划分)。对于多维数据(如N维),可以将它们视为N维空间中的点,而分类边界就是N维空间中的面,称为超面(超面比N维空间少一维)。线性分类器使用超平面类型的边界,非线性分类器使用超曲面。
支持向量机的原理是将低维空间的点映射到高维空间,使它们成为线性可分,再使用线性划分的原理来判断分类边界。在高维空间中是一种线性划分,而在原有的数据空间中,是一种非线性划分。
优点:
1)解决小样本下机器学习问题。
2)解决非线性问题。
3)无局部极小值问题。(相对于神经网络等算法)
4)可以很好的处理高维数据集。
5)泛化能力比较强。
缺点:
1)对于核函数的高维映射解释力不强,尤其是径向基函数。
2)对缺失数据敏感。
应用领域:
文本分类、图像识别、主要二分类领域
优点:
1)对大数量训练和查询时具有较高的速度。即使使用超大规模的训练集,针对每个项目通常也只会有相对较少的特征数,并且对项目的训练和分类也仅仅是特征概率的数学运算而已。
2)支持增量式运算。即可以实时的对新增的样本进行训练。
3)朴素贝叶斯对结果解释容易理解。
缺点:
由于使用了样本属性独立性的假设,所以如果样本属性有关联时其效果不好。
应用领域:
文本分类、欺诈检测中使用较多
优点:
计算代价不高,易于理解和实现
缺点:
1)容易产生欠拟合。
2)分类精度不高。
应用领域:
用于二分类领域,可以得出概率值,适用于根据分类概率排名的领域,如搜索排名等。
Logistic回归的扩展softmax可以应用于多分类领域,如手写字识别等。
是一个简单的聚类算法,把n的对象根据他们的属性分为k个分割,k< n。算法的核心就是要优化失真函数J,使其收敛到局部最小值但不是全局最小值。
其中N为样本数,K是簇数,rnk b表示n属于第k个簇,uk 是第k个中心点的值。然后求出最优的uk
优点:
算法速度很快
缺点:
分组的数目k是一个输入参数,不合适的k可能返回较差的结果。
EM算法是基于模型的聚类方法,是在概率模型中寻找参数最大似然估计的算法,其中概率模型依赖于无法观测的隐藏变量。E步估计隐含变量,M步估计其他参数,交替将极值推向最大。
EM算法比K-means算法计算复杂,收敛也较慢,不适于大规模数据集和高维数据,但比K-means算法计算结果稳定、准确。EM经常用在机器学习和计算机视觉的数据集聚(Data Clustering)领域。
AdaBoost算法优点
1)很好的利用了弱分类器进行级联。
2)可以将不同的分类算法作为弱分类器。
3)AdaBoost具有很高的精度。
4)相对于bagging算法和Random Forest算法,AdaBoost充分考虑的每个分类器的权重。
Adaboost算法缺点
1)AdaBoost迭代次数也就是弱分类器数目不太好设定,可以使用交叉验证来进行确定。
2)数据不平衡导致分类精度下降。
3)训练比较耗时,每次重新选择当前分类器最好切分点。
AdaBoost应用领域
模式识别、计算机视觉领域,用于二分类和多分类场景
神经网络优点:
1)分类准确度高,学习能力极强。
2)对噪声数据鲁棒性和容错性较强。
3)有联想能力,能逼近任意非线性关系。
神经网络缺点:
1)神经网络参数较多,权值和阈值。
2)黑盒过程,不能观察中间结果。
3)学习过程比较长,有可能陷入局部极小值。
人工神经网络应用领域:
目前深度神经网络已经应用与计算机视觉,自然语言处理,语音识别等领域并取得很好的效果。
PageRank是google的页面排序算法,是基于从许多优质的网页链接过来的网页,必定还是优质网页的回归关系,来判定所有网页的重要性。(也就是说,一个人有着越多牛X朋友的人,他是牛X的概率就越大。)
PageRank优点:
完全独立于查询,只依赖于网页链接结构,可以离线计算。
PageRank缺点
1)PageRank算法忽略了网页搜索的时效性。
2)旧网页排序很高,存在时间长,积累了大量的in-links,拥有最新资讯的新网页排名却很低,因为它们几乎没有in-links。
Apriori算法是一种挖掘关联规则的算法,用于挖掘其内含的、未知的却又实际存在的数据关系,其核心是基于两阶段频集思想的递推算法 。
Apriori算法分为两个阶段:
1)寻找频繁项集
2)由频繁项集找关联规则
算法缺点:
1) 在每一步产生侯选项目集时循环产生的组合过多,没有排除不应该参与组合的元素;
2) 每次计算项集的支持度时,都对数据库中 的全部记录进行了一遍扫描比较,需要很大的I/O负载。