E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
集成学习
【译】使用H2O进行
集成学习
【2】
使用H2O进行
集成学习
介绍
集成学习
就是组合多个机器学习算法,从而得到更好的预测性能。许多流行的现代机器学习算法实际上就是集成。
aloneme
·
2017-03-02 00:00
机器学习
r
机器学习算法总结--提升方法
boosting和baggingboosting和bagging都是
集成学习
(ensemblelearn
spearhead_cai
·
2017-02-22 20:14
机器学习
算法
R语言分类算法之
集成学习
(Bootstrap Aggregating)
1.
集成学习
(BootstrapAggregating)原理分析:Bagging是BootstrapAggregating的缩写,简单来说,就是通过使用boostrap抽样得到若干不同的训练集,以这些训练集分别建立模型
Claroja
·
2017-02-16 10:11
R语言
知识点总结之学习方式
知识点总结之学习方式最近学习了一些机器学习方面的知识点,由于这些知识点比较零散没有系统性,这里我将参考了一些资料并对这些知识点进行了整理总结,对机器学习方面的学习方式进行了扫盲性的介绍,初步总结如下:目录增强学习主动学习直推学习半监督学习自训练协同训练
集成学习
生成学习判别学习迁移学习多任务学习自我学习领域自适应注意力机制增强学习增强学习
AndrewLee_
·
2017-02-10 15:24
机器学习
学习方式
利用sklearn进行
集成学习
之调参
转自:http://www.cnblogs.com/jasonfreak/p/5720137.html目录1RandomForest和GradientTreeBoosting参数详解2如何调参?2.1调参的目标:偏差和方差的协调2.2参数对整体模型性能的影响2.3一个朴实的方案:贪心的坐标下降法2.3.1RandomForest调参案例:DigitRecognizer2.3.1.1调整过程影响类参
Cherzhoucheer
·
2017-02-09 14:00
机器学习
sklearn
利用sklearn进行
集成学习
之调参
转自:http://www.cnblogs.com/jasonfreak/p/5720137.html目录1RandomForest和GradientTreeBoosting参数详解2如何调参?2.1调参的目标:偏差和方差的协调2.2参数对整体模型性能的影响2.3一个朴实的方案:贪心的坐标下降法2.3.1RandomForest调参案例:DigitRecognizer2.3.1.1调整过程影响类参
Cherzhoucheer
·
2017-02-09 14:00
机器学习
sklearn
利用sklearn进行
集成学习
之相关理论
转自http://www.cnblogs.com/jasonfreak/p/5657196.html
集成学习
的几个主要算法讲的精简易懂,特别是
集成学习
过程中的调参涉及到的理论部分,特别是对偏差和方差有了更直观的理解
Cherzhoucheer
·
2017-02-07 20:27
机器学习
sklearn
利用sklearn进行
集成学习
之相关理论
转自http://www.cnblogs.com/jasonfreak/p/5657196.html
集成学习
的几个主要算法讲的精简易懂,特别是
集成学习
过程中的调参涉及到的理论部分,特别是对偏差和方差有了更直观的理解
Cherzhoucheer
·
2017-02-07 20:27
机器学习
sklearn
机器学习系列:(五)决策树——非线性回归与分类
之后,我们介绍
集成学习
(lensemblelea
cjianwyr
·
2017-02-07 10:09
AI
机器学习算法——
集成学习
概念
集成学习
是机器中一个非常重要且热门的分支,用多个弱分类器构成一个强分类器,其哲学思想是“三个臭皮匠赛过诸葛亮”。为什么要集成?
Cherzhoucheer
·
2017-02-06 19:50
机器学习
python
集成学习
---如何增强个体学习器的多样性
简单地利用初始数据训练出的个体学习器多样性一般比较差,我们可以在学习过程中利用对数据样本、输入属性、输出表示、算法参数进入扰动引入随机性来增强个体学习器的多样性。数据样本扰动数据样本扰动对“不稳定基学习器”很有效,这样的“不稳定基学习器”主要有决策树、神经网络。训练样本稍微有些变化就会导致学习器有显著的变动。而有些基学习器对数据样本的扰动是不敏感的,比如线性学习器、支持向量机、朴素贝叶斯、K近邻学
qq_27717921
·
2017-02-03 11:07
机器学习
西瓜书笔记
西瓜书笔记西瓜书笔记1绪论基本术语2模型评估与选择3线性模型4决策树5神经网络6向量机7贝叶斯分类8
集成学习
9聚类10降维与度量学习11特征选择与稀疏学习12计算学习理论13半监督学习14概率图模型15
苏叶新城
·
2017-02-02 00:00
sklearn中
集成学习
(下)
******************************************************************************这部分有些地方没有翻译,笔者自己不是能很好理解。希望大家多多帮助!******************************************************************************1.11.3AdaBo
站住这个领域
·
2017-02-01 16:57
学习
机器学习读书笔记之7 - 分类方法梳理
在提取特征以后,如何根据这些特征判断,称之为分类,解决分类问题的方法很多,常用分类方法主要包括:KNN、支持向量机(SVM)、贝叶斯、决策树、人工神经网络等;另外还有用于组合单一分类方法的
集成学习
算法,
linolzhang
·
2017-01-15 13:29
机器学习
计算机视觉
机器学习
读书笔记
分类器
SVM
ADboost
随机森林算法小结
随机森林算法1.随机森林原理介绍RandomForest是ensemblelearning(
集成学习
?)
JasonCcccc
·
2017-01-12 10:39
Ensemble learning:Bagging,Random Forest,Boosting
概述
集成学习
(ensemblelearning)构建多个基础的分类器,然后将多个分类器进行组合的一种学习方式。其通常也被称为多分类器系统(multi-classifersystem)。
yqtaowhu
·
2017-01-05 22:25
Machine
Learn
Random Forest和Gradient Tree Boosting参数详解(一)
使用sklearn进行
集成学习
——理论系列《使用sklearn进行
集成学习
——理论》《使用sklearn进行
集成学习
——实践》目录1前言2
集成学习
是什么?3偏差和方差3.1模型的偏差和方差是什么?
MapleLeaff
·
2017-01-04 20:44
机器学习算法--bagging算法
集成学习
包括:bagging算法和booting算法。本节主要讨论bagging算法。1.定义:bootstrapaggregating的缩写。
_飞奔的蜗牛_
·
2016-12-12 09:33
机器学习与数据挖掘
sklearn
Bagging与随机森林算法原理小结
在
集成学习
原理小结中,我们讲到了
集成学习
有两个流派,一个是boosting派系,它的特点是各个弱学习器之间有依赖关系。另一种是bagging流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合。
刘建平Pinard
·
2016-12-10 20:00
梯度提升树(GBDT)原理小结
在
集成学习
之Adaboost算法原理小结中,我们对Boosting家族的Adaboost算法做了总结,本文就对Boosting家族中另一个重要的算法梯度提升树(GradientBoostingDecisonTree
刘建平Pinard
·
2016-12-07 19:00
scikit-learn Adaboost类库使用小结
在
集成学习
之Adaboost算法原理小结中,我们对Adaboost的算法原理做了一个总结。
刘建平Pinard
·
2016-12-06 19:00
集成学习
之Adaboost算法原理小结
在
集成学习
原理小结中,我们讲到了
集成学习
按照个体学习器之间是否存在依赖关系可以分为两类,第一个是个体学习器之间存在强依赖关系,另一类是个体学习器之间不存在强依赖关系。
刘建平Pinard
·
2016-12-05 22:00
机器学习之决策树(Decision Tree)&随机森林(Random forest)
对特征进行提问并分类(可以是二分类也可以使多分类),直至最后生成叶节点(也就是只剩下一种属性),下面这张图形象表示了决策树的过程:而随机森林是基于决策树过拟合提出的基于多个弱分类器vote投票的方式的一种
集成学习
算法
July_sun
·
2016-11-25 19:21
机器学习
集成学习
自动权重设置python实现
importpandasaspdimportnumpyasnpfromscipy.optimizeimportminimizefromsklearn.cross_validationimportStratifiedShuffleSplitfromsklearn.ensembleimportRandomForestClassifierfromsklearn.linear_modelimportLog
hzb_csdn
·
2016-11-25 16:21
python
数据挖掘
集成学习
数据挖掘
集成学习
ensemble learning
通过学习周志华老师的机器学习一书,对
集成学习
做一些笔记。
SusanZhang1231
·
2016-11-22 10:45
概念理解
机器学习算法 --
集成学习
一、关于
集成学习
的概念1.
集成学习
概念
集成学习
是机器学习中一个非常重要且热门的分支,是用多个弱分类器构成一个强分类器,其哲学思想是“三个臭皮匠赛过诸葛亮”。
yangxuejunwinner
·
2016-11-15 15:16
数据分析
python
决策树算法原理(上)
它既可以作为分类算法,也可以作为回归算法,同时也特别适合
集成学习
比如随机森林。本文就对决策树算法原理做一个总结,上篇对ID3,C4.5的算法思想做了总结,下篇重点对CART算法做一个详细的介绍。
刘建平Pinard
·
2016-11-10 15:00
采用
集成学习
算法提高分类器的准确性
原文链接:http://www.wangxianfeng.name/2011/08/ensemble-method-to-improve-the-accuracy-of-the-classifier/传统的分类方法是在一个由各种可能的函数构成的空间中寻找一个最接近实际分类函数的分类器。这些单个的分类器模型主要有决策树、人工神经网络、朴素贝叶斯分类器等等。可以通过聚集多个分类器的预测结果提高分类器的
永永夜
·
2016-10-28 12:01
机器学习
用cart(分类回归树)作为弱分类器实现adaboost
在之前的决策树到
集成学习
里我们说了决策树和
集成学习
的基本概念(用了adaboost昨晚
集成学习
的例子),其后我们分别学习了决策树分类原理和adaboost原理和实现,上两篇我们学习了cart(决策分类树
2BiTT
·
2016-10-23 22:00
Ensemble learning
集成学习
(二)
No4.GrandientBoostinggradientboosting(又叫Mart,Treenet):Boosting是一种思想,GradientBoosting是一种实现Boosting的方法,它主要的思想是,每一次建立模型是在之前建立模型损失函数的梯度下降方向。lossfunction(损失函数)描述的是模型的不靠谱程度,损失函数越大,则说明模型越容易出错(其实这里有一个方差、偏差均衡的
Jeramy_zsm
·
2016-10-19 18:06
机器学习(Machine
Learning)
机器学习之五:随机森林算法及其Python实现
随机森林属于
集成学习
方法,即通过建立几个模型组合来解决单一预测问题。随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。
soaringlee_fighting
·
2016-09-23 19:35
【计算机视觉与模式识别】
机器学习(周志华) 参考答案 第八章
集成学习
8.5
机器学习(周志华)参考答案第八章
集成学习
8.5机器学习(周志华西瓜书)参考答案总目录http://blog.csdn.net/icefire_tyh/article/details/52064910机器学习
四去六进一
·
2016-08-12 00:00
机器学习(周志华西瓜书)
机器学习(周志华) 参考答案 第八章
集成学习
8.3
机器学习(周志华)参考答案第八章
集成学习
8.3机器学习(周志华西瓜书)参考答案总目录http://blog.csdn.net/icefire_tyh/article/details/52064910机器学习
四去六进一
·
2016-08-12 00:00
机器学习(周志华西瓜书)
使用sklearn进行
集成学习
(一)
系列《使用sklearn进行
集成学习
——理论》《使用sklearn进行
集成学习
——实践》目录1前言2
集成学习
是什么?3偏差和方差3.1模型的偏差和方差是什么?
Jerry_Mining
·
2016-08-03 21:32
集成学习
学习笔记(2)
Bagging通过
集成学习
笔记1中对Boosting算法的描述我们知道对于Boosting算法,其各个基学习器之间是强相关的,即下一个学习器的学习偏好受之前学习器的影响很大,因为之前的基学习器的学习情况会通过权值来影响下一次训练样本的分布情况
wolfrevoda
·
2016-08-01 00:12
机器学习读书笔记(
集成学习
Boosting方法)
你说这个A分类方法好,我说那个B分类方法好。干脆我们整合起来一起使用吧!!!(不是所有整合一定好,后面会介绍)有些人啊,就喜欢辩论。总坚持自己的分类器特别好,但事实上。你所谓的“好”仅仅是在你所接触的数据集上。在持续辩论达到白热化的时候,一个睡觉的傻子喊了一句话:"瞎吵吵什么?你们不会将这几个玩意整合在一起啊!!!"历史上,Kearn和Valiant提出“强可学习”和“弱可学习”的概念。然后Sch
魔峥
·
2016-07-11 15:40
机器学习
集成学习
算法总结----Boosting和Bagging
1、
集成学习
概述1.1
集成学习
概述
集成学习
在机器学习算法中具有较高的准去率,不足之处就是模型的训练过程可能比较复杂,效率不是很高。
大号小白兔
·
2016-07-05 21:59
机器学习
集成学习
算法总结----Boosting和Bagging
1、
集成学习
概述1.1
集成学习
概述
集成学习
在机器学习算法中具有较高的准去率,不足之处就是模型的训练过程可能比较复杂,效率不是很高。
a1b2c3d4123456
·
2016-07-05 21:00
算法
机器学习
集成学习
法之bagging方法和boosting方法
一、
集成学习
法(EnsembleLearning)首先,让我们先来了解一下,什么是
集成学习
法。①将多个分类方法聚集在一起,以提高分类的准确率。(这些算法可以是不同的算法,也可以是相同的算法。)
yip522364642
·
2016-05-29 16:38
集成学习
bagging
boosting
算法
数据挖掘
机器学习的一般算法
1、线性模型列表内容线性回归阿斯蒂芬线性判别回归多分类回归2、决策树多变量决策树3、支持向量机核方法4、贝叶斯分类器极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法5、
集成学习
BoostingBagging
u010378878
·
2016-05-06 15:00
boosting与bagging理解
作为
集成学习
的二个方法,其实bagging和boosting的实现比较容易理解,但是理论证明比较费力。下面首先介绍这两种方法。
wtq1993
·
2016-04-23 20:00
MATLAB中的分类器
原文链接:http://www.cnblogs.com/guyj/p/3640199.html目前了解到的MATLAB中分类器有:K近邻分类器,随机森林分类器,朴素贝叶斯,
集成学习
方法,鉴别分析分类器,
dulingtingzi
·
2016-04-13 20:00
机器学习
matlab
集成学习
:Bagging与随机森林
BaggingBagging是并行式
集成学习
方法的著名代表,它是基于自助采样法(有放回的取样)来提高学习器泛化能力的一种很高效的
集成学习
方法。
u013790563
·
2016-04-13 16:00
大数据
机器学习
随机森林
bagging
集成学习
1-Boosting
转自http://blog.csdn.net/lvhao92/article/details/51079018
集成学习
大致分为两类,一类串行生成,如Boosting。
lvhao92
·
2016-04-12 11:00
机器学习
boosting
集成学习
机器学习:
集成学习
机器学习:
集成学习
继承学习最初的model是并行的去计算一个model在不同的参数下得到的结果,我们从里面找一个最好。
liyaohhh
·
2016-04-08 11:48
MachineLearning
集成学习
:AdaBoost
集成学习
集成学习
通过构建并合并多个学习器来完成学习任务,有时也被称为多分类器系统。
猪猪奋斗记
·
2016-04-07 10:17
Machine
Learning
集成学习
AdaBoost
集成学习
:AdaBoost
集成学习
集成学习
通过构建并合并多个学习器来完成学习任务,有时也被称为多分类器系统。
u013790563
·
2016-04-07 10:00
adaboost
集成学习
bagging和boosting 总结,较全
原文地址:http://blog.csdn.net/ice110956/article/details/10077717作为
集成学习
的二个方法,其实bagging和boosting的实现比较容易理解,但是理论证明比较费力
deep_learninger
·
2016-03-21 17:18
R语言实现数据挖掘
使用这些包的前提是要对算法熟悉,还好我去年看过几本算法的书,以下为总结:1、一元线性回归2、多元线性回归3、Logistic回归4、泊松回归5、关联规则6、决策树7、机器
集成学习
8、随机森林法则一、一元线性回归使用
JavaChaoCo
·
2016-03-20 18:01
R语言实战
集成学习
集成学习
把大大小小的多种算法融合在一起,共同协作来解决一个问题。这些算法可以是不同的算法,也可以是相同的算法。
u013656914
·
2016-03-19 16:00
上一页
53
54
55
56
57
58
59
60
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他