E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
李航统计学习方法
隐马尔可夫模型(HMM) - 2 - 概率计算方法
声明: 1,本篇为个人对《2012.
李航
.
统计学习方法
.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。
xueyingxue001
·
2016-05-17 14:00
算法
机器学习
隐马尔可夫模型(HMM) - 1 - 基本概念
声明: 1,本篇为个人对《2012.
李航
.
统计学习方法
.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。
xueyingxue001
·
2016-05-17 14:00
算法
机器学习
EM算法 - 2 - EM算法在高斯混合模型学习中的应用
声明: 1,本篇为个人对《2012.
李航
.
统计学习方法
.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。
xueyingxue001
·
2016-05-11 14:00
算法
机器学习
EM算法 - 1 - 介绍
声明: 1,本篇为个人对《2012.
李航
.
统计学习方法
.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。
xueyingxue001
·
2016-05-11 14:00
算法
机器学习
《
统计学习方法
》-逻辑回归笔记和python源码
逻辑回归(Logisticregression)逻辑回归是统计学习中的经典分类方法。其多用在二分类{0,1}问题上。定义1:设X是连续随机变量,X服从逻辑回归分布是指X具有下列分布函数与密度函数:分布函数属于逻辑斯谛函数,其图形是一条S形曲线。定义2:二项逻辑斯谛回归模型是如下条件概率分布:从上式可以看出,逻辑回归对线性回归经行了归一化操作,将输出范围规定在{0,1}。现在来看,逻辑回归的的特点,
阿特曼altman
·
2016-05-10 15:22
《
统计学习方法
》-逻辑回归笔记和python源码
逻辑回归(Logisticregression)逻辑回归是统计学习中的经典分类方法。其多用在二分类{0,1}问题上。定义1:设X是连续随机变量,X服从逻辑回归分布是指X具有下列分布函数与密度函数:分布函数属于逻辑斯谛函数,其图形是一条S形曲线。定义2:二项逻辑斯谛回归模型是如下条件概率分布:从上式可以看出,逻辑回归对线性回归经行了归一化操作,将输出范围规定在{0,1}。现在来看,逻辑回归的的特点,
V_victor
·
2016-05-10 15:00
通俗易懂机器学习——朴素贝叶斯算法
本文将叙述朴素贝叶斯算法的来龙去脉,从数学推导到计算演练到编程实战文章内容有借鉴网络资料、
李航
《
统计学习方法
》、吴军《数学之美》加以整理及补充基础知识补充:1、贝叶斯理论–吴军数学之美http://mindhacks.cn
snanda
·
2016-05-09 12:00
算法
数学
机器学习
统计学
朴素贝叶斯
参考-《统计分析方法》-
李航
第四章朴素贝叶斯法电脑可以将图像视频文字等呈现在人类面前但是它自己却没有判断力,并不能去这些信息进行分类和识别。机器学习就是为了让机器获得识别这些信息的能力。
u013369277
·
2016-05-09 10:00
机器学习
1
统计学习方法
基础
是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测和分析的一门学科,统计学习也成为统计机器学习(statisticalmachinelearning).特点统计学习将数据作为研究对象,是数据驱动的学科统计学习的目的是对数据进行预测和分析统计学习以方法为中心,
统计学习方法
构建模型并应用模型进行预测与分析
maxiaotiaoti
·
2016-05-06 15:00
数据
机器学习
统计学
《
统计学习方法
》-朴素贝叶斯法笔记和python源码
朴素贝叶斯法朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。换句话说,在已知条件概率和先验概率的情况下(即,在事件Bi发生条件下发生事件A的概率,和发生事件Bi的概率),求后验概率(即,在事件A发生条件下事件Bi发生的概率)。先验概率:根据以
阿特曼altman
·
2016-05-05 10:10
《
统计学习方法
》朴素贝叶斯法学习笔记和python源码
朴素贝叶斯法朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。换句话说,在已知条件概率和先验概率的情况下(即,在事件Bi发生条件下发生事件A的概率,和发生事件Bi的概率),求后验概率(即,在事件A发生条件下事件Bi发生的概率)。先验概率:根据以
V_victor
·
2016-05-05 10:00
信息检索的评价指标(Precision, Recall, F-score, MAP、ROC、AUC)
一:Precision,Recall,F-score 信息检索、分类、识别、翻译等领域两个最基本指标是召回率(RecallRate)和准确率(PrecisionRate------注意
统计学习方法
中
lzxyzq
·
2016-05-04 11:00
深度剖析adaboost
adaboost算法流程下面首先来看一下在
李航
的《
统计学习方法
》一书中对adaboost的解释:算法的输入:训练数据集T={(x1,y1),(x2
autocyz
·
2016-05-03 16:00
adaboost
boosting
集成学习
提升方法 - 2 - 前向分布算法和提升树
声明: 1,本篇为个人对《2012.
李航
.
统计学习方法
.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。
xueyingxue001
·
2016-05-03 15:00
算法
机器学习
提升方法 - 1 - Adaboost 算法
声明: 1,本篇为个人对《2012.
李航
.
统计学习方法
.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。
xueyingxue001
·
2016-05-03 14:00
算法
机器学习
支持向量机 - 5 - SMO算法
声明: 1,本篇为个人对《2012.
李航
.
统计学习方法
.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。
xueyingxue001
·
2016-04-27 15:00
算法
机器学习
支持向量机 - 4 - 非线性支持向量机与核函数
声明: 1,本篇为个人对《2012.
李航
.
统计学习方法
.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。
xueyingxue001
·
2016-04-27 15:00
算法
机器学习
支持向量机 - 1 - 准备知识和介绍
声明: 1,本篇为个人对《2012.
李航
.
统计学习方法
.pdf》的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址)。
xueyingxue001
·
2016-04-27 15:00
算法
机器学习
R语言统计应用(一) —— 基础概述
在数据挖掘中,
统计学习方法
常常用到R语言,因此,我们后面将对R语言在统计学习中的应用进行专题介绍,方便从理论上对统计学习有进一步深入的认识。
lipengcn
·
2016-04-27 09:00
数据挖掘
机器学习
R语言
统计学
提升方法
提升(boosting)方法是一种常用的
统计学习方法
。在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类性能。
qq_20602929
·
2016-04-26 19:00
手把手实现AdaBoost算法
手把手实现AdaBoost算法标签:机器学习Python主要参考资料:PeterHARRINGTON.机器学习实战[M].李锐,李鹏,曲亚东,王斌译.北京:人民邮电出版社,2013.
李航
.
统计学习方法
[
xuelabizp
·
2016-04-24 20:00
python
机器学习
logistic回归详解(二):损失函数(cost function)详解
再加上一个偏置项x0,则每个样本包含n+1维特征:x=[x0,x1,x2,⋯,xn]T其中x∈Rn+1,x0=1,y∈{0,1}
李航
博士在统计
bitcarmanlee
·
2016-04-15 23:51
logistic回归
详解
ml
algorithm
logistic回归详解(二):损失函数(cost function)详解
再加上一个偏置项x0,则每个样本包含n+1维特征:x=[x0,x1,x2,⋯,xn]T其中x∈Rn+1,x0=1,y∈{0,1}
李航
博士在统计
bitcarmanlee
·
2016-04-15 23:00
详解
Logistic回归
机器学习、数据挖掘方面好书、网站推荐
书籍入门1.集体编程智慧地址2.机器学习实战地址3.
统计学习方法
地址4.机器学习周志华地址5.机器学习卡内基梅隆大学地址进阶1.PatternRecognitionAndMachineLearning地址
雪伦_
·
2016-04-15 09:44
学习地址推荐
《
统计学习方法
》笔记(9):EM算法和隐马尔科夫模型
EM也称期望极大算法(ExpectationMaximization),是一种用来对含有隐含变量的概率模型进行极大似然估计的迭代算法。该算法可应用于隐马尔科夫模型的参数估计。1、含有隐含参数的概率模型举例?三硬币模型:A、B、C三枚硬币,这些硬币投出正面的概率分别为π、p、q。进行如下硬币实验,先投硬币A,如果为正面则投硬币B,如果为反面则投硬币C。最终出现的正面则记为1,出现反面则记为0;独立的
峰峰jack
·
2016-04-12 18:21
数据挖掘
《
统计学习方法
》-KNN笔记和python源码
K近邻法K近邻法(k-nearestneighbor,k-NN)是一种基本分类与回归方法。k近邻法实际上利用训练数据集对特征向量空间经行划分,并作为其分类的“模型”。1.算法:输入:训练数据集T,其中的实例类别已定。输出:实例x的所属的类y。分类时,对新的实例,根据k个最近邻的训练实例的类别,通过多数表决等方式经行预测。(1)根据给定的距离度量,在训练数据集T中找出与x最近的k个点,涵盖这k个点的
V_victor
·
2016-04-12 12:00
理解牛顿法
首先给出无约束最优目标问题定义(
统计学习方法
附录B):minx∈Rnf(x)其中,x∗为目标函数的极小点。
shijing_0214
·
2016-04-11 21:00
牛顿法
理解梯度下降法
首先给出问题定义(
统计学习方法
附录A):假设f(x)是Rn上具有一阶连续偏导的函数,求解的目标问题如下:minx∈Rnf(x)x∗表示目标函数f(x)的极小值点。
shijing_0214
·
2016-04-11 19:00
梯度下降法
《
统计学习方法
》笔记(8):AdaBoost算法
AdaBoost是最有代表性的提升算法之一。其基本思想可以表述为:多个专家的综合判断,要优于任意一个专家的判断。1、什么是提升算法?“装袋”(bagging)和“提升”(boost)是构建组合模型的两种最主要的方法,所谓的组合模型是由多个基本模型构成的模型,组合模型的预测效果往往比任意一个基本模型的效果都要好。装袋:每个基本模型由从总体样本中随机抽样得到的不同数据集进行训练得到,通过重抽样得到不同
峰峰jack
·
2016-04-09 14:18
数据挖掘
《
统计学习方法
》笔记(7):支持向量机
支持向量机以感知机为基础,两块内容最好结合来看,便于理解。本文首先介绍支持向量机的原理和重要概念,然后分析其应用场景以及优缺点。1、什么是支持向量机?支持向量机是采用最优分离超平面将样本分为不同类别的二分类模型。最优分离超平面的表达式可写作:,分类决策函数为。其中的关键词是:最优分离超平面(不同于感知机中的“分离超平面”)、二分类。同时注意理解与最分离超平面相关的“函数间隔”、“几何间隔”概念。2
峰峰jack
·
2016-04-08 13:12
数据挖掘
《
统计学习方法
》笔记(6):逻辑斯谛回归&最大熵模型
逻辑斯谛回归和最大熵模型,从原理上看二者并不十分相关,不知是不是因为篇幅都相对较小,所以将这两部分内容放到一起。本文还是从原理、应用场景以及优缺点来做简要介绍。1、逻辑斯谛回归逻辑斯谛回归通过结合线性回归和Sigmod转换函数(f(x)=1/(1+exp(x))),将数值预测结果转换为不同类别的条件概率,取条件概率最大的类别为预测结果,从而实现样本的分类。该模型可应用于各种分类场景。相比于其它分类
峰峰jack
·
2016-04-08 13:01
数据挖掘
[置顶] 声明
MachineLearning——AndrewNg(Coursera) 机器学习基石——林轩田(Coursera) 机器学习技法——林轩田(Coursera) 《
统计学习方法
u014641813
·
2016-04-07 23:00
数据挖掘
机器学习
期望最大化算法
〇、说明在看到的资料里,包括周志华教授的《机器学习》[1]、
李航
博士的《
统计学习方法
》[2],大多数材料把期望最大化算法看做是一个解决含有隐变量优化问题的算法,我认为这是对期望最大化算法的狭义理解;而在吴军博士的
Herbert002
·
2016-04-05 15:48
《
统计学习方法
》笔记(5):决策树
决策树的主要算法在20世纪80年代就已提出,有完整的理论体系。本文依然从基本原理、应用场景、优点和缺点等四个方面对该算法进行分析。1、基本原理决策树是一种基本的分类与回归方法,可以将其理解为一连串的if-then规则集合。构建一棵决策树一般要经过三个步骤:特征参量的选择、决策树的生成以及决策树的剪枝。主要的决策树算法有ID3、C4.5和CART算法,这三个算法的主要不同点在于:1)ID3和C4.5
峰峰jack
·
2016-04-04 16:32
数据挖掘
《
统计学习方法
》笔记(4):朴素贝叶斯
慢慢发现,《
统计学习方法
》蛮适合有一定基础的人。这是一本重理论、轻应用的书,许多理论性的问题,在书中都可以找到答案;然而,由于缺少对应用场景的描述,并不利于初学者的快速理解。
峰峰jack
·
2016-04-04 16:40
数据挖掘
书单
)机器学习Mitchell中文版和英文本可以对照看,有配套在线课程,书比较老(书的补充章节和勘误)另一本年代新一点的MachinelearningAProbabilisticPerspective2)
统计学习方法
李航
cutie吖
·
2016-04-01 22:06
读书笔记
Machine Learning第六周笔记一:评估学习算法和bias/variance
博客已经迁移到Marcovaldo’sbolg(http://marcovaldong.github.io/)入坑机器学习近一个月,学习资料主要是
李航
的《
统计学习方法
》、PeterHarrington的
Marcovaldo
·
2016-04-01 21:01
机器学习
Machine Learning第六周笔记一:评估学习算法和bias/variance
博客已经迁移到Marcovaldo’sbolg:http://marcovaldong.github.io/入坑机器学习近一个月,学习资料主要是
李航
的《
统计学习方法
》、PeterHarrington的《
MajorDong100
·
2016-04-01 21:00
机器学习
朴素贝叶斯(naive bayes)
朴素贝叶斯(naivebayes)标签:Python机器学习主要参考资料:《机器学习实战》《
统计学习方法
》1.朴素贝叶斯分类原理朴素贝叶斯法是基于贝叶斯定理和特征条件独立假设(称为朴素的原因)的分类方法
xuelabizp
·
2016-04-01 15:00
python
机器学习
《
统计学习方法
》笔记(3):k近邻
k近邻(KNN)是相对基本的机器学习方法,特点是不需要建立模型,而是直接根据训练样本的数据对测试样本进行分类。1、k近邻的算法?算法对测试样本进行分类的一般过程如下:1)根据给定的k值,搜索与测试样本距离最近的k个训练样本;2)统计k个样本对应的每种分类数量;3)根据每种分类的数量投票决定样本点所属分类,票数多者得。例如:对于二分类,采用k=5的k近邻算法进行分类:距离样本点最近的5个点中,属于类
峰峰jack
·
2016-03-31 13:41
数据挖掘
数据结构
李航
《
统计学习方法
》摘录
1、统计学习以数据为研究对象,是数据驱动的学科2、目的是对数据进行预测与分析3、基本假设是同类数据具有一定的统计规律性4、考虑--学习什么样的模型、如何学习模型、尽可能提高学习效率5、包括:监督学习、非监督学习、半监督学习、强化学习特征空间:每一维对应于一个特征假设空间:输入空间到输出空间的映射的集合(例如假设决策函数是输入变量的线性函数,那么模型的假设空间就是所有这些线性函数构成的函数集合)模型
u013656914
·
2016-03-30 22:00
《
统计学习方法
》笔记(2):感知机
学习的过程,事实上是对新概念和新方法的理解过程。因此,本文关注点仍在于对感知机的重要概念和方法的解释。1、什么是感知机?感知机是用于二分类的线性判别模型。拆解下来,感知机是用于二分类的、线性的、判别模型(即直接学习目标函数y=f(x))。感知机的一般形式如下式,其中y取值为{1,-1},sign为符号函数,即如果为非负值(),则y取1;反之为负值(<0),则y取-1。简要概括下来就是,和y符号相同
峰峰jack
·
2016-03-30 17:12
数据挖掘
统计学习方法
李航
---第6章 逻辑回归与最大熵模型
第6章逻辑回归与最大熵模型逻辑回归(logisticregression)是统计学习中的经典分类方法。最大嫡是概率模型学习的一个准则将其推广到分类问题得到最大熵模型(maximumentropymodel)。逻辑回归模型与最大熵模型都属于对数线性模型。6.1逻辑回归模型定义6.1(逻辑分布):设X是连续随机变量,X服从逻辑斯谛分布是指X具有下列分布函数和密度函数式中,u为位置参数,r>0为形状参数
demon7639
·
2016-03-30 09:29
机器学习
统计学习方法
李航
---第4章 朴素贝叶斯法
第4章朴素贝叶斯法朴素贝叶斯(naiveBayes)法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出Y。4.1朴素贝叶斯法的学习与分类基本方法朴素贝叶斯法通过训练数据集学习X和Y的联合概率分布P(X,Y)。具体地,学习以下先验概率分布及条件概率分布。先验概
demon7639
·
2016-03-30 09:24
机器学习
统计学习方法
李航
---第5章 决策树
第5章决策树决策树(decisiontree)是一种基本的分类与回归方法。本章主要讨论用于分类的决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要优点是模型具有可读性,分类速度快。学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型。预测时,对新的数据,利用决策树模型
demon7639
·
2016-03-30 09:00
统计学习方法
李航
---第1章
统计学习方法
概论
第一章
统计学习方法
概论 统计学习的主要特点是:(1)统计学习以计算机及网络为平台,是建立在计算机及网络之上的;(2)统计学习以数据为研究对象,是数据驱动的学科;(3)统计学习的目的是对数据进行预测与分析
demon7639
·
2016-03-30 09:00
统计学习方法
李航
---第11章 条件随机场
第11章条件随机场条件随机场(conditionalrandomfield,CRF)是给定一组输入随机变量条件下另一组输出随机变量的条件概率分布模型,其特点是假设输出随机变量构成马尔可夫随机场。条件随机场可以用于不同的预测问题,本章主要讲述线性链(linearchain)条件随机场在标注问题的应用,这时问题变成了由输入序列对输出序列预测的判别模型,形式为对数线性模型,其学习方法通常是极大似然估计或
demon7639
·
2016-03-30 09:00
统计学习方法
李航
---第8章 提升方法
第8章提升方法提升(boosting)方法是一种常用的
统计学习方法
,应用广泛且有效。在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类的性能。
demon7639
·
2016-03-30 09:00
统计学习方法
李航
---第2章 感知机
第2章感知机感知机(perceptron)是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1和-1二值。感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。感知机学习旨在求出将训练数据进行线性划分的分离超平面,为此,导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化求得感知机模型。2.1感知机模型定义(感知机):假设输入空间(特征空间
demon7639
·
2016-03-30 09:00
统计学习方法
李航
---第10章 隐马尔可夫模型
第10章隐马尔可夫模型隐马尔可夫模型(hiddenMarkovmodel,HMM)是可用于标注问题的统计学习模型,描述由隐藏的马尔可夫链随机生成观测序列的过程,属于生成模型。10.1隐马尔可夫模型的基本概念定义10.1(隐马尔可夫模型)隐马尔可夫模型是关于时序的概率模型,描述由一个隐藏的马尔可夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列的过程。隐藏的马尔可夫链随机
demon7639
·
2016-03-30 09:00
上一页
56
57
58
59
60
61
62
63
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他