E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
李航统计学习方法
统计学习三要素------《
统计学习方法
》读书笔记
名词解释1.输入空间:所有输入可能取值的集合,{XX};2.输出空间:所有输出可能取值的集合,{YY};3.假设空间:由输入空间到输出空间的所有可能的映射的集合, 可以为决策函数的集合:F={f|Y=f(x)}F={f|Y=f(x)},或条件概率的集合:F={P|P(Y|X)}F={P|P(Y|X)}统计学习的三要素为:模型,策略,方法。1.模型在监督学习中,模型是所要学习的条件概率分布
fxlou
·
2018-02-04 20:33
machine
learning
《机器学习》周志华(西瓜书)学习笔记
此书之外,
李航
老师的《
统计学习方法
》短小精悍,五脏俱全,算是
JasonYoung_2017
·
2018-02-03 00:00
《机器学习》
《机器学习》周志华
统计学习方法
第11章条件随机场(CRF)的Viterbi算法例题11.3代码实践
统计学习方法
第11章条件随机场(CRF)的Viterbi算法例题11.3代码实践:fromnumpyimport*'''这里定义T为转移矩阵列代表前一个y(ij)代表由状态i转到状态j的概率,Tx矩阵x
GrinAndBearIt
·
2018-02-01 17:05
统计学习方法例题代码实践
统计学习方法
第11章条件随机场整合例11.1,11.2代码实践
统计学习方法
第11章条件随机场整合例11.1,11.2代码实践fromnumpyimport*'''这里定义T为转移矩阵列代表前一个y(ij)代表由状态i转到状态j的概率,Tx矩阵x对应于时间序列这里将书上的转移特征转换为如下以时间轴为区别的三个多维列表
GrinAndBearIt
·
2018-02-01 16:14
统计学习方法例题代码实践
统计学习方法
第11章条件随机场例11.1的代码实践
统计学习方法
第11章条件随机场例11.1的代码实践:fromnumpyimport*#这里定义T为转移矩阵列代表前一个y(ij)代表由状态i转到状态j的概率,Tx矩阵x对应于时间序列#这里将书上的转移特征转换为如下以时间轴为区别的三个多维列表
GrinAndBearIt
·
2018-02-01 16:34
统计学习方法例题代码实践
[机器学习笔记] 什么是损失函数?
常用的损失函数有以下几种(引用自
李航
的《
统计学习方法
》)1.0-1损失函数二类分类任务中,预测值与真实值不同,就是预测错误,则损失是1;预测值与真实值相等,就是预测正确,损失是0,就是没有损失。
勇敢的仙人掌
·
2018-02-01 11:29
机器学习
统计学习方法
第八章AdaBoost算法的例8.1代码实践
统计学习方法
第八章AdaBoost算法的例8.1代码实践#-*-coding:utf-8-*-fromnumpyimport*defloadDataSet():dataSet=[[0,1,2,3,4,5,6,7,8,9
GrinAndBearIt
·
2018-01-29 18:30
统计学习方法例题代码实践
《
统计学习方法
》勘误表
李航
老师的
统计学习方法
堪称是机器学习、数据挖掘等方向必读之书,然而书中难免有部分错误。
ClownXu1130
·
2018-01-29 10:16
机器学习
《
统计学习方法
》第七章总结
支持向量机是一种二类分类模型(SVM)。它的基本模型是定义在特征空间上的最大间隔的线性分类器,间隔最大使它有别于感知机。根据数据是否线性可分分为线性可分支持向量机,线性支持向量机和非线性支持向量机。线性可分支持向量机是指数据都是线性可分的,线性支持向量机是指大部分数据是线性可分的,但是有部分数据无法线性可分。非线性支持向量机是指数据是无法线性可分的,例如椭圆内的数据和椭圆外的数据是通过椭圆这个图形
哈特谢普苏特
·
2018-01-28 20:08
统计学习方法
Gradient Tree Boosting:梯度提升树详解
理论数学推导请参考《统计机器学习》-
李航
,或者参考sklearn的官方文档,下面是我的部分笔记,也可以作为参考优缺点GBRT是对任意的可微损失函数的提升算法的泛化,即可回归亦可分(sai)类(ting)
Font Tian
·
2018-01-26 22:09
【机器学习】进阶
剑指数据科学
用SMO算法解决
统计学习方法
SVM那一章例题7.1,7.2的代码实践
用SMO算法解决
统计学习方法
SVM那一章例题7.1,7.2的代码实践,比之前发布的SVM算法多了个计算权重的函数来通过拉格朗日因子来计算权#-*-encoding:utf-8-*-fromnumpyimport
GrinAndBearIt
·
2018-01-26 17:30
统计学习方法例题代码实践
机器学习实战-基本算法总结1
机器学习基本算法总结☞监督学习——分类代码在这,基于python3(原书代码是python2)这里只是一个总结,原书已经讲解很清楚了,不清楚的直接看代码,或者
李航
的
统计学习方法
也有公式推导。
幻世111
·
2018-01-25 22:40
机器学习
《
统计学习方法
》——
李航
学习大纲
最近在学习
李航
写的
统计学习方法
概论,每一章都用xmind理清了思路,括号里是书里的公式,第一次写博文,敬请指教~~~~第一章
统计学习方法
论第二章感知机每个方法其实只需要着重掌握三要素和输入输出就可以了,
喂喂喂卫-
·
2018-01-25 17:20
人工智能入门书单(附PDF链接)
机器学习篇在机器学习上,首先要推荐的是两部国内作者的著作:
李航
博士所著的《
统计学习方法
》和周志华教授的《机器学习》。
weixin_34391445
·
2018-01-24 18:19
贝叶斯估计(python 版)
一、实现例子例子:
李航
《统计学方法》例4.1二、最终效果三、代码实现importnumpyasnptrain_data=np.array([[1,"S",-1],[1,"M",-1],[1,"M",1]
w_peijian
·
2018-01-18 23:21
统计学习方法
第五章CART算法代码实践例题5.4
统计学习方法
第五章CART算法代码实践例题5.4fromnumpyimport*defloadDataSet():#本书例题的数据集dataset=[['青年','否','否','一般','否'],['
GrinAndBearIt
·
2018-01-18 23:04
统计学习方法例题代码实践
统计学习方法
第五章决策树C4.5算法代码实践
统计学习方法
第五章决策树C4.5算法代码实践(其实相对于ID3算法只是寻找最优划分属性的标准发生了改变,ID3为信息增益而C4.5为信息增益率即在ID3的信息增益除以数据集关于该特征划分的熵)fromnumpyimport
GrinAndBearIt
·
2018-01-18 19:00
统计学习方法例题代码实践
感知机代码实现(python版)
一、实现例子
李航
《统计学方法》p29例2.1正例:x1=(3,3),x2=(4,3),负例:x3=(1,1)二、最终效果三、代码实现importnumpyasnpimportmatplotlib.pyplotaspltp_x
w_peijian
·
2018-01-18 17:53
统计学习方法
第五章决策树的ID3算法代码实践 例5.3
统计学习方法
第五章决策树的ID3算法代码实践例5.3(下面还有一个封装起来的类)1.fromnumpyimport*importmathdefloadDataSet():#本书例题的数据集dataset
GrinAndBearIt
·
2018-01-18 11:07
统计学习方法例题代码实践
统计学习方法
第五章决策树的选择最优特征划分例5-1-5.2代码实践
统计学习方法
第五章决策树的选择最优特征划分例5-1-5.2代码实践个人体会:本来代码都想在python2.7中编译运行的,个人比较懒就在网上复制了一份这个例题的数据集然后各种编码问题太扎心,目前换成python3.6
GrinAndBearIt
·
2018-01-18 10:39
统计学习方法例题代码实践
统计学习方法
第四章朴素贝叶斯的贝叶斯估计,例题4.2代码实践
统计学习方法
第四章朴素贝叶斯的贝叶斯估计,例题4.2代码实践(如需要查看极大似然估计的算法请看我的另一篇文章http://blog.csdn.net/grinandbearit/article/details
GrinAndBearIt
·
2018-01-12 16:20
统计学习方法例题代码实践
统计学习方法
第四章极大似然估计的朴素贝叶斯分类方法例题4.1代码实践
统计学习方法
第四章极大似然估计的朴素贝叶斯分类方法例题4.1代码实践(需要查看贝叶斯估计的可以查看我的另一篇文章http://blog.csdn.net/grinandbearit/article/details
GrinAndBearIt
·
2018-01-12 14:36
统计学习方法例题代码实践
李航
统计学习 感知机学习算法 对偶形式
#---感知机---#对偶问题fromnumpyimport*x=array([[3,3],[4,3],[1,1]])y=array([1,1,-1])w=zeros((1,len(x[0])))b=0a=array([0foriinrange(len(x))])defsign(b,a,x,y,i):gram=array(mat(x)*mat(x).T)loss_func=0forjinrange
only卉
·
2018-01-12 07:57
李航
统计学习感知机学习算法 原始形式
#---感知机---#原始问题fromnumpyimport*x=array([[3,3],[4,3],[1,1]])y=array([1,1,-1])w=zeros((1,len(x[0])))b=0defsign(w,b,x):returnmat(w)*mat(x).T+bdeftrain(x,y,w,b,alpha=1):flag=Truewhileflag:count=0#代表误分类的点数
only卉
·
2018-01-12 07:57
李航
感知机对偶形式python代码
#author:xinxinzhangimportnumpyasnpdefloadData():#加载数据X=np.mat([[3,3],[4,3],[1,1]])Y=[1,1,-1]returnX,YdefGram(X):#计算Gram矩阵m,n=np.shape(X)G=[None]*mforiinrange(m):G[i]=[0]*mforjinrange(m):G[i][j]=int(np
zuanfengxiao
·
2018-01-11 14:23
机器学习
统计学习方法
第三章例3.1代码实践
统计学习方法
第三章例3.1代码实践代码内容如下:#-*-coding:utf-8-*-fromnumpyimport*#根据不同的p值求不同的距离,p=1时是曼哈顿距离;p=2时是欧式距离。。。。。
GrinAndBearIt
·
2018-01-11 11:57
机器学习算法原理与编程实践
统计学习方法
第二章例题2.2代码实践,感知机的对偶形式的代码实现
针对
统计学习方法
第二章的第二个例题设计了代码如下:(注释部分为自己出错的部分调试代码,小白码代码略扎心)#-*-coding:utf-8-*-importsysfromnumpyimport*importosfromcompiler.astimportflattenreload
GrinAndBearIt
·
2018-01-10 22:20
统计学习方法例题代码实践
李航
例题感知机原始形式python代码
#author:xinxinzhangimportnumpyasnpdefloadData():#加载数据X=np.mat([[3,3],[4,3],[1,1]])Y=[1,1,-1]returnX,Ydefperceptron_s(X,Y):#感知机算法原始形式w=np.mat([0,0])#初始化w,bb=0m,n=np.shape(X)isfind=Falsewhilenotisfind:f
zuanfengxiao
·
2018-01-10 14:59
机器学习
统计学习方法
第二章例题2.1代码实践
本程序是将统计学习第二章的例题2.1用代码运算出来#-*-coding:utf-8-*-importosimportsysfromnumpyimport*reload(sys)sys.setdefaultencoding('utf-8')#首先将书上的训练集输入defloadDataset():dataset=[[3,3],[4,3],[1,1]]labels=[1,1,-1]returndata
GrinAndBearIt
·
2018-01-10 09:58
统计学习方法例题代码实践
机器学习实战-读书笔记-k近邻算法
最近才开始学习机器学习,刚刚买了一本《机器学习实战》和一本《
统计学习方法
》开始学习。刚刚看完了k近邻算法这一章,从原理和例子都弄了一遍,现把过程记录在这里,当做复习一遍,也可以供大家一起讨论学习。
ffjsls
·
2018-01-10 00:00
python
Boosting算法学习
(2)Bagging也是一种常用的
统计学习方法
,两者经常放在一起对比,它们不同的是,Bagging将在Bootstrap采样得到的不同训练子集上的弱学习器的结果综合考虑,各个弱学习器的构建过程是
AuGuSt_81
·
2018-01-08 17:37
ML学习笔记
面试算法(三)— EM算法
因为要看LDA的内容,需要看下EM算法,
李航
的EM算法一章的部分地方符号感觉过于抽象,应该具体些更好;先时通过三硬币模型引入EM算法概念,然后说了一下EM算法的流程,第二节公式推导了EM算法,第三节证明了
dinkwad
·
2018-01-07 21:58
【
统计学习方法
】-感知机模型推导
【
统计学习方法
】-感知机模型推导由于我最近需要把这本书的模型都推导并实现出来,在线编辑公式有点慢,就手写再笔记本了,所以这边先用图片。等过段时间我再在线誊写一遍。
曦姐no小库
·
2018-01-06 16:05
机器学习
从boost到Adaboost再到GBRT-GBDT-MART
原文链接:https://www.cnblogs.com/xiangzhi/p/4626179.html本文是要配合《
统计学习方法
》才能看懂的,因为中间有些符号和定义是直接使用书本中的先弄明白以下三个公式
ju22
·
2018-01-05 17:01
机器学习模型
统计学习方法
--提升树模型(Boosting Tree)与梯度提升树(GBDT)
原文链接http://www.cnblogs.com/daguankele/p/6557328.html1、主要内容介绍提升树模型以及梯度提升树的算法流程2、BoostingTree提升树模型采用加法模型(基函数的线性组合)与前向分步算法,同时基函数采用决策树算法,对待分类问题采用二叉分类树,对于回归问题采用二叉回归树。提升树模型可以看作是决策树的加法模型:其中T()表示决策树,M为树的个数,Θ表
ju22
·
2018-01-04 18:25
机器学习模型
师父传鉴赏 体味如亲尝
授课:亦智师父摄影:
李航
、周萍等编辑:马军校定:轻雪、闫彬‖情系香园‖小青花们再聚香园‖欢喜感恩——准备篇——好的课程需要好的心境净手静心排队净手显尊敬正坐静心清杂念‖每一朵插花‖每一桌茶席‖都在分享喜悦和拥有
香园陶瓷小组
·
2017-12-26 21:58
统计学习方法
三要素:模型、策略、算法
在读
李航
的《
统计学习方法
》,记录一些读书笔记:(一)总览
统计学习方法
三要素:模型、策略、算法:(二)一些细节机构风险其实就是经验风险加上惩罚项:定义如下:等式右边第一项是经验风险,最后面一项就是惩罚项,
cc19
·
2017-12-26 17:48
深度学习
数学基础
面试算法(二)—KNN
最近看了一下KNN相关内容,做下总结;大致过一下
李航
的书中KNN的讲解:
统计学习方法
中只讨论了分类K近邻法,先讲了KNN的算法流程,KNN的模型实际上是对特征空间做了一次划分,kd树中的每个节点对应了k
dinkwad
·
2017-12-26 16:23
面试算法
《机器学习实战》AdaBoost算法(手稿+代码)
见:《
统计学习方法
》
李航
大大博客都是借鉴(copy)
影醉阏轩窗
·
2017-12-22 19:00
python3 || 高斯混合模型GMM
本文分为一元高斯分布的EM算法以及多元高斯分布的EM算法,分别采用两本书上的数据《
统计学习方法
》和《机器学习》。一元高斯混合模型python未完成,可以看R实现的。
Clytze_yy
·
2017-12-19 19:40
python3
面试算法(一)—朴素贝叶斯
朴素贝叶斯先大致过一遍最近看的朴素贝叶斯内容,
李航
的书先讲什么是先验概率、条件概率和后验概率;朴素贝叶斯的朴素是因为假设了特征条件独立,这样减少了大量的参数计算;而后介绍了如何由贝叶斯公式推出朴素贝叶斯的分类原理
dinkwad
·
2017-12-19 14:46
面试算法
统计学习方法
李航
---第1章
统计学习方法
概论
第一章
统计学习方法
概论统计学习的主要特点是:(1)统计学习以计算机及网络为平台,是建立在计算机及网络之上的;(2)统计学习以数据为研究对象,是数据驱动的学科;(3)统计学习的目的是对数据进行预测与分析;
Li_tian_yang
·
2017-12-19 00:00
统计学习方法
统计学习方法
李航
---第1章
统计学习方法
概论
第一章
统计学习方法
概论统计学习的主要特点是:(1)统计学习以计算机及网络为平台,是建立在计算机及网络之上的;(2)统计学习以数据为研究对象,是数据驱动的学科;(3)统计学习的目的是对数据进行预测与分析;
Li_tian_yang
·
2017-12-19 00:00
统计学习方法
机器学习理论 || EM算法
参考书籍:
李航
.
统计学习方法
视频资料:张志华.上海交通大学.机器学习
李航
.
统计学习方法
主要介绍在离散的情况下EM算法的推导,张志华则介绍了连续情况下的EM算法推导,下面笔记则是将两者结合起来。
Clytze_yy
·
2017-12-18 11:42
理论
统计学习方法
(二)
感知机感知机是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1和-1二值。感知机预测是用学习得到的感知机模型对新的输入实例进行分类,是神经网络与支持向量机的基础。感知机模型假设输入空间(特征空间)是X⊆Rn,输出空间是Y={+1,−1},输入x∈X表示实例的特征向量,对应于输入空间(特征框空间)的点:输出$y\in\boldsymbolY实例实例的类别。由输入到输出空间的如
lc900730
·
2017-12-17 12:19
统计学习
统计学习方法
(-)
结构风险(Structuralriskminimization,SRM)是为了防止过拟合而提出来的策略,结构风险最小化等价于正则化(regularization)。在经验风险上加上表示模型复杂度的正则化项(regularizer)或罚项(penaltyterm)。在假设空间、损失函数以及训练集确定的情况下,结构风险的定义是Rsrm(f)=1N∑i=1NL(yi,f(xi))+λJ(f)其中J(f)
lc900730
·
2017-12-16 23:46
统计学习
统计学习方法
李航
第二章习题
推荐一下个人博客2.1Minsky和Papert指出:感知机因为是线性模型,所以不能表示复杂的函数,如异或。验证感知机为什么不能表示异或明显可知异或不具有线性可分性,由感知机定义可知,感知机不能表示异或。2.2模仿例题2.1,构建从训练数据集求感知机模型的例子importnumpyasnpimportmatplotlib.pyplotaspltclassshowPicture:def__init_
variations
·
2017-12-12 02:58
机器学习
李航
《
统计学习方法
》拾遗-感知机学习和对偶形式
不知是第几遍看
李航
的书了,之前总是看一遍忘一遍,这次看感知机学习,终于看懂了对偶形式是怎么一回事了!其实之前就是少看了一个条件,初始的a和b都是0啊!1、感知机模型2、对偶形式
文哥的学习日记
·
2017-12-11 06:01
读
统计学习方法
有感
机器学习总结而言就是模型、策略与算法的结合,模型是为了解决某种问题而建立的规则的集合或者一种映射函数,总之,你可以将模型想象成一个黑盒子,给定一个问题,她总能给你一个满意的解决方案;策略定义了评判模型好坏的准则,你可以定义平方差最小的模型才是最优的,也可以定义绝对差最小的模型是最优的,总之,有了策略,你才能知道一个模型是优是劣;算法则是建立模型的关键,模型里面各个参数的确定就是由算法完成的。有了模
BUCJ
·
2017-12-09 02:22
NLP学习计划
一、大概了解NLP基本知识阅读书籍《
统计学习方法
》、《机器学习》、《数学之美》二、独立实现一个小型的自然语言处理项目如文本领域的文本分类、分词等项目就是比较合适的项目,大体了解自然语言处理算法的原理、实现流程等
PumayHui
·
2017-12-08 00:17
上一页
51
52
53
54
55
56
57
58
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他