E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
机器学习系列
机器学习系列
(6):BP神经网络
前言:BP神经网络的各神经单元的堆叠与DeepLearning深度学习类似,但是BP侧重于去解释信号,DL侧重于重构信号,前者为监督学习,后者为非监督学习。 理解BP神经网络关键是:阀值、激活函数、前向输入与后向误差传播。 待续。。。正文:参考资料: 1.BP神经网络详细讲解---赞100!(本人转载的,要了解BP,有此足矣!)
hanzihan123
·
2014-05-27 19:00
机器学习
神经网络
BP
激活函数
机器学习系列
(5):决策树之ID3和C4.5
前言:决策树系列看的比较揪心,道理很清楚,有点类似于“思维导图”,有中心点、发散的树枝以及终结点。其实像,我们平常做决策时,首先选择影响最大的属性进行最开始分类,然后选择次重要的属性,最后得到每一支的结果。 其目的:找到一个最简单的决策树模型(其中,分类属性的选择很重要)。 每一个分叉处,其属性的选择取决于:信息增益(ID3)和信息增益率(C4.5)。 看到的有赞话
hanzihan123
·
2014-05-05 17:00
算法
机器学习
决策树
id3
C4.5
机器学习系列
(4):混合高斯模型+EM+K-means算法
前言:EM和K-means算法都是机器学习最基本的算法,与混合高斯模型求解有相似之处。EM是基于概率的期望最大,K-means是到质心距离最小化。两者都要初始化参数,然后重新调整参数。 个人觉得这句话很不错: “没有鸡和蛋的先后之争,因为他们都知道“没有你就没有我”。从此他们一起过上了幸福美好的生活。” 需要靠参数的相互迭代产生最好的结果,当然由于初始值的不一样,其
hanzihan123
·
2014-04-04 16:00
机器学习
混合高斯模型
K-means聚类算法
EM最大期望算法
【
机器学习系列
】scikit-learn中的Linear Regression Example
说明:这里为了以后方面查阅浏览,只搬运了别人的基本代码,相关细节可查看其它资料。例如:http://scikit-learn.org/0.11/auto_examples/linear_model/plot_ols.html代码:print__doc__ #Codesource:JaquesGrobler #License:BSD importpylabaspl importnumpyas
piaoxuefengqi
·
2014-03-27 22:00
python
Regression
Linear
【
机器学习系列
】机器学习16本免费电子书
TheLIONWay:MachineLearningplusIntelligentOptimizationbyRobertoBattiti,MauroBrunato-Lionsolver,Inc.,2013Theintroductionofthebooksays,“LearningandIntelligentOptimization(LION)isthecombinationof learning
overstack
·
2014-03-25 23:00
【
机器学习系列
】logistic回归python实现
说明这里采用梯度下降法(gradientdescent)学习logistic回归模型的参数,如果数据量比较大,速度会变慢,可以在迭代过程中改用其他学习方法。如果需要优化,请参考@zouxy09的文章 http://blog.csdn.net/zouxy09/article/details/20319673,不明白logistic回归原理的也可以参考这篇文章。logistic回归最终需要求解的参数是
piaoxuefengqi
·
2014-03-25 16:00
Logistic回归
逻辑斯蒂回归
机器学习系列
(3):支持向量机(SVM)
前言:支持向量机(supportvectormachine)是本人耗时长的一篇。里面涉及到了很多优化的概念,要弄清楚,必须得扎进去,细细啃。 SVM是一种有监督的分类器。 本质:寻找一个超平面,使得离超平面比较近的点能有更大的间距。 来自对偶问题(百度): 原始问题和对偶问题的标准形式为 原始问题对偶问题 maxz=cxminw=yb s.t.Ax≤bs.t.y
hanzihan123
·
2014-03-24 17:00
机器学习
SVM
支持向量机
【
机器学习系列
】看懂信息检索和网络数据挖掘领域论文的必备知识总结
信息检索和网络数据领域(WWW,SIGIR,CIKM,WSDM,ACL,EMNLP等)的论文中常用的模型和技术总结引子:对于这个领域的博士生来说,看懂论文是入行了解大家在做什么的研究基础,通常我们会去看一本书。看一本书固然是好,但是有一个很大的缺点:一本书本身自成体系,所以包含太多东西,很多内容看了,但是实际上却用不到。这虽然不能说是一种浪费,但是却没有把有限力气花在刀口上。我所处的领域是关于网络
piaoxuefengqi
·
2014-03-24 10:00
基础理论
【
机器学习系列
】LDA资源
(转自:http://www.cnblogs.com/youth0826/archive/2010/10/28/1863650.html)LDA和HLDA:(1)D.M.Blei,etal.,"LatentDirichletallocation,"JournalofMachineLearningResearch,vol.3,pp.993-1022,2003.(2)T.L.GriffithsandM
piaoxuefengqi
·
2014-03-20 15:00
LDA
机器学习系列
(2):logistic回归,贝叶斯(bayes)方法
前言:这章主要介绍logistic回归和bayes法。两者都属分类,前者引入了logistic函数,后者引入了贝叶斯定理,都是比较基础的数学知识。 但是logistic无需先验的训练样本,后者需要。 贝叶斯法很强大,很多邮件、网页筛选都有用到,这里只介绍朴素bayes法。理解其关键在于应用中条件概率的提取。 引用《机器学习》上的一句话: “在特定前提下
hanzihan123
·
2014-03-19 16:00
机器学习
Logistic回归
贝叶斯方法
【
机器学习系列
】皮尔逊相关系数
欧几里德距离欧几里得度量定义欧几里得空间中点x=(x1,...,xn)和y=(y1,...,yn)之间的距离为但是当评价结果中,评价者的评价相对于平均水平偏离很大的时候欧几里德距离不能很好的揭示出真实的相似度.还有一种评价方法就是使用皮尔逊相关系数,它可以完成"夸大值纠偏":皮尔逊相关度系数两个变量之间的相关系数越高,从一个变量去预测另一个变量的精确度就越高,这是因为相关系数越高,就意味着这两个变
piaoxuefengqi
·
2014-03-17 23:00
机器学习
皮尔逊相关系数
【
机器学习系列
】SVD奇异值分解(python代码)
说明NumPy有一个称为linalg的线性代数工具箱。本文主要介绍如何使用该工具箱实现矩阵的SVD处理。参考《机器学习实战》P255代码#coding:utf-8 fromnumpyimport* defloadData(): return[[1,1,1,0,0], [2,2,2,0,0], [3,3,3,0,0], [5,5,3,2,2], [0,0,0,3,3], [0,0,0,6,6]]
piaoxuefengqi
·
2014-03-17 23:00
python
机器学习
SVD
【
机器学习系列
】kNN(k近邻算法)的python实现
模型代码模型文件命名为kNN.py#coding:utf-8 fromnumpyimport* importoperator defcreateDataSet(): group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels=['A','A','B','B'] returngroup,labels defclassify(inX,dataS
piaoxuefengqi
·
2014-03-17 15:00
python
机器学习
knn
【
机器学习系列
】libsvm的使用问题收集
【1】我用grid.py进行参数寻优时,出现如下错误: D:\libsvm-2.89\tools>grid.pygerman_scale [local]5-776.9 Timeout:gnuplotisnotready [local]-1-770.0 Traceback: File"D:\libsvm-2.89\tools>grid.py",line362,in maingrid.py",line
piaoxuefengqi
·
2014-03-16 23:00
机器学习
libsvm
【
机器学习系列
】libsvm中的svm-toy尝试
主要内容利用libSVM自带的简易工具来演示SVM的两类分类过程。(以下内容只是利用libSVM自带的一个简易的工具供大家更好的理解SVM,如果你对SVM已经有了一定的了解,可以直接跳过这部分内容)实验首先,你要了解的是libSVM只是众多SVM实现版本中的其中之一。而SVM是一种进行两类分类的分类器,在libSVM最新版(libSVM3.1)里面,已经自带了简单的工具,可以对二分类进行演示。以w
piaoxuefengqi
·
2014-03-16 22:00
机器学习
SVM
机器学习系列
(1):线性回归(regression)和梯度下降(gradient descent)
前言:最近打算把机器学习的基本算法再梳理一下,看看能不能给我正在研究的DeepLearing找点突破口。这一篇主要介绍回归模型和梯度下降。 PS:由于本人比较懒,所以直接在纸上写下来了(字不好看,请见谅)!O(∩_∩)O~ 大家要是有什么问题请留言给我,希望可以共同学习! 引用一段话,给写在纸上找点借口哈:《餐巾纸的背面》 “视觉化的思考是运用我们天生的观察能力---
hanzihan123
·
2014-03-13 13:00
机器学习
回归
梯度下降
【
机器学习系列
】感知机学习代码
例题见《统计学习方法》P29例2.1感知机学习代码:#coding:gbk train_set=[[3,3,1], [4,3,1], [1,1,-1]] w=[0,0] b=0 learn_ratio=1 defpredict(t,w,b): returnt[2]*(w[0]*t[0]+w[1]*t[1]+b)>0 deflearn(w,b): have_wrong_predict_poi
piaoxuefengqi
·
2014-02-27 16:00
机器学习
感知机
【
机器学习系列
】EM算法求解三硬币问题(python版本)
三硬币模型假设有3枚硬币,分别记作A,B,C。这些硬币正面出现的概率分别为π,p和q。投币实验如下,先投A,如果A是正面,即A=1,那么选择投B;A=0,投C。最后,如果B或者C是正面,那么y=1;是反面,那么y=0;独立重复n次试验(n=10),观测结果如下:1,1,0,1,0,0,1,0,1,1假设只能观测到投掷硬币的结果,不能观测投掷硬币的过程。问如何估计三硬币正面出现的概率,即π,p和q的
piaoxuefengqi
·
2014-02-26 18:00
python
机器学习
em
【
机器学习系列
】三硬币问题——一个EM算法和Gibbs Sampling的例子
三硬币问题——一个EM算法和GibbsSampling的例子/*转载自:http://www.crescentmoon.info/?p=573说明:复制过来后,文中公式出现错误,请参考本文原始链接(即上面链接)。*/讲一个EM算法和Gibbs抽样的小例子,用于加深理解。题目:假设有3枚硬币,分别记做A,B,C。这些硬币正面出现的概率分别是π,p和q。进行如下掷硬币实验:先掷硬币A,根据其结果选出硬
piaoxuefengqi
·
2014-02-26 18:00
机器学习
em
sampling
Gibbs
【
机器学习系列
】EM算法
EM算法作者:罗维初稿:2011年1月15日修正:2012年1月14日很碰巧,时隔一年了。面对经典的EM算法,我有了新的认识。经常有人谈到它就是"鸡生蛋,蛋生鸡"的解法,这个很通俗,但是只了解到这一层,是远不够的……EM算法的全名是ExpectationMaximization,中文名叫期望最大化算法。它是一个在含有隐变量的模型中常用的算法,在最大似然估计(MLE)和最大后验估计(MAP)中常用。
piaoxuefengqi
·
2014-02-26 09:00
机器学习
em
【
机器学习系列
】主题模型-LDA浅析
上个月参加了在北京举办SIGKDD国际会议,在个性化推荐、社交网络、广告预测等各个领域的workshop上都提到LDA模型,感觉这个模型的应用挺广泛的,会后抽时间了解了一下LDA,做一下总结:(一)LDA作用 传统判断两个文档相似性的方法是通过查看两个文档共同出现的单词的多少,如TF-IDF等,这种方法没有考虑到文字背后的语义关联,可能在两个文档共同出现的单词很少甚至没有,但两个文档是相似
piaoxuefengqi
·
2014-02-25 18:00
机器学习
LDA
【
机器学习系列
】特征值、奇异值以及奇异值分解
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com,本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系
[email protected]
前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值
piaoxuefengqi
·
2014-02-18 09:00
机器学习
奇异值分解
奇异值
【
机器学习系列
】机器学习16本免费电子书
TheLIONWay:MachineLearningplusIntelligentOptimizationbyRobertoBattiti,MauroBrunato-Lionsolver,Inc.,2013Theintroductionofthebooksays,“LearningandIntelligentOptimization(LION)isthecombinationof learning
piaoxuefengqi
·
2014-02-17 09:00
机器学习
【
机器学习系列
】新的面向机器学习的并行框架(GraphLab)
1.1GraphLab简介在海量数据盛行的今天,大规模并行计算已经随处可见,尤其是MapReduce框架的出现,促进了并行计算在互联网海量数据处理中的广泛应用。而针对海量数据的机器学习对并行计算的性能、开发复杂度等提出了新的挑战。机器学习的算法具有下面两个特点:数据依赖性强,运算过程各个机器之间要进行频繁的数据交换;流处理复杂,整个处理过程需要多次迭代,数据的处理条件分支多。而MapReduce是
piaoxuefengqi
·
2014-01-09 15:00
机器学习
【
机器学习系列
】《Combining Labeled and Unlabeled Data with Co-Training》读书笔记
原文链接:http://repository.cmu.edu/cgi/viewcontent.cgi?article=1181&context=compscico-training的开山之作,也算是半监督学习领域的重要分支吧,3000+的引用,08年被ICML评为“十年最佳论文”。当年的两位作者现在都是CMU的教授(其实二作是一作在CMU的导师,现在还待着一大票博士),都依然活跃在机器学习领域。文
piaoxuefengqi
·
2014-01-07 09:00
机器学习
【
机器学习系列
】斯坦福课程——欠拟合与过拟合概念
欠拟合与过拟合概念本次课程大纲:1、 局部加权回归:线性回归的变化版本2、 概率解释:另一种可能的对于线性回归的解释3、 Logistic回归:基于2的一个分类算法4、 感知器算法:对于3的延伸,简要讲 复习: –第i个训练样本令,以参数向量为条件,对于输入x,输出为:n为特征数量 定义成本函数J,定义为:m为训练样本通过正规方程组推导的结论: 1、 过拟合与欠拟合 通常,你选择交给学习
piaoxuefengqi
·
2014-01-07 09:00
机器学习
【
机器学习系列
】机器学习界大牛林达华推荐的书籍
RecommendedBooksHereisalistofbookswhichIhavereadandfeelitisworthrecommendingtofriendswhoareinterestedincomputerscience.MachineLearningPatternRecognitionandMachineLearningChristopherM.BishopAnewtreatme
sina微博_SNS程飞
·
2013-12-27 10:09
机器学习
[置顶] 【
机器学习系列
】机器学习界大牛林达华推荐的书籍
RecommendedBooksHereisalistofbookswhichIhavereadandfeelitisworthrecommendingtofriendswhoareinterestedincomputerscience.MachineLearningPatternRecognitionandMachineLearningChristopherM.BishopAnewtreatme
piaoxuefengqi
·
2013-12-27 10:00
机器学习
推荐书籍
Stanford
机器学习系列
之一:机器学习基本概念
1. 机器学习定义 机器学习(Arthur Samuel,1959):在确定编程之外给予计算机学习能力的研究领域。 机器学习(Tom Mitchell,1998):如果计算机程序对于任务T的性能度量P通过经验E得到了提高,则认为此程序对E进行了学习。 2. 机器学习四个主要内容 -监督学习:包括回归(连续性问题)、分类(离散性问题)。需要训练集,训练集给出自变量和因变量(即标签),通过训练集
wsql
·
2012-12-08 23:00
机器学习
Stanford
机器学习系列
之一:机器学习基本概念
1.机器学习定义机器学习(ArthurSamuel,1959):在确定编程之外给予计算机学习能力的研究领域。机器学习(TomMitchell,1998):如果计算机程序对于任务T的性能度量P通过经验E得到了提高,则认为此程序对E进行了学习。2.机器学习四个主要内容-监督学习:包括回归(连续性问题:预测值或目标变量是连续的)、分类(离散性问题:预测值或目标变量是离散值)。需要训练集,训练集给出自变量
kingzone_2008
·
2012-12-08 23:00
机器学习
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他