E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
机器学习总结
周志华
机器学习总结
第二章
模型评估与选择经验误差与过拟合评估方法生成测试集与训练集的方法留出法(hold-out)交叉验证法(crossvalidation)自助法(bootstrapping)调参与最终模型性能度量P和R根据P-R曲线比较学习器性能ROC和AUC代价敏感错误率和代价曲线下面所有的#()\#()#()表示括号内元素的个数经验误差与过拟合错误率:错误分类的样本数占总样本数的比例精度:1-错误率误差:学习器实际
夜夜0810
·
2018-10-16 09:12
机器学习总结
之----2.逻辑回归
文章目录什么是逻辑回归逻辑回归的代价函数极大似然估计利用梯度下降法求参数我也只是在学习的过程中,相当于自己理解推导一遍做个笔记,参考了别人很多东西,文末有相关链接。什么是逻辑回归逻辑回归也叫做对数几率回归,但它却用来做二分类。线性回归产生的预测值为z=θTxz=\theta^{T}xz=θTx,线性回归通常用来做回归。但是可以在线性回归基础上,加上性质像阶跃函数但光滑可导的sigmod函数,然后算
GreatXiang888
·
2018-10-14 11:28
机器学习
机器学习总结
之----1.线性回归
文章目录基本形式损失函数最大似然估计误差推导求解方法方程法梯度下降法线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。基本形式一般线性模型表示:y^=θ0+θ1x1+θ2x2+...+θnxn\widehat{y}=\theta_{0}+\theta_{1}x_{1}+\theta_{2}x_{2}+...+\theta_{n}x_{n
GreatXiang888
·
2018-10-10 14:20
机器学习
机器学习总结
——数据预处理和特征工程
实际生产中机器学习的整个过程应该是如下的几步(后面还将从数据挖掘的角度另文进行讲解):1.场景选择(算法选择)——根据实际问题选择合适的算法,是分类还是回归等,是否需要做特征抽象,或者特征缩放;2.数据预处理——缺失值的处理,数据清洗等等;3.特征工程——包括特征构建、特征提取、特征选择等;4.模型训练——判断过拟合和欠拟合,通过交叉验证和gridresearch来选择参数,调整模型复杂度;5.模
MonkyK
·
2018-09-09 16:01
机器学习
机器学习总结
一:常见的损失函数
1.通常机器学习每个算法都会有一个目标函数,算法的求解过程就是对这个目标函数优化的过程。在分类或者回归问题中,通常使用损失函数(代价函数)作为其目标函数。损失函数用来评价模型的预测值和真实值不一样的程度。损失函数越好,通常模型的性能越好。不同的算法使用的损失函数不一样。2.损失函数分为经验损失函数和结构损失函数。(1)经验风险损失函数指预测结果和实际结果的差别;(2)结构风险损失函数是指经验风险损
沐尔还吃
·
2018-08-22 15:38
学习ing
机器学习
机器学习总结
(四)——最优化方法
机器学习中所谓的训练其实就是损失函数的优化过程,求损失函数的最优化解,主要是得靠一些常规套路,去一点一点地接近最优化目标。常用的有梯度下降法、牛顿法和拟牛顿法、共轭梯度法、启发式优化方法、拉格朗日乘数法等。一、梯度下降法(GradientDescent)梯度下降法实现的原理简单,是最常用最简单的最优化方法。当目标函数是凸函数时(如线性规划),得到的是全局最优解。但是在一般情况下,并不能保证得到全局
MonkyK
·
2018-08-21 21:19
机器学习
机器学习总结
(三)——损失函数
经典机器学习算法,他们最本质的区别是分类思想(预测y的表达式)不同,有的是基于概率模型,有的是动态规划,表象的区别就是最后的损失函数不同。损失函数分为经验风险损失函数和结构风险损失函数,经验风险损失函数反映的是预测结果和实际结果之间的差别,结构风险损失函数则是经验风险损失函数加上正则项(L0、L1(Lasso)、L2(Ridge))。不同的算法常用的损失函数(LossFunction)有:一、0-
MonkyK
·
2018-08-21 19:33
机器学习
机器学习总结
(二)——主要过程和名词
讲述机器学习算法的主要过程,以及涉及的一些名词。1、物理意义,学习不太算法时需要了解其基于什么样的物理过程,比如逻辑回归是将样本的特征通过函数映射为一个(0,1)之间的数字,如果大于决策边界(如0.5)则判定为标签1,小于则判定为0。物理意义其实相当于模型的定义,或者建立模型建立的过程。2、决策边界,分类算法是为了把样本分开,然后通过边界(也就相当于分类器或者模型)来判断未知样本的类别,比如逻辑回
MonkyK
·
2018-08-20 19:04
机器学习
机器学习
机器学习总结
(一)——主要算法
自学了一段时间的机器学习后来写写自己的一些理解,首先理一下各种学习方法,以及它们的分类。机器学习的主要算法分为:一、监督学习(指样本带有标签,知道每个样本分属哪个类别):主要包括分类和回归,但是很多方法其实可以用于分类,也可以用于回归,如决策树(DT)等。分类——1、逻辑回归(LogisterRegression);2、决策树(DecisionTree)3、K近邻(KNN);4、朴素贝叶斯(Nai
MonkyK
·
2018-08-19 19:58
机器学习
吴恩达
机器学习总结
三:多变量线性回归
第五章多变量线性回归6、多变量回归方程矩阵形式:7、多变量梯度下降法:这里i表示第i种拟合曲线,因为对一个数据模型进行拟合时我们有很多种曲线作为备选方案,我们一直在做的就是找出其中与真实情况误差最小的曲线。所以先要指定某条拟合曲线,再由此确定它的参数,进而判断是不是最优的,这里的i就指假设拟合的是第i条曲线。下角标j表示拟合曲线的第j个属性,因为这里是多变量拟合,比如房价与地段、楼层、使用年限等都
李攀UESTC
·
2018-08-01 11:41
机器学习
吴恩达
机器学习
机器学习总结
(三)SVM
支持向量机(SupportVectormachines)简称SVM是机器学习里面很经典的一个算法,懂了支持向量机你就可以做很多项目了。先通俗的讲述一下原理,不会提什么"函数间隔”,“几何间隔“”。从最简单的线性二分类问题入手。我们要找到一条直线,能把所有样本分为两类。这样的直线有很多,我们需要选取一条最优的,我们认为分类直线离样本最远就是最优的。因为离的越远,就越不容易误分类,为什么呢?想象一下,
撕裂的天堂
·
2018-07-31 15:53
机器学习
Day8:ML_LR
在开始之前,我看了西瓜书的前两章,模型评估与选择这章作为一个评价算法的标准十分重要,
机器学习总结
之第二章模型评估与选择-kuotian-博客园这篇文章几乎把书都照搬上来了,可以参阅这个。
奋发的小菜鸟
·
2018-05-22 22:12
吴恩达
机器学习总结
:第十四 大型机器学习(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.大数据集的学习(1)长处及缺陷 a.获得高性能的最佳方法之一是采用低偏置算法并对大量数据进行训练 b.我们看到只要提供大量数据的算法,它们的表现都非常相似 c.但是,使用大型数据集进行学习会带来其自身的计算问题(2)这种大规模总结的计算成本,我们将考虑更有效的方法 a. 使用不同的方法
CC12222032
·
2018-04-11 10:28
个人学习
吴恩达
机器学习总结
:第十三 推荐系统(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.推荐系统-介绍(1)ML系统的重要应用 a.许多科技公司发现推荐系统很关键(亚马逊,Ebay) b.推荐系统性能提高能带来更多收入(2)推荐系统不是一种技术,而是一种想法(3)例子—预测电影评分2.基于内容的推荐(1)问题描述(2)定义 a.电影LoveatLast可表示为: b.同理
CC12222032
·
2018-04-10 09:12
个人学习
吴恩达
机器学习总结
:第十二 异常检测(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.异常检测-问题动机(1)问题检测是什么 a.我们有一些包括正常值的数据 b.我们如何确保他们是正常的取决于我们 c.事实上,如果有一些实际上并不正常,那么也可以使用该数据集作为参考点,我们可以看到其他示例是否异常(2)我们如何做到这一点 a.首先,使用我们的训练数据集建立一个模型 b
CC12222032
·
2018-04-09 10:45
个人学习
吴恩达
机器学习总结
:第十一 降维(PCA)(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.动机I:数据压缩(1)压缩 a.加速算法 b.减小数据空间 c.2维降为1维例子 d.3维降为2维例子 e.在实际中,我们正常会将1000维将为100维2.动机II:可视化(1)很难可视化高维数据 a.将为将会以易处理的方式来显示信息,以此提供给人进行处理(2)我们关心
CC12222032
·
2018-04-08 15:21
个人学习
吴恩达
机器学习总结
:第十课 聚类分析(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.无监督学习——介绍(1)聚类(从无标签数据中学习)(2)无监督学习(3)适用聚类的 a.市场划分 b.社交网络分析 c.计算机集群 d.天文数据分析2.K-均值算法(1)将无标签数据分成两组(2)随机选择两个点作为聚合中心 a.有多少个聚合类就选择多少个聚合中心(3)集群分配步骤
CC12222032
·
2018-04-07 17:55
个人学习
吴恩达
机器学习总结
:第九课 支持向量机(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.支持向量机——优化对象(1)另一种替代的对于逻辑回归的视角 a.逻辑回归假设,和sigmoid函数图,以及代价函数 b.将(hθ(x))代入代价函数,得到另外一种形式代价函数 y=1和y=0时,代价函数曲线 (2)从逻辑回归代价函数中得到SVM的代价函数 a
CC12222032
·
2018-04-06 00:00
个人学习
吴恩达
机器学习总结
:第八课 机器学习系统设计(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.机器学习系统设计 (1)接触如何组合一个系统 (2)这部分需要很少的数学方法,但是数学方法可以帮助你理解算法 2.优先处理需要处理的问题--垃圾邮件分类 (1)选择你自己的特征 a.选择100个词 b.编入长向量 c.定义特征向量X,一般n
CC12222032
·
2018-04-05 18:46
个人学习
吴恩达
机器学习总结
:第七课 运用机器学习的建议(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.决定接下来该怎么尝试(1)调试学习算法(当实施正则化线性回归之后,预测中有比较大错误) a.获得更多训练数据(前提是要保证更多的训练集有用) b.使用更小的特征集(仔细选择小子集,或者使用PCA降维) c.增加额外的特征(有时候并不有用,你需要关注数据本身,需要消耗很多时间) d.增加
CC12222032
·
2018-04-03 17:54
个人学习
吴恩达
机器学习总结
:第六课 神经网络-学习(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.神经网络代价函数2.后向算法(被用来最小化代价函数) (1)误差 a.第四层输出误差表示为δj4 =aj4 - yj δ4 =a4 - y b.因为g'(z3)= a3 .* (1- a3),所以δ3 =(Ɵ3)T δ4 .*(a3 .* (1- a3))
CC12222032
·
2018-04-02 09:45
个人学习
吴恩达
机器学习总结
:第五课 神经网络-表示(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.模型展示-1 (1)神经元 (2)人工神经网络 a.在人工神经网络中,神经元是一个逻辑单元(通过输入线输入、逻辑单元进行计算、发送输出线条输出) b.该逻辑计算就像我们之前的逻辑回归假设计算 c.神经网络结构(第一层是输入层、第二层
CC12222032
·
2018-03-31 20:55
个人学习
吴恩达
机器学习总结
:第四课 正则化(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.过拟合问题 (1)线性回归的过拟合 a.过拟合导致高方差,欠拟合导致高偏差 b.泛化能力差 (2)逻辑回归的过拟合 (3)解决过拟合方法 a.减少特征数量(会造成信息缺失) b.正则化2.正则化的代价函数优化 (1)代价函数(其中正则想不包括
CC12222032
·
2018-03-30 09:36
个人学习
吴恩达
机器学习总结
:第三课 逻辑回归(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记总结1.分类 (1)y的值是离散值,比如说0(负分类),1(正分类) (2)从二元分类开始 (3)如何开始一个分类算法 a.利用线性回归,选个一个阈值2.假设表示 (1)逻辑函数(sigmoid函数) a.hθ(x)= (θT x) b.hθ(x) =g((θT
CC12222032
·
2018-03-29 10:46
个人学习
吴恩达
机器学习总结
:第二课 多变量线性回归(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。英文非官方笔记1.总结 (1)符号设置: n特征的数量 m 样本数量 Xi 样本i的向量型输入 Xji 样本i的第j个特征 hθ(x)= θ0x0 + θ1x1 + θ2x2 + θ3x3 + θ4x4 hθ(x)=θT X (2)多变量的梯度
CC12222032
·
2018-03-22 15:46
个人学习
吴恩达
机器学习总结
:第一课 单变量线性回归(大纲摘要及课后作业)
为了更好的学习,充分复习自己学习的知识,总结课内重要知识点,每次完成作业后都会更博。 英文非官方笔记 1.总结 (1)代价函数 (2)梯度下降 重要参数:学习率α(太小导致收敛慢,太大导致不能收敛)和迭代次数 2.课后作业: (1)导入数据 data=load('ex1data1.txt');X=data(:,1);y=data(:,2); (2)可视化(画图)functio
CC12222032
·
2018-03-21 09:52
个人学习
机器学习总结
(lecture 1)机器学习基础知识
lecture1:机器学习基础知识目录lecture1机器学习基础知识目录01机器学习概念2机器学习分类3感知机Perceptron最简单的机器学习算法4训练集测试集验证集5过拟合6正则化7交叉验证8梯度下降9学习率10特征约简11正规方程和梯度下降0参考:https://morvanzhou.github.io/learning-steps/1机器学习概念机器学习:从经验E学习一些分类任务T和性
九方先生
·
2018-02-19 22:02
机器学习总结
读统计学习方法有感
机器学习总结
而言就是模型、策略与算法的结合,模型是为了解决某种问题而建立的规则的集合或者一种映射函数,总之,你可以将模型想象成一个黑盒子,给定一个问题,她总能给你一个满意的解决方案;策略定义了评判模型好坏的准则
BUCJ
·
2017-12-09 02:22
机器学习总结
(四)——随机森林与GBDT(梯度提升决策树)
1.随机森林简介随机森林采用的是bagging的思想,bagging即:通过在训练样本集中进行有放回的采样得到多个采样集,基于每个采样集训练出一个基学习器,再将基学习器结合起来共同实现分类或者回归。随机森林在对决策树进行bagging的基础上,在决策树的训练过程中引入了随机属性选择。传统决策树在选择划分属性的时候是在当前节点属性集合中选择最优属性,而随机森林则是对结点先随机选择包含k个属性的子集,
manong_wxd
·
2017-12-07 20:07
机器学习
机器学习总结
(三)——SVM
1.SVM的原理是什么svm是一种二分类模型,是一种在特征空间中寻找间隔最大化的分离超平面的线性分类器。线性可分样本:可以通过硬间隔最大化学习线性分类器实现。近似线性可分:通过引入松弛变量,通过软间隔最大化,学习线性分类器;非线性样本:通过核技巧与软间隔最大化学习非线性支持向量机;2.SVM为什么采用间隔最大化利用间隔最大化求得的最优分离超平面是唯一的。分离超平面产生的分类结果是最鲁棒的,泛化能力
manong_wxd
·
2017-12-07 20:40
机器学习
机器学习总结
(二)——逻辑斯谛回归和最大熵模型
一、逻辑斯谛回归1.逻辑斯蒂回归的优缺点优点:计算代价不高,易于理解和实现,且若采用随机梯度上升法可以在线学习;速度快,存储资源低。缺点:可能容易欠拟合,分类精度不高,这个可能是因为我们无法找到足够的特征。只能处理两类分类问题,且必须是线性可分的;(在此基础上衍生出来的softmax可以用于多分类)2.与其它的分类算法比较直接用线性回归做分类因为考虑到了所有样本点到分类决策面的距离,所以在两类数据
manong_wxd
·
2017-12-07 20:38
机器学习总结
(一)——有监督和无监督、生成模型和判别模型
1.有监督与无监督的区别是否为有监督需要看输入的数据是否含有标签(label)。数据含有标签,为有监督;不含有标签,为无监督;半监督学习:综合利用有类标签的数据和没有类标签的数据,来生成合适的分类函数。利用少量标注样本和大量未标注样本进行机器学习,从概率学习角度可理解为研究如何利用训练样本的输入边缘概率P(x)和条件输出概率P(y|x)的联系设计具有良好性能的分类器。2.生成模型与判别模型的区别生
manong_wxd
·
2017-12-07 20:07
机器学习
0目录
机器学习总结
框架.png1入门方法与理解2数学知识3核心概念4数据处理5特征工程5.1特征工程概论6基础算法7推荐系统实践8工具使用
kddor
·
2017-12-04 02:40
机器学习总结
(二):逻辑回归
上一篇博客我简要总结了线性回归的知识点,这篇博客将主要回顾逻辑回归的知识点,作为线性模型的另一种,逻辑回归主要用于分类问题,即用于因变量是离散类型的场景,在实际的应用中尤其是二分类问题中比较常见。逻辑回归知识点逻辑回归损失函数及其梯度的推导决策边界(decisionboundary)高级优化算法多类别分类问题逻辑回归代码实现正则化后的逻辑回归以上知识点因为数学公式较多,编辑困难的原因,我都采用手写
她说巷尾的樱花开了
·
2017-08-16 23:32
机器学习
机器学习总结
(一):线性回归、岭回归、Lasso回归
线性回归作为一种回归分析技术,其分析的因变量属于连续型变量,如果因变量转变为离散型变量,将转换为分类问题。回归分析属于有监督学习问题,本博客将重点回顾标准线性回归知识点,并就线性回归中可能出现的问题进行简单探讨,引出线性回归的两个变种岭回归以及Lasso回归,最后通过sklearn库模拟整个回归过程。目录结构线性回归的一般形式线性回归中可能遇到的问题过拟合问题及其解决方法线性回归代码实现岭回归与L
她说巷尾的樱花开了
·
2017-08-15 21:51
机器学习
机器学习总结
(四):RF,SVM和NN的优缺点
1.随机森林优缺点随机森林(RF)是Bagging的一个扩展变体。RF在以决策树为基分类器进行集成的基础上,进一步在决策树的训练过程中引入了随机属性选择。Bagging就是对数据集训练多个基分类器,然后将基分类器得到的结果进行投票表决作为最终分类的结果。基分类器在构建过程中需要尽可能保证训练出的基分类器有比较大的差异性,这就需要用对训练样本集进行采样,不同的基分类器训练不同的样本集。但是样本过少会
岸芃
·
2017-04-13 18:01
机器学习总结
机器学习总结
(九):梯度消失(vanishing gradient)与梯度爆炸(exploding gradient)问题
(1)梯度不稳定问题:什么是梯度不稳定问题:深度神经网络中的梯度不稳定性,前面层中的梯度或会消失,或会爆炸。原因:前面层上的梯度是来自于后面层上梯度的乘乘积。当存在过多的层次时,就出现了内在本质上的不稳定场景,如梯度消失和梯度爆炸。(2)梯度消失(vanishinggradientproblem):原因:例如三个隐层、单神经元网络:则可以得到:然而,sigmoid方程的导数曲线为:可以看到,sig
西电校草
·
2017-04-01 00:00
机器学习
算法
神经网络
机器学习
机器学习总结
面试
机器学习总结
(七):基本神经网络、BP算法、常用激活函数对比
1.神经网络(1)为什么要用神经网络?对于非线性分类问题,如果用多元线性回归进行分类,需要构造许多高次项,导致特征特多学习参数过多,从而复杂度太高。(2)常用的激活函数及其优缺点阶跃函数sgn(x)(理想,但不连续,不光滑);Sigmoid函数(下图左):优点:能够把输入的连续实值压缩到0到1之间;缺点:(1)容易饱和,当输入非常大或非常小的时候,神经元的梯度就接近0了,这使得在反向传播算法中反向
西电校草
·
2017-03-31 09:33
机器学习总结
面试
机器学习总结
(一):常见的损失函数
这是博主的第一篇博客,mark一下,希望今后能够坚持下去。博主是机器学习菜鸟,将来希望从事机器学习的工作,最近在整理机器学习的知识点,将这些总结的文字以博客的形式展现出来,一是便于复习,二是分享出来希望能对别人会有一点点帮助。最近搜集了一些机器学习常见的面试问题,将问题和回答整理出来,做到有备无患。(随时进行补充)常见的损失函数梯度消失和梯度爆炸产生的原因SVM的原理RF,SVM和NN的优缺点模型
岸芃
·
2017-03-30 15:36
机器学习
机器学习总结
机器学习总结
(六):集成学习(Boosting,Bagging,组合策略)
(也是面试常考)主要思想:利用一定的手段学习出多个分类器,而且这多个分类器要求是弱分类器,然后将多个分类器进行组合公共预测。核心思想就是如何训练处多个弱分类器以及如何将这些弱分类器进行组合,个体分类器应该“好而不同”。弱分类器如何选择:一般采用弱分类器的原因在于将误差进行均衡,因为一旦某个分类器太强了就会造成后面的结果受其影响太大,严重的会导致后面的分类器无法进行分类,,常用的弱分类器可以采用误差
西电校草
·
2017-03-30 12:01
机器学习总结
面试
机器学习总结
之逻辑回归Logistic Regression
原文地址逻辑回归logisticregression,虽然名字是回归,但是实际上它是处理分类问题的算法。简单的说回归问题和分类问题如下:回归问题:预测一个连续的输出。分类问题:离散输出,比如二分类问题输出0或1.逻辑回归常用于垃圾邮件分类,天气预测、疾病判断和广告投放。一、假设函数因为是一个分类问题,所以我们希望有一个假设函数,使得:而sigmoid函数可以很好的满足这个性质:故假设函数:其实逻辑
yan456jie
·
2016-09-19 21:56
机器学习
机器学习总结
转摘的,忘记连接了朴素贝叶斯P(A∩B)=P(A)*P(B|A)=P(B)*P(A|B)所以有:P(A|B)=P(B|A)*P(A)/P(B)对于给出的待分类项,求解在此项出现的条件下各个目标类别出现的概率,哪个最大,就认为此待分类项属于哪个类别工作原理假设现在有样本x=(a1,a2,a3,…an)这个待分类项(并认为x里面的特征独立)再假设现在有分类目标Y={y1,y2,y3,y4..yn}那么
hemmingway
·
2016-05-02 20:09
机器学习
机器学习总结
3_朴素贝叶斯
1.纠结了好一阵这一节写哪一个算法,最后决定先把容易写的给总结出来。朴素贝叶斯,我们从名字上就可以明显感觉到这是和概率有着很大关系的一个算法。我们在这里只谈二分类的问题,我觉得如果你会通过贝叶斯解决二分类问题,那多分类问题也不是一件难事了。(0)贝叶斯公式P(Y,X)=P(Y|X)×P(X)=P(X|Y)×P(Y),这个就是传说中的贝叶斯公式。(1)如何通过概率去解决一个分类问题?现在如果有人问你
hulingyu1106
·
2016-04-26 20:00
算法
机器学习
图解
机器学习总结
——2、回归
一、回归的定义回归指的是对于训练数据集{xi,yi},其中,yi是连续值。用过学习,找到函数fθ(x),使得:y^i=fθ(xi)≈yi此时,为了度量找到的函数的优劣,设计了度量的函数,称为损失函数:Loss=12∑i=1n(fθ(xi)−yi)2二、最小二乘学习法最小二乘法是对Loss函数为最小时的参数进行学习,即:θ^LS=argminθJLS(θ)对于函数fθ(x),若使用线性模型,即:fθ
google19890102
·
2016-04-25 10:00
机器学习
线性回归
最小二乘
图解机器学习
机器学习总结
2_感知机算法(PLA)
1.正式开始之前的描述(1)PLA:PerceptronLearningAlgorithm。在正式开始之前,我想先说一下,PLA到底是干嘛的。大部分机器学习的书以及视频都是以感知机算法作为开头的。既然放在最前面,它应该就是一个很简单的机器学习算法。事实上,它确实很简单。如下图所示:红色和蓝色的点分别表示训练集中的正样本和负样本,PLA的任务就是寻找下面那条能将训练集完全分开的蓝色直线。(一般简单的
magic__hu
·
2016-04-21 20:17
机器学习
机器学习总结
机器学习总结
_2感知机算法(PLA)
1.正式开始之前的描述(1)PLA:PerceptronLearningAlgorithm。在正式开始之前,我想先说一下,PLA到底是干嘛的。大部分机器学习的书以及视频都是以感知机算法作为开头的。既然放在最前面,它应该就是一个很简单的机器学习算法。事实上,它确实很简单。如下图所示:红色和蓝色的点分别表示训练集中的正样本和负样本,PLA的任务就是寻找下面那条能将训练集完全分开的蓝色直线。(一般简单的
hulingyu1106
·
2016-04-21 20:00
算法
机器学习
机器学习总结
_1学习理论
学习理论主要想表达的东西想一下,在什么样的情况下,我们会想到机器学习。可能你在碰到这么一个问题时:你现在有很多有癌症和没有癌症的人的身体情况资料,然后让你判断一个人是否患有癌症。在你碰到这个问题的时候,你会说现在有了现成的训练集,我把它扔到机器学习算法里去学习一下,学习出来一个模型,然后就可以做判断了啊!!这很easy啊。在这一讲里面,我想说的就是,为什么这么做是有效的?在这个看起来很easy的做
hulingyu1106
·
2016-04-19 21:00
算法
机器学习
学习理论
机器学习总结
_前言
写在前面的话兜兜转转,一年有余,期间看了一些关于机器学习的视频,博客和书籍。看过不同的人对机器学习不一样的认识之后,自己也偶有所思。所以有此总结,以便回顾。如果我的总结能够帮助到你,请你不要吝啬你的赞美。哈哈哈~~。原本是打算在纸上写个总结的,无奈发现,白纸黑字记下来之后,想要做点更改,着实有点麻烦。然后发现csdn有类似latex的编辑器,解决了公式编辑的问题,那就索性开个博客吧。一直以来,都是
hulingyu1106
·
2016-04-19 19:00
机器学习
机器学习总结
二:逻辑回归Logistic Regression
机器学习总结
之逻辑回归LogisticRegression逻辑回归logisticregression,虽然名字是回归,但是实际上它是处理分类问题的算法。
hustlx
·
2016-04-14 17:31
机器学习
图解
机器学习总结
——1、基本概念
序言:近期主要帮同事讲解《图解机器学习》,刚拿到这本书觉得内容相比较平常使用的机器学习算法,很多地方讲解得比较奇怪,在认真的读完后,觉得还是有很多重要的东西,因此读了书就想把知识点整理出来,加上一些自己对各种算法的认识,因此这个系列里面有一些个人的理解,若有不对的地方,还请不吝指出,谢谢。一、机器学习的概念对于机器学习概念的理解,机器学习主要是从大量的数据中找到数据中潜在的模式或者规律,并利用这样
zhiyong_will
·
2016-04-09 21:28
Machine
Learning
论文与材料的学习笔记
上一页
1
2
3
4
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他