E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
----机器学习笔记
机器学习笔记
-Logistic回归
0-回顾linearregressionlinear\regressionlinearregression如果使用平方错误的话,我们可以很方便的解析出最好的www是什么。即wbest=X†yw_{best}=X^{\dagger}ywbest=X†y1-逻辑斯蒂回归问题1.1-问题的提出从一个人的身体数据来判断这个人有没有心脏病,这是一个典型的二元分类问题。logisticregression\t
土肥宅娘口三三
·
2023-04-05 22:28
机器学习
逻辑斯蒂回归
梯度下降算法
机器学习算法
机器学习笔记
(十三):TensorFlow实战五(经典卷积神经网络: LeNet -5 )
1-引言之前我们介绍了一下卷积神经网络的基本结构——卷积层和池化层。通过这两个结构我们可以任意的构建各种各样的卷积神经网络模型,不同结构的网络模型也有不同的效果。但是怎样的神经网络模型具有比较好的效果呢?下图展示了CNN的发展历程。经过人们不断的尝试,诞生了许多有有着里程碑式意义的CNN模型。因此我们接下来会学习这些非常经典的卷积神经网络LeNet-5AlexNetVGGInceptionResN
LiAnG小炜
·
2023-04-05 14:56
机器学习笔记
李宏毅
机器学习笔记
——生成模型
介绍了三种方法,pixelRNN,VAE,GAN。笔记以VAE为主。pixelRNN比较容易理解,由已知推未知。这种方法还能应用到语音生成等领域在这里有个tips值得说一下,图的每个像素一般RGB三色,问题出在当RGB三个值相差不大时最终的结果像素点的颜色趋向灰色,于是乎,为了使生成的图像更加鲜亮,就需要拉高三个值的差距。简而言之,原本用三个数表示颜色,现在只用一个。VAE是一个相对复杂的东西,事
荆棘鸟》
·
2023-04-04 13:14
深度学习
人工智能
李宏毅
机器学习笔记
——概率模型
很有意思的一门课,但关于如何利用P(x)生成x还存在疑惑。在神经网络中y=w*x+b,为什么是这个形式?这门课将在最后归结到这一点上。举一个实际的例子,训练集中A类71个B类69个我们假定A类的71个点遵循gaussiondistribution,上图涉及的函数:输入一个点(代表一个实例的特征vector),输出sample中该点的概率,在下文中即为P(x|A)与P(x|B)该函数有两个参数,μ与
荆棘鸟》
·
2023-04-04 13:43
机器学习
人工智能
神经网络
机器学习笔记
E5--决策树ID3、C4.5与CART
决策树思想特征选择信息增益与ID3信息增益率与C4.5基尼指数与CARTID3、C4.5与CART的对比决策树剪枝对连续值的处理对缺失值的处理多变量决策树两人去轩辕台路上遇雨,郭靖道:那么咱们快跑。黄蓉摇了摇头:靖哥哥,前面也下大雨,跑过去还不是一般的淋湿?郭靖笑道:正是。黄蓉心中却忽然想起了华筝之事:“前途既已注定了是忧患伤心,不论怎生走法,终究避不了、躲不开,便如长岭遇雨一般。”当下两人便在大
EL33
·
2023-04-04 07:35
机器学习笔记
(一)
学习算法的任务:通过训练样本,选择或学习得到参数θ监督学习(SupervisedLearning)监督学习:通过已有训练样本进行训练,得到一个拟合效果最好的基本模型,再使用该模型,对新的训练样本计算出相应的输出结果,对输出结果进行判断实现分类的目的。并通过大量的迭代后,最后得到最终模型。简单来说:通过给算法提供一组标准答案,然后希望算法计算得到标准输入和标准输出之间的联系,然后返回更多的标准答案。
ZihouWong
·
2023-04-03 11:20
机器学习笔记
10 -- 回归与聚类算法
回归和聚类线性回归:欠拟合与过拟合->岭回归分类算法:逻辑回归模型保存与加载无监督学习:K-means线性回归原理:回归问题:目标值为连续型的数据应用场景:房价预测,销售额度预测,金融类问题定义:函数关系:目标值--特征值——>线性模型广义线性模型:非线性关系自变量一次方参数一次方线性关系线性模型线性回归的损失和优化原理:目标:求模型参数,使得模型能够预测准确真实关系:随意假定:通过一种方法将两个
whurrican
·
2023-04-03 01:55
机器学习
聚类
回归
自学
机器学习笔记
(二十一)
K-均值聚类假设空间由N个点{Xi},i=1,2,……N,我们把这N个点划分为K类,对每个点设置一个隐含变量{Zi}i=1,2,……N,Zi取值范围为1,2,……K。表示相应的Xi所属类别,我们要将同一类别的点的欧氏距离比较近,因此我们设置每一个类别的中心为C1,C2……CKK均值聚类的优化目标最小化:要合理选取每个点的类别和类别的中心,这是一个非连续的优化问题,我们把这类优化问题叫整数规划。问题
梦忆师
·
2023-04-02 21:10
机器学习
聚类
人工智能
机器学习笔记
--模型评估之二:准确率、精确率、召回率、F1Score与ROC
准确率(precision)P:其中,TP(真正,TruePositive)表示真正结果为正例,预测结果也是正例;FP(假正,FalsePositive)表示真实结果为负例,预测结果却是正例;TN(真负,TrueNegative)表示真实结果为正例,预测结果却是负例;FN(假负,FalseNegative)表示真实结果为负例,预测结果也是负例。显然,TP+FP+FN+TN=样本总数精确率(Prec
dudu妈
·
2023-04-02 10:18
学习笔记
机器学习
李宏毅
机器学习笔记
DataWhale–李宏毅老师机器学习P5-P8《误差来源》和《梯度下降法》学习笔记学习笔记本文是李宏毅老师B站–《机器学习》课程的学习笔记,在此非常感谢DataWhale提供的平台,希望大家加入到这个学习的大家庭中,共同成长。本文主要是关于误差来源及梯度下降法的介绍,是在老师的讲解视频和学习文档的基础上总结而来。一、误差来源在机器学习中,模型估计的误差可以分为两种,偏差(Bias)和方差(Var
learn_for_more
·
2023-04-02 06:26
机器学习
人工智能
深度学习
机器学习笔记
(4.1)
机器学习系列文章目录文章目录机器学习系列文章目录第九节一个例子算法原理算法的优缺点优点缺点关于K的选取尝试动手总结第十节一个例子算法原理算法的优缺点几个版本的决策树的比较优点缺点关于剪枝尝试动手扩展内容总结十一节一个例子算法原理如何处理连续值关于平滑算法的优缺点优点缺点尝试动手扩展内容总结第九节你好,从这一课时开始,我们将进入“模块三:分类问题”的学习。在算法部分,我会介绍一个跟算法思想相关的小例
临渊——摸鱼
·
2023-03-30 13:50
算法
数学建模
python
机器学习
算法
人工智能
机器学习笔记
(3)
预测PM2.5这次预测PM2.5的大作业,参考:https://github.com/Starscoder/Machine_LearningHomework/blob/master/MyPredict_PM2.5.ipynb,学习了利用pandas切片,以及利用ada梯度下降法计算w,收获很多,后面会在此基础上,把模型复杂化一些,将以前学习的线性回归方法用实例模拟一遍。
trying52
·
2023-03-30 12:22
机器学习笔记
(10)
学习打卡内容:阅读《李航统计学习方法》的65-74页学习Gini指数学习回归树剪枝根据自己阅读,先写出自己所认为的笔记。前面学习了决策树的建立方法。这样产生的树往往对训练数据的分类很准确,但对未知的测试数据的分类却没有那么准确,即出现过拟合现象。过拟合的原因在于学习时过多地考虑如何提高对训练数据的正确分类,从而构建出过于复杂的决策树。解决这个问题的办法是考虑决策树的复杂度,对已生成的决策树进行简化
trying52
·
2023-03-28 23:56
机器学习笔记
14: 独立成分分析
这一节的主题是独立成分分析(IndependentComponentsAnalysis,ICA)。和PCA的降维思路不同,ICA主要解决的是找到数据背后的“独立”成分。我们从一个鸡尾酒会问题开始说起。在一个鸡尾酒会中假设有n个人同时说话,屋子里的n个麦克风记录着这n个人说话时叠加的声音。由于每个麦克风离人的距离不同,它所采集到的声音是不同的,但都是这n个人声音的一种组合。那么问题是根据这些采集到的
secondplayer
·
2023-03-28 11:48
E-L-33的新年挑战--所有的瞬间
(洗面奶、爽肤水、乳液、防晒)、晚(洗面奶、爽肤水、乳液、面霜)百词斩:50词新年挑战v2.0挑战时间:#1903171446挑战内容:2019-03-27号更新完E1-E8系列笔记要求:笔记内容参见
机器学习笔记
EL33
·
2023-03-28 04:56
机器学习笔记
(1)--林轩田机器学习基石课程
MachineLearningandotherField机器学习和数据挖掘:机器学习是通过数据训练,借助设计的机器学习演算法,从众多的假说中,找到一个最接近最优映射关系f的过程。机器学习的模型就是机器学习演算法加上假设集。数据挖掘是从众多数据中,找到、挖掘出自己感兴趣的某个点。当你感兴趣的这个点正好是机器学习所要寻找的映射关系g的时候,数据挖掘就成了机器学习。机器学习和人工智能:人工智能是让机器做
数学系的计算机学生
·
2023-03-26 17:37
正则化(吴恩达
机器学习笔记
)
文章目录1.过拟合问题2.代价函数3.正则化线性回归1.梯度下降法2.正规方程4.正则化逻辑回归1.过拟合问题如图所示:第一个模型是线性的,属于欠拟合,不能很好的适应数据集,而第3个则是一个高次方的模型,过于拟合原始数据,从而不能很好的预测数据,属于欠拟合。也不难看出,当x的次数越高,训练出来的模型就会对数据集拟合的越好,但是其预测效果就会变差。解决方案:①减少特征的数量,丢弃掉一些非必要的特征。
是忘生啊
·
2023-03-26 07:02
机器学习
机器学习
逻辑回归
人工智能
机器学习正则化ppt_吴恩达
机器学习笔记
(三) —— Regularization正则化
主要内容:一.欠拟合和过拟合(over-fitting)二.解决过拟合的两种方法三.正则化线性回归四.正则化logistic回归五.正则化的原理一.欠拟合和过拟合(over-fitting)1.所谓欠拟合,就是曲线没能很好地拟合数据集,一般是由于所选的模型不适合或者说特征不够多所引起的。2.所谓过拟合,就是曲线非常好地拟合了数据集(甚至达到完全拟合地态度),这貌似是一件很好的事情,但是,曲线千方百
希望阳光下
·
2023-03-25 03:04
机器学习正则化ppt
机器学习笔记
(2-3)--林轩田机器学习基石课程
GuranteeofPLA这一小节,老师解决了我上一节中遗留的问题。首先,只有当数据集data是线性可分的时候,才存在f超平面,将空间没有错误地划分成两块。所以,PLA才能输出一个可行解g。其次,证明PLA可以在有限步输出g分为三部分:证明w_f·w_{t+1}>w_f·w_{t}(其中w_f是最优解f对应的权向量):这一证明意味着,经过不断的修正,w_t会变得越来越接近理想的w_f。证明w_{t
数学系的计算机学生
·
2023-03-24 12:54
#1:
机器学习笔记
-入门
关于机器学习你需要知道的几件事:机器学习是人工智能的一个领域。机器学习是一种解决问题的方式。我们首先去定义一个问题,然后构建数据集,然后处理数据,训练模型,最后用这个训练好的模型去做一些预测机器学习听起来很神秘,他到底有什么样的应用呢?在诸如预测房价,未来天气等都会用到机器学习。还有我们的手机中也有很多AI产品的应用,比如拍照软件中的人脸识别,翻译软件通过语音输入来翻译成各国语言等。大概了解到机器
哇咔咔_wang
·
2023-03-23 05:45
【吴恩达
机器学习笔记
详解】第六章 逻辑回归
第五章主要讲的是编程语言的介绍,因为我们现在用python的比较多,所以就没有再看那一章。但是5.6值得看一下5.6矢量现在的变成语言包含了各种各样的矩阵库,所以通常进行矩阵计算的时候我们直接用命令即可,如果使用了合适的向量化方法,代码会简单很多。下面进行一些例子的讲解。这是线性回归的假设函数,他是从0到j的一个求和,我们也可以把他看作是矩阵的相乘,θ的转置×x,可以写成计算两个向量的内积。前面的
爱冒险的梦啊
·
2023-03-21 07:04
机器学习教程
机器学习
逻辑回归
人工智能
吴恩达
机器学习笔记
:逻辑回归分类、神经网络
机器学习笔记
:逻辑回归分类、神经网络逻辑回归LogisticRegression(不是很懂)正则化Regularization神经网络NeuralNetworks(也不太懂)建议评估假设算法模型选择和交叉验证集诊断偏差和方差正则化和偏差
流动的时间里找你的旋律
·
2023-03-21 07:26
神经网络
机器学习
深度学习
机器学习笔记
(吴恩达)——逻辑回归
假说表示我们引入一个新的模型,逻辑回归,该模型的输出变量范围始终在0和1之间。逻辑回归模型的假设是:hθ(x)=g(θTX)h_\theta\left(x\right)=g\left(\theta^{T}X\right)hθ(x)=g(θTX)其中:XXX代表特征向量ggg代表逻辑函数(logisticfunction)是一个常用的逻辑函数为S形函数(Sigmoidfunction),公式为:g(
Pyrs
·
2023-03-21 07:25
数据分析与机器学习
深度学习
python
机器学习
深度学习
算法
逻辑回归
机器学习笔记
(吴恩达)——逻辑回归作业
EX2逻辑回归1.1可视化数据importnumpyasnpimportmatplotlib.pyplotaspltimportpandasaspdfilepath=r'F:\jypternotebook\吴恩达机器学习python作业代码\code\ex2-logisticregression\ex2data1.txt'ex2_data1=pd.read_csv(filepath,header=
Pyrs
·
2023-03-21 07:25
数据分析与机器学习
深度学习
可视化
python
机器学习
深度学习
逻辑回归
逻辑回归(吴恩达
机器学习笔记
)
1.分类问题 在分类问题中,要预测的变量y是一个离散的值,尝试预测的结果是否属于某一个类,如:判断一封电子邮件是否是垃圾邮箱,区分一个肿瘤是恶性的还是良性的。 我们将因变量可能属于的两个类分别称为负向类和正向类,则因变量y∈0,1,其中0表示负向类,1表示正向类。2.假说表示 ,在逻辑回归中我们引入一个新的模型,该模型的输出变量范围始终在0和1之间。逻辑回归的假设是:hθ(x)=g(θTX)h_{
是忘生啊
·
2023-03-21 07:48
机器学习
逻辑回归
机器学习
算法
机器学习笔记
(7)
学习Datawhale对《李宏毅机器学习》决策树章节补充的内容:AdditionalReferences(熵的理解)学习目标:*信息量计算,原理*信息熵*证明0⩽H(p)⩽logn*联合概率,边缘概率*联合熵,条件熵,条件熵公式推导*互信息,互信息公式推导*相对熵,交叉熵*回顾LR中的交叉熵*计算给定数据集中的香农熵1、什么是熵(entropy)熵是热力学中的名词,是指自然世界中事物的混乱程度,在
trying52
·
2023-03-17 22:05
吴恩达
机器学习笔记
(3)——Logistic 回归
放假这么久,天天摸鱼,已经好久没更新了,希望后面的更新速度能达到日更吧,这次给大家介绍的是Logistic回归,虽然是名字带有回归,其实是一个分类算法。废话不多说,我们先从例题来引入我们今天的算法。引论我们这次不讨论房价的问题了,这次我们来讨论肿瘤大小判断肿瘤是否是良性的肿瘤。这是一个两项分布问题,输出的结果只可能是两个一个是是另一个是否。我们可以用0,1来表示输出的结果。那么我们如何来区分良性还
机智的神棍酱
·
2023-03-17 10:29
机器学习笔记
第3课:参数算法和非参数算法
什么是参数机器学习算法?它与非参数机器学习算法有何不同?“假设”通常会大大简化学习过程,但也会限制学到的东西。将函数简化为已知形式的算法,称为参数机器学习算法。它包括两个步骤:选择函数的形式。从训练数据中学习该函数的系数。常见的参数机器学习算法是线性回归和逻辑回归。相反地,不对映射函数的形式做出有力假设的算法,称为非参数机器学习算法。通过不作出任何假设,它可以自由地从训练数据中学习任何形式的函数。
首席IT民工
·
2023-03-15 10:01
机器学习笔记
:XGBoost 公式推导
目标函数=损失函数+正则化项:在时刻的目标函数。:当前预测结果,其中是在时刻要训练的CART树,是已经训练得到的CART树的线性组合。:正则项,具体如下:这里是时刻训练的CART树的叶子结点个数,是在编号为的叶子结点上的输出,和是超参数。使用二阶泰勒展式对使用二阶泰勒展式:其中是在时刻要训练的CART树,且并且所以因为是一个确定的数,可以归入,上式右边把换成叶子结点的输出,再把用定义展开,上式右边
李威威
·
2023-03-14 22:51
机器学习笔记
13: 主成分分析
上一节我们介绍了因子分析,该模型通过一系列变换可以将高维数据用低维数据来表示。因子分析基于的是概率模型,并且需要用到EM算法进行参数估计。这一节我们介绍主成分分析(PrincipalComponentsAnalysis,PCA),这也是一种可以将高维数据映射到低维数据的方法,但是这种方法更加直接,计算方法也更为简单。问题假设我们有一个数据集{x(i);i=1,...,m}表示m种不同汽车的特征,比
secondplayer
·
2023-03-14 14:20
机器学习笔记
- 基于传统方法/深度学习的图像配准
一、图像配准图像配准是将一个场景的不同图像变换到同一坐标系的过程。这些图像可以在不同的时间(多时间配准)、由不同的传感器(多模态配准)和/或从不同的视点拍摄。这些图像之间的空间关系可以是刚性的(平移和旋转)、仿射(例如剪切)、单应性或复杂的大变形模型。更多关于图像配准的描述,请参考下面的链接。计算机视觉什么是图像配准?_坐望云起的博客-CSDN博客_图像配准图像配准是叠加两个或多个来自不同来源、在
坐望云起
·
2023-03-13 16:48
机器学习
深度学习
人工智能
计算机视觉
图像配准
特征点
机器学习笔记
之—SVM
假定有一个训练集,它要么属于正例,要么属于负例。在分类问题当中,我们最基本的想法就是基于训练集D在样本空间中找到一个划分超平面,将不同的样本分开。这样的划分平面有很多,哪一个是最好的呢?1.png假设其中一个划分超平面是鲁棒性、泛化能力最好的,对训练样本局部扰动的“容忍性”也最好,这个划分超平面用如下方程式描述:2.png3.png样本空间到这个超平面的距离d表示为:3.png,沿用一般求点到直线
Seven_Xiong
·
2023-03-12 09:16
【ML入门】李宏毅
机器学习笔记
02-回归问题(Regression)
【ML入门】李宏毅
机器学习笔记
02-回归问题(Regression)-知乎https://zhuanlan.zhihu.com/p/74684108
BG大龍
·
2023-03-12 03:56
机器学习笔记
一
Typeofmachinelearning机器学习的四种类型SupervisedLearning监督式学习监督学习的含义是指训练的数据类型是已知的,换句话说就是已经打了标签分过类的数据(Correctclassesoftrainingdataareknown),依赖于人为输入训练的算法,减少人工审查相关性和编码的开支。SupervisedLearning监督学习的典型例子:1.png2.png3.
GXW1996
·
2023-03-11 22:31
机器学习笔记
3_Adaboost
一般来说,Ensemble模型适合于过拟合的模型,包括bagging和boosting.3.1Bagging其中Bagging是单独训练每个分类器,然后用平均或者投票的方法组合,boosting的方法则是分类器之前存在强依赖,前一个分类器预测的解构会影响后一个分类器。随机森林就是DT的bagging。在相同的深度下,随机森林并不会比决策树好很多,但会让分类的结果更平滑3.2Boostingboos
cuiyr123
·
2023-03-10 15:35
多元线性回归boston房价(吴恩达
机器学习笔记
)
目录1.多元线性回归1.梯度下降法2.正规方程2梯度下降法实践1.特征缩放2.学习率(learningrate)3.Boston房价预测1.多元线性回归对房价模型增加更多的特征,如房间数,楼层数等,构成了一个含有多变量的模型,模型中特征为(x1,x2...xn)(x_{1},x_{2}...x_{n})(x1,x2...xn).其中n代表特征数量,m代表训练集中的实列数量。x(i)x^{(i)}x
是忘生啊
·
2023-02-27 18:15
机器学习
机器学习
线性回归
逻辑回归
机器学习笔记
六:K-Means聚类,层次聚类,谱聚类
前面的笔记搞了那么多的数学,这篇来一点轻松的,提前适应一下除了监督问题以外的非监督学习。这篇笔记有没有前面那么多的数学了,要讲的聚类算是无监督的学习方式。一.一般问题聚类分析的目标是,创建满足于同一组内的对象相似,不同组的对象相异的对象分组.它作为一种无监督学习,将相似对象归到同一个簇中去.因此,聚类有时候被称为无监督分类.二.K均值聚类(K-means)Ⅰ.概念假设有一些数据,但是没有标签.我们
喜欢打酱油的老鸟
·
2023-02-22 07:51
人工智能
K-Means聚类
层次聚类
机器学习笔记
之生成模型综述(二)监督学习与无监督学习
机器学习笔记
之生成模型综述——监督学习与无监督学习引言回顾:生成模型介绍判别方式:生成模型VS\text{VS}VS判别模型生成模型的建模手段监督学习与无监督学习监督学习模型基于监督学习的非概率模型基于监督学习的概率模型无监督学习基于无监督学习的概率模型基于无监督学习的非概率模型生成模型介绍引言上一节介绍了生成模型的判别方式
静静的喝酒
·
2023-02-22 07:45
深度学习
机器学习
监督VS无监督
模型汇总
生成模型与判别模型
生成模型综述
机器学习笔记
之生成模型综述(一)生成模型介绍
机器学习笔记
之生成模型综述——生成模型介绍引言生成模型介绍引言从本节开始,将介绍生成模型的相关概念。生成模型介绍生成模型,单从名字角度,可以将其认识为:生成样本的模型。
静静的喝酒
·
2023-02-22 07:15
深度学习
机器学习
聚类
人工智能
生成模型综述
隐变量模型
机器学习笔记
--聚类算法 k-means--31省市消费水平聚类
参考文章:https://blog.csdn.net/rankiy/article/details/998433631.数据集数据介绍:现有1999年全国31个省份城镇居民家庭平均每月全年消费性支出的八个主要变量数据,这八个变量分别是食品、衣着、家庭设备用品、服务、医疗保健、交通、通讯、娱乐教育文化服务、居住以及杂项商品和服务。利用已有数据,对31个省份进行聚类。北京,2959.19,730.79
syntacticsugars
·
2023-02-22 07:45
机器学习
机器学习笔记
之谱聚类(一)k-Means聚类算法介绍
机器学习笔记
之谱聚类——K-Means聚类算法介绍引言回顾:高斯混合模型聚类任务基本介绍距离计算k-Means\text{k-Means}k-Means算法介绍k-Means\text{k-Means}
静静的喝酒
·
2023-02-22 07:08
机器学习
机器学习
聚类
k-Means
k-Means与高斯混合模型
k-Means的缺陷
Python
机器学习笔记
之回归
文章目录前言算法线性回归、多项式回归-房屋价格拟合岭回归-交通流量拟合总结前言对中国大学MOOC-北京理工大学-“Python机器学习应用”上的实例进行分析和修改:记录一些算法、函数的使用方法;对编程思路进行补充;对代码中存在的问题进行修改。课程中所用到的数据算法1、线性回归fromsklearnimportlinear_modellinear=linear_model.LinearRegress
Mr_Stutter
·
2023-02-21 10:55
Python机器学习
python
机器学习
回归
吴恩达
机器学习笔记
(一)——线性回归
线性回归学习笔记1.线性回归概述线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。其在金融、医疗等领域有着广泛的应用。y=ax+b一元线性回归可以看作是多元线性回归的一个特例,因此只要分析多元线性回归的特性。2.算法流程(1)选取特征值,设计假设函数。(2)代价函数。(3)进行梯度下降/正规方程。当我们需要用线性回归去解释一个现象或尝试做预测的时候,
tedist
·
2023-02-21 10:51
机器学习
吴恩达
Andrew
Ng
机器学习
线性回归
机器学习笔记
(2)
反向传播法(Backpropagationalgorithm)使用梯度下降法求解价值函数j(x)的最小值时,我们需要知道j(x)的导数先给一个样本(x,y)时的正向传播过程图片发自Appa(1)=xz(2)=theta(1)a(1)a(2)=g(z(2))z(3)=theta(2)a(2)a(3)=g(z(3))z(4)=theta(3)a(3)a(4)=h(x)=g(z(4))设置∂_j^l为第
呆呆说
·
2023-02-17 01:06
机器学习笔记
:MLP的万能逼近特性( Universal Approximation Property)
布尔逼近含有一个隐藏层的多层感知机/多层神经网络(MLP)可以精确地表示任何的布尔函数连续逼近含有一个隐藏层的多层感知机/多层神经网络(MLP)可以以任意精度逼近任何的有界连续函数任意逼近含有两个隐藏层的多层感知机/多层神经网络(MLP)可以以任意精度逼近任何函数万能逼近特性展示浅层神经网络的巨大潜能,当然是以神经元个数指数增长为代价,因此并不实用
UQI-LIUWJ
·
2023-02-16 21:22
机器学习
机器学习
人工智能
算法
机器学习笔记
- 什么是UMAP?
1、UMAP概述 统一流形逼近和投影(UMAP)是一种降维技术,可用于类似于t-SNE的可视化,但也可用于一般的非线性降维。UMAP是一种基于流形学习技术和拓扑数据分析思想的降维算法。它为处理流形学习和降维提供了一个非常通用的框架,但也可以提供具体的具体实现。 该算法基于对数据的三个假设: 数据均匀分布在黎曼流形上; 黎曼度量是局部常数(或可以近似); 歧管是本地连接的。 根据这些假设
坐望云起
·
2023-02-07 13:04
机器学习
UMAP
降维
机器学习
非线性降维
拓扑数据
机器学习笔记
4-多元梯度下降法
1.多特征2.多元特征下降法3.多元特征下降法-特征缩放有多个变量来求全局最优解的时候,如果变量的取值范围非常不一样,会使得等高线图变得扁平,比如图中的房屋尺寸和房间数量,一个是0-2000另外一个是1-5,会导致求全局最优解变得很慢,要花很长时间来计算。所以这里要把特征的范围缩小到比较相近的范围,比如x1/2000,x2/5,这样x1和x2都的范围是[0,1],使等高线的图看起来比较圆,会更快的
我想问问天
·
2023-02-07 11:12
人工智能
人工智能
机器学习
算法
线性回归 (Linear Regression)
机器学习笔记
——总贴本文目录1.线性回归1.1引言1.2线性回归的假设(hypothesis)1.3代价函数(costfunction)1.4梯度(gradient)1.5批梯度下降(batchgradientdescent
阿涵
·
2023-02-07 08:21
人工智能
机器学习
数据挖掘
深度学习
自动驾驶
神经网络
机器学习笔记
——线性拟合及梯度下降
机器学习笔记
——线性拟合及梯度下降线性拟合为什么要构造代价函数(1)从特殊情况:过原点的直线看起,只有一个参数的情况(2)从非特殊情况:不过原点的直线看起,有两个参数的情况梯度下降法梯度下降法数学含义梯度下降法下降方向的选择实现梯度下降法的学习率
家有琦琦果
·
2023-02-07 07:23
基础学习
机器学习
机器学习笔记
:朴素贝叶斯分类器(二)
在前一篇文章中,我们通过计算频率的方式来计算条件概率。对于未观测到的样本,其条件概率为0。这种假设看起来不太合理。现在我们要采用另一种方式来计算条件概率。我们假设特征之间相互独立,并服从正态分布。所有分类为C的样本的集合为Dc,集合中第i个特征服从正态分布:Xi~N(0,1)。通过计算Dc中所有特征的条件概率,最终得到单个样本属于分类C的条件概率,从而达到分类的目的。计算过程如下:贝叶斯分类.pn
谌显
·
2023-02-07 05:52
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他