E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习课程整理
吴恩达机器学习
第一章【Introduction】
吴恩达机器学习
第一章【Introduction】文章目录
吴恩达机器学习
第一章【Introduction】MachineLearningSupervisedLearning【监督学习】UnsupervisedLearning
Gowi_fly
·
2020-08-19 03:50
ML
吴恩达深度学习第二章第一周——Dropout正则化的个人理解
学习了
吴恩达机器学习
第二章改善深层神经网络:超参数调试、正则化以及优化的第一周之后发现对其中的部分知识仍然不是很理解,因此打算对其中的一些难点重新去整理。
倚剑笑紅尘
·
2020-08-19 03:45
机器学习
机器学习
吴恩达机器学习
----引言
吴恩达机器学习
教程学习笔记(1/16)吴恩达教授(AndrewNg)的机器学习可以说是一门非常重视ML理论基础的课程,做做一些简单的笔记加上个人的理解。
huapusi
·
2020-08-18 17:42
吴恩达机器学习笔记
人工智能
机器学习
吴恩达
监督学习
非监督学习
Github标星过万的
吴恩达机器学习
、深度学习课程笔记,《统计学习方法》代码实现,可以在线阅读了!...
吴恩达机器学习
、深度学习,李航老师《统计学习方法》,可以说是机器学习入门的宝典。本文推荐一个网站“机器学习初学者”,把以上资源的笔记、代码实现做成了网页版,可以在线阅读了。
湾区人工智能
·
2020-08-18 13:15
人工智能
编程语言
xhtml
办公软件
nagios
西瓜书+实战+
吴恩达机器学习
(三)机器学习基础(多分类、类别不平衡)
文章目录0.前言1.多分类学习2.类别不平衡如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言本篇介绍机器学习中的多分类和类别不平衡问题。1.多分类学习一些算法可以直接进行多分类,而另一些算法则不行,基本思路是:将多分类任务拆为若干个二分类任务求解。一对一(Onevs.One,OvO):给定数据集,将NNN个类别两两配对,产生N(N−1)/2N(N-1)/2N(N−1
zhq9695
·
2020-08-18 13:09
机器学习
吴恩达机器学习
EX5 作业 正则化线性回归 偏差 VS 方差 学习曲线
1、偏差、方差、学习曲线1.1偏差、方差从下图可以看出a、线性回归存在欠拟合,高偏差问题,如左图b、多项式或者很多特征存在过拟合、高方差问题,如右图训练集误差和交叉验证集误差近似时:偏差/欠拟合交叉验证集误差远大于训练集误差时:方差/过拟合1.2正则化和方差、偏差和多项式模型次数问题类似当lambda很大时,高偏差/欠拟合,如左图当lambda很小时,高方差/过拟合,如右图当lamdba较小时,训
lsnow8624
·
2020-08-18 11:50
吴恩达机器学习作业
机器学习资源
明天就要考研了,努力奋斗了近一年的时间,相信大家都已经做好准备,毕竟努力过结果都不会太差马上就要上“战场”了,大家加油希望每个人都能收获理想的成绩一、视频资源
吴恩达机器学习
视频链接:https://study
「已注销」
·
2020-08-17 20:11
机器学习
计算机相关专业及本科
课程整理
problem本科的计算机课程好多傻乎乎的分不清有哪些具体的专业,以及要学什么这里做个整理solution首先专业门类限定在工学和理学,以工学为主工学当中,比较相关的有计算机类,电子信息类,通讯类,电气类,自动化类。以计算机类为主。(六)电气类1.电气工程及其自动化2.智能电网信息工程3.光源与照明4.电气工程与智能控制5.电机电气智能化6.电缆工程(七)电子信息类1.电子信息工程2.电子科学与技
小哈里
·
2020-08-17 18:38
考证
吴恩达机器学习
笔记五_多元分类和神经网络
为什么要使用神经网络在笔记三中,曾提到非线性拟合的问题。当时是通过构造特征向量,即由两个或以上的变量构造一个新的变量,增加\(\theta\)的维度,以拟合出更细腻的曲线。下面是课件中类似的例子:可以看到,随着变量即数据集的维度增加,这种做法将会导致“维度灾难”,越来越不可行。就上述例子,以100维的数据集为例,二次项的构造复杂度是\(O(n^2)\),实际是5000;三次项复杂度是\(O(n^3
weixin_33963594
·
2020-08-17 16:22
[
吴恩达机器学习
笔记]12支持向量机2 SVM的正则化参数和决策间距
12.支持向量机觉得有用的话,欢迎一起讨论相互学习~吴恩达老师课程原地址参考资料斯坦福大学2014机器学习教程中文笔记by黄海广12.2大间距的直观理解-LargeMarginIntuition人们有时将支持向量机看作是大间距分类器。在这一部分,我将介绍其中的含义,这有助于我们直观理解SVM模型的假设是什么样的。以下图片展示的是SVM的代价函数:最小化SVM代价函数的必要条件如果你有一个正样本,y
武科大许志伟
·
2020-08-17 15:44
机器学习
机器学习基础
吴恩达机器学习
SVM
正则化参数
margin
吴恩达机器学习
第三章线性代数回顾学习笔记
matrix:矩阵vector:向量vector:ann*1matrix;矩阵的加法:只有相同维度的矩阵才能相加矩阵的乘法和除法:两个矩阵的乘法:m×n矩阵乘以n×o矩阵=m×o矩阵矩阵的乘法不满足交换律:A×B≠B×A矩阵的乘法满足结合律:A×B×C=A×(B×C)单位矩阵:在矩阵的乘法中,有一种矩阵起着特殊的作用,如同数的乘法中的1,这种矩阵被称为单位矩阵。它是个方阵,从左上角到右下角的对角线
西祠梧桐
·
2020-08-17 14:23
机器学习
【
吴恩达机器学习
笔记】第三章 线性代数回顾
搜索微信公众号:‘AI-ming3526’或者’计算机视觉这件小事’获取更多人工智能、机器学习干货csdn:https://blog.csdn.net/qq_36645271github:https://github.com/aimi-cn/AILearners第三章线性代数回顾3.1矩阵和向量矩阵(matrix):由数字组成的举行列阵,并写在方括号中。矩阵的维数(dimensionofmatri
Jermiane
·
2020-08-17 14:37
个人笔记
吴恩达机器学习
作业——多元分类及神经网络
第四周作业多元分类问题:识别手写数字0~9(0替换为10),5000个样本,20*20共400像素。多元分类Logistic回归1参数初始化%%Initializationclear;closeall;clc%%Setuptheparametersyouwilluseforthispartoftheexerciseinput_layer_size=400;%20x20InputImagesofDi
xc1996-
·
2020-08-17 12:26
机器学习
西瓜书+实战+
吴恩达机器学习
(二二)概率图模型之马尔可夫随机场
文章目录0.前言1.马尔可夫随机场结构2.近似推断2.1.Metropolis-Hastings如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言概率图模型是一类用图来表达变量相关关系的概率模型。图中的节点代表变量,图中的边代表变量之间存在某种联系。马尔可夫随机场(MarkovRandomField)是著名的无向图模型。马尔可夫链:系统下一时刻的状态仅由当前状态决定,
zhq9695
·
2020-08-16 17:51
机器学习
西瓜书+实战+
吴恩达机器学习
(二一)概率图模型之贝叶斯网络
文章目录0.前言1.贝叶斯网络结构2.近似推断2.1.吉布斯采样3.隐马尔可夫模型HMM如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言概率图模型是一类用图来表达变量相关关系的概率模型。图中的节点代表变量,图中的边代表变量之间存在某种联系。贝叶斯网络利用有向无环图DAG来刻画变量之间的依赖关系。B=<G,θ>B=<G,\theta>B=,BB
zhq9695
·
2020-08-16 17:50
机器学习
西瓜书+实战+
吴恩达机器学习
(二十)随机算法(拉斯维加斯方法、蒙特卡罗方法)
文章目录0.前言1.拉斯维加斯方法2.蒙特卡罗方法如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言随机算法主要分为两种类型:拉斯维加斯方法:采样次数越多,越有可能给出最优解蒙特卡罗方法:采样次数越多,越能近似最优解1.拉斯维加斯方法拉斯维加斯方法或者给出满足要求的解,或者不给出解。拉斯维加斯方法找到正确解的概率会随着计算时间的增加而增加。一个简单的例子是随机快速排序
zhq9695
·
2020-08-16 17:47
机器学习
西瓜书+实战+
吴恩达机器学习
(二三)EM算法和变分推断
文章目录0.前言1.EM算法2.变分推断如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言EM算法是常用的估计参数隐变量的方法,它是一种迭代式算法,EM算法原型:E步:若参数θ\thetaθ已知,则可根据训练数据推断出最优隐变量ZZZM步:若ZZZ的值已知,则可方便的对参数θ\thetaθ进行极大似然估计1.EM算法在概率图模型中,主要推断任务是基于观测变量推断隐变量
zhq9695
·
2020-08-16 17:47
机器学习
吴恩达机器学习
第二次作业(python实现):逻辑回归
逻辑回归数据在这importmatplotlib.pyplotaspltimportnumpyasnpimportscipy.optimizeasoptfromsklearn.metricsimportclassification_reportimportpandasaspdfromsklearnimportlinear_model#获取原始数据defraw_data(path):data=pd.
浅唱、
·
2020-08-16 10:14
吴恩达机器学习作业练习
吴恩达机器学习
课后习题ex8 异常检测(python实现)
异常检测二维数据高维数据在本练习中,您将实现异常检测算法来检测服务器计算机中的异常行为。这些特性测量每台服务器的吞吐量(mb/s)和响应延迟(ms)。当您的服务器正在运行时,您收集了m=307个它们的行为示例,因此有一个未标记的数据集。您怀疑这些示例中的绝大多数是服务器正常运行的“正常”(非异常)示例,但也可能有一些服务器在此数据集中异常运行的示例。您将使用高斯模型来检测数据集中的异常示例。您将首
flowerfu
·
2020-08-16 09:05
吴恩达机器学习
第二道编程题logistic逻辑回归
主程序logistic.m:A=load('tumor_size.txt');%肿瘤尺寸B=load('tumor_type.txt');%肿瘤性质,0良性1恶性C=[ones(length(B),1),A];%画出数据集pos=find(B==1);neg=find(B==0);plot(A(pos,1),A(pos,2),'k+','Linewidth',2,'MarkerSize',7);h
面包儿
·
2020-08-16 07:36
吴恩达机器学习
作业(二)实现:logistic回归
对于这一类分类问题:拿到数据先将它绘制出来,看数据在图片的分布,如果明显是两极化的,就用普通的逻辑回归,比如下图:如果数据的分布比较特别,就加入正则化,所谓正则化就是加入惩罚项,使得结果不容易过度拟合,所以两者只有代价函数不一样比如下图:当然还有更高级的回归算法,这是比较常用且简单的算法ex2.m所有编写的函数都在这里面调用%%MachineLearningOnlineClass-Exercise
小胖仙
·
2020-08-16 07:23
人工智能
吴恩达机器学习
作业讲解(含代码)——ex1(线性回归)
详细代码链接:h5wwProgrammingExercise1:LinearRegressionFilesincludedinthisexercise你必须要完成以下的函数:warmUpExercise.m-简单的样例函数plotData.m-显示数据集的函数computeCost.m-线性回归的代价函数gradientDescent.m-执行梯度下降算法你可以额外完成以下函数:computeCo
LazyYangHuan
·
2020-08-16 07:09
机器学习
吴恩达机器学习作业讲解
吴恩达机器学习
第二次作业——逻辑回归
逻辑回归一、逻辑回归1,数据可视化2,sigmoid函数,逻辑回归模型3,代价函数以及梯度4,评价逻辑回归二、正规化逻辑回归1,数据可视化2,特征映射(FeatureMapping)3,代价函数及梯度一、逻辑回归1,数据可视化在这部分练习中,建立一个逻辑回归模型来预测一个学生是否被大学录取。假设作为一所大学系的管理者,要根据每一位申请人在两次考试中的成绩来确定他们的入学机会。这里有前几年的历史数据
『 venus』
·
2020-08-16 07:17
机器学习
吴恩达机器学习
课后编程作业第二课解析:logistic regression
本文结合http://www.cnblogs.com/hapjin/p/6078530.html等众多文章以及Python版本代码来解析逻辑回归并实现首先问题描述:使用逻辑回归函数根据学生的考试成绩来判断该学生是否可以入学。训练数据的成绩样例如下:第一列表示第一次考试成绩,第二列表示第二次考试成绩,第三列表示入学结果(0--不能入学,1--可以入学)34.62365962451697,78.024
ChiiZhang
·
2020-08-16 07:38
吴恩达机器学习编程作业
吴恩达机器学习
(十四)——降维
14.1动机一:数据压缩降维也是一种无监督学习的方法,降维并不需要使用数据的标签。降维的其中一个目的是数据压缩,数据压缩不仅能够压缩数据,使用较少的计算机内存或磁盘空间,更可以加快我们的学习算法。降维能很好的处理特征冗余,例如:在做工程时,有几个不同的工程队,也许第一个工程队给你二百个特征,第二工程队给你另外三百个的特征,第三工程队给你五百个特征,一千多个特征都在一起,这些特征中往往都存在着巨大的
大鹏小站
·
2020-08-16 06:54
机器学习
吴恩达机器学习
作业5——偏差/方差/训练集/验证集/测试集
这一部分,我们需要先对一个水库的流出水量以及水库水位进行正则化线性归回。然后将会探讨方差-偏差的问题1数据可视化importnumpyasnpimportscipy.ioassioimportscipy.optimizeasoptimportpandasaspdimportmatplotlib.pyplotaspltimportseabornassnsdata=sio.loadmat('E:/sh
kingsure001
·
2020-08-16 06:13
机器学习
机器学习
python
过拟合
正则化
吴恩达机器学习
第二周编程作业(Python实现)
课程作业提取码:3szr1、单元线性回归ex1.pyfrommatplotlib.colorsimportLogNormfrommpl_toolkits.mplot3dimportAxes3DfromcomputeCostimport*fromplotDataimport*print('PlottingData...')data=np.loadtxt('./data/ex1data1.txt',d
jingjingnier
·
2020-08-16 06:22
学习
吴恩达机器学习
笔记(12)——降维(Dimensionality Reduction)
这里介绍第二种无监督学习方法,叫做降维(DimensionalityReduction)一、目标1:数据压缩DataCompression由于可能存在许多冗余特征量,或者说特征高度相关,所以需要减少特征量的数量。so如果允许我们通过投影这条绿线上所有的原始样本,来近似原始的数据集,那么我只需要用一个数就能表示每个训练样本的位置,这样就能把内存的需求减半,同时这将允许我们的学习算法运行的更快。二、目
阿尔基亚
·
2020-08-16 06:07
吴恩达机器学习
吴恩达机器学习
编程作业2逻辑回归(python)
网上的python实现基本都看了,重复率很高,第一个写出来的真大佬啊我使用jupyternotebook方便可视化和理解,只需要在一个文件里写完就可以了,不用绕来绕去。1.逻辑回归(不包含正则化)题意:ex2data1.txt包含三列数据,第一列第一次考试成绩,第二列第二次考试成绩。两次成绩决定通过不通过。第三列1表示admit,0表示refuse。1.1可视化原始数据importmatplotl
虎娃娃huwawa
·
2020-08-16 06:44
机器学习
吴恩达机器学习
笔记之机器学习系统设计
确定执行的优先级:误差分析:在设计一个复杂的机器学习系统时,可以先用最简单的算法去快速实现它,然后用交叉验证集来看看自己的算法需要在哪些方面提高,除此之外,还可以进行误差分析,来针对性的提高我们的算法。不对称分类的误差评估:类偏斜情况表现为我们的训练集中有非常多的同一种类的实例,只有很少或没有其他类的实例。这样我们并不能简单的从模型的准确度来度量我们的算法是否是一个好的算法。Precision和R
iblue_coffee
·
2020-08-16 06:21
机器学习笔记
[
吴恩达机器学习
笔记]14降维5-7重建压缩表示/主成分数量选取/PCA应用误区
14.降维觉得有用的话,欢迎一起讨论相互学习~吴恩达老师课程原地址参考资料斯坦福大学2014机器学习教程中文笔记by黄海广14.5重建压缩表示ReconstructionfromCompressedRepresentation使用PCA,可以把1000维的数据压缩到100维特征,或将三维数据压缩到一二维表示。所以,如果如果把PCA任务是一个压缩算法,应该能回到这个压缩表示之前的形式,回到原有的高维
武科大许志伟
·
2020-08-16 05:57
机器学习
机器学习基础
PCA
重建压缩表示
主成分数量选取
PCA应用误区
吴恩达机器学习
笔记(二)(附编程作业链接)
吴恩达机器学习
笔记(二)标签:机器学习
吴恩达机器学习
笔记二一逻辑回归logisticregression逻辑函数S型函数logisticfunctionandsigmoidfunction决策边界decisionboundary
蚍蜉_
·
2020-08-16 04:32
机器学习
吴恩达机器学习
—BP神经网络+matlab程序
烨枫_邱https://www.jianshu.com/p/6ab6f53874f71概念:BP神经网络是一种多层的前馈神经网络,其主要的特点是:信号是前向传播的,而误差是反向传播的。具体来说,对于如下的只含一个隐层的神经网络模型:BP神经网络的过程主要分为两个阶段,第一阶段是信号的前向传播,从输入层经过隐含层,最后到达输出层;第二阶段是误差的反向传播,从输出层到隐含层,最后到输入层,依次调节隐含
熙铭在学习
·
2020-08-16 01:52
机器学习
深度学习
吴恩达机器学习
______学习笔记记录#九、神经网络--学习
9.1代价函数首先引入一些便于稍后讨论的新标记方法:假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信号y,L表示神经网络层数,表示每层的neuron个数(表示输出层神经元个数),代表最后一层中处理单元的个数。将神经网络的分类定义为两种情况:二类分类和多类分类,二类分类:表示哪一类;K类分类:表示分到第i类;(k>2)我们回顾逻辑回归问题中我们的代价函数为:在逻辑回归中,我们只有一个输出
张某某。paranoia
·
2020-08-15 07:37
吴恩达机器学习
mysql数据库的安装以及常见优化设置
本文根据优才网
课程整理
,面向web开发者,内容以实用为主,专业DBA可以绕行。
weixin_34187862
·
2020-08-15 00:03
吴恩达机器学习
(五)正则化(解决过拟合问题)
目录0.前言1.正则化(Regularization)2.线性回归中的正则化3.逻辑回归中的正则化学习完吴恩达老师机器学习课程的正则化,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~0.前言在分类或者回归时,通常存在两个问题,“过拟合”(overfitting)和“欠拟合”(underfitting).过拟合:曲线为了减
zhq9695
·
2020-08-14 22:25
机器学习
吴恩达机器学习
笔记 —— 8 正则化
本章讲述了机器学习中如何解决过拟合问题——正则化。讲述了正则化的作用以及在线性回归和逻辑回归是怎么参与到梯度优化中的。更多内容参考机器学习&深度学习在训练过程中,在训练集中有时效果比较差,我们叫做欠拟合;有时候效果过于完美,在测试集上效果很差,我们叫做过拟合。因为欠拟合和过拟合都不能良好的反应一个模型应用新样本的能力,因此需要找到办法解决这个问题。想要解决这个问题,有两个办法:1减少特征的数量,可
weixin_33995481
·
2020-08-14 20:37
B站
吴恩达机器学习
视频笔记(31)——网络训练验证测试数据集的组成介绍
从今天开始我们进入新的一个大方向了,改善深层神经网络:超参数调试、正则化以及优化,首先进入深度学习的一个新层面,先认识下在深度学习中的数据集的分类。之前可能大家已经了解了神经网络的组成的几个部分,那么我们将继续学习如何有效运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。训练,验证,测试集(Train/Dev/Testsets)在
nine_mink
·
2020-08-14 18:49
B站吴恩达深度学习视频笔记
吴恩达学习—Logistic Regression
吴恩达机器学习
第一课便是LogisticRegression,这个算法是一种常见的分类算法,因其使用了logistic函数,由此得名。
秋风05
·
2020-08-14 17:20
机器学习
吴恩达机器学习
课后练习-ex2
所用到的文件ex2.m-Octave/MATLAB脚本,该脚本引导您完成ex2reg.m-Octave/MATLAB脚本,用于ex2data1.txt练习的后面部分-Ex2data1.txt练习的前半部分的训练集-ex2data2.txt练习的后半部分的训练集提交。m-提交脚本,用于将您的解决方案发送到我们的服务器mapFeature.m-生成多项式特征的函数plotdecisionboundar
JachinGuo
·
2020-08-14 16:52
吴恩达机器学习课后作业
吴恩达机器学习
错题集
Week3Regularization第1题Youaretrainingaclassificationmodelwithlogisticregression.Whichofthefollowingstatementsaretrue?Checkallthatapply.A.Introducingregularizationtothemodelalwaysresultsinequalorbetterp
风所在的街道
·
2020-08-14 07:41
机器学习
基于CentOS的OpenStack环境部署(OpenStack安装)
基于CentOS的OpenStack环境部署此课程基于51CTO学院的《openstack零基础入门+企业实战》
课程整理
而得,课程链接:https://edu.51cto.com/course/20724
MELF晓宇
·
2020-08-14 05:56
OpenStack
openstack
centos
linux
吴恩达机器学习
第一次作业——线性回归
线性回归一、单变量线性回归1,线性回归2,梯度下降算法(Gradientdescentalgorithm)3,可视化实现二、多变量线性回归1,回归方程2,缩小特征3,梯度下降算法的实现一、单变量线性回归1,线性回归使用plotData.m,完成了对已加载数据集ex1data1.txt的可视化,反应在二维坐标中。functionplotData(x,y)%PLOTDATAPlotsthedatapo
『 venus』
·
2020-08-13 16:34
机器学习
吴恩达机器学习
第一次作业 Linear Regression(基于Python实现)
文章目录1.数据处理部分1.1加载数据1.2分割X和y1.3绘图展示数据1.4给X加一列全为1的向量2.实现线性回归算法2.1初始化参数2.2实现损失函数2.3实现梯度下降2.4将得到的直线绘制出来,观察拟合程度3.完整代码1.数据处理部分1.1加载数据data_file_path="ex1/ex1data1.txt"#此处需根据你的数据文件的位置进行相应的修改data=np.loadtxt(da
flyawayl
·
2020-08-13 14:03
ML
&
DL
《机器学习基石》第一周 —— When Can Machine Learn?
(注:由于之前进行了
吴恩达机器学习
课程的学习,其中有部分内容与机器学习基石的内容重叠,所以以下该系列的笔记只记录新的知识)《机器学习基石》课程围绕着下面这四个问题而展开:主要内容:一、什么时候适合用机器学习
alince20008
·
2020-08-13 13:04
人工智能
数据结构与算法
人工神经网络(NN)和卷积神经网络(CNN)
推荐
吴恩达机器学习
课程(网易云课堂),李宏毅机器学习课程(b站)人工神经网络简称神经网络(NN),是目前各种神经网络的基础,其构造是仿造生物神经网络,将神经元看成一个逻辑单元,其功能是用于对函数进行估计和近似
Link_Ray
·
2020-08-13 12:03
机器学习
第十五章-异常检测算法 深度之眼_
吴恩达机器学习
作业训练营
目录一,算法简介1.1问题引入1.2异常检测VS监督学习二,异常检测系统2.1高斯分布2.2算法思路2.3具体实现步骤三,应用细节与系统改进3.1特征变换3.2多元高斯分布3.3误差分析四,总结一,算法简介1.1问题引入在实际生活中,我们总会遇到这样一类问题:在一个群体中,找出“不合群”的个体。例如在通讯系统中找出非常规的犯罪用户;在一批出产零件中检测出不合格的零件;在计算中心中,检测出行为异常的
凡尘维一心
·
2020-08-12 13:43
吴恩达机器学习
【深度之眼
吴恩达机器学习
第四期】笔记(九)
目录K均值K均值算法语言描述伪代码描述解决分离不佳的簇K均值的损失函数K均值初始化如何选择K主成分分析用途1:去除冗余特征用途2:可视化数据直观来理解主成分分析主成分分析与线性回归的区别选择要降到几维(K)降维用于加速算法主成分分析的误用编程K均值主成分分析K均值无监督学习的数据没有标签,希望计算机自行学习其中的知识。比如聚类模型会通过数据的内在性质,把数据划分为不同的关系紧密的子集。而K均值就是
树天先森
·
2020-08-12 12:34
吴恩达机器学习
【深度之眼
吴恩达机器学习
第四期】笔记(十一)
目录推荐系统基于内容的推荐系统协同过滤均值归一化编程推荐系统以电影推荐系统为例子,假设4个用户(nu=4)对5部电影(nm=5)作出了以下评分,其中“?”代表第j个用户没有对第i部电影进行评分(r(i,j)=0)。如果第j个用户对第i部电影进行了评分(r(i,j)=1),这时y(i,j)代表用户对电影的评分。推荐系统要做的,就是在现有评分的基础上,预测“?”的评分,然后把预测评分高的电影推荐给该用
树天先森
·
2020-08-12 12:03
吴恩达机器学习
【深度之眼
吴恩达机器学习
第四期】笔记(八)
目录SVM从逻辑回归到SVM间隔最大理解SVM直觉上来理解SVM核函数SVM编程SVM从逻辑回归到SVM在逻辑回归中,如果标签y=1,我们希望预测值也等于1,那么就需要θTx远远大于0;相反,如果标签y=0,那么就需要θTx远远小于0。这时候使用的损失函数如下:根据上面的损失函数,所有样本点在逻辑回归中都会一直产生损失,就会一直对所有点都进行优化。但是样本点在越过决策边界一定距离后其实是比较安全的
树天先森
·
2020-08-12 12:02
吴恩达机器学习
机器学习
上一页
19
20
21
22
23
24
25
26
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他