E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week1
吴恩达机器学习
第二周编程作业(Python实现)
课程作业提取码:3szr1、单元线性回归ex1.pyfrommatplotlib.colorsimportLogNormfrommpl_toolkits.mplot3dimportAxes3DfromcomputeCostimport*fromplotDataimport*print('PlottingData...')data=np.loadtxt('./data/ex1data1.txt',d
jingjingnier
·
2020-08-16 06:22
学习
吴恩达机器学习
笔记(12)——降维(Dimensionality Reduction)
这里介绍第二种无监督学习方法,叫做降维(DimensionalityReduction)一、目标1:数据压缩DataCompression由于可能存在许多冗余特征量,或者说特征高度相关,所以需要减少特征量的数量。so如果允许我们通过投影这条绿线上所有的原始样本,来近似原始的数据集,那么我只需要用一个数就能表示每个训练样本的位置,这样就能把内存的需求减半,同时这将允许我们的学习算法运行的更快。二、目
阿尔基亚
·
2020-08-16 06:07
吴恩达机器学习
吴恩达机器学习
编程作业2逻辑回归(python)
网上的python实现基本都看了,重复率很高,第一个写出来的真大佬啊我使用jupyternotebook方便可视化和理解,只需要在一个文件里写完就可以了,不用绕来绕去。1.逻辑回归(不包含正则化)题意:ex2data1.txt包含三列数据,第一列第一次考试成绩,第二列第二次考试成绩。两次成绩决定通过不通过。第三列1表示admit,0表示refuse。1.1可视化原始数据importmatplotl
虎娃娃huwawa
·
2020-08-16 06:44
机器学习
吴恩达机器学习
笔记之机器学习系统设计
确定执行的优先级:误差分析:在设计一个复杂的机器学习系统时,可以先用最简单的算法去快速实现它,然后用交叉验证集来看看自己的算法需要在哪些方面提高,除此之外,还可以进行误差分析,来针对性的提高我们的算法。不对称分类的误差评估:类偏斜情况表现为我们的训练集中有非常多的同一种类的实例,只有很少或没有其他类的实例。这样我们并不能简单的从模型的准确度来度量我们的算法是否是一个好的算法。Precision和R
iblue_coffee
·
2020-08-16 06:21
机器学习笔记
[
吴恩达机器学习
笔记]14降维5-7重建压缩表示/主成分数量选取/PCA应用误区
14.降维觉得有用的话,欢迎一起讨论相互学习~吴恩达老师课程原地址参考资料斯坦福大学2014机器学习教程中文笔记by黄海广14.5重建压缩表示ReconstructionfromCompressedRepresentation使用PCA,可以把1000维的数据压缩到100维特征,或将三维数据压缩到一二维表示。所以,如果如果把PCA任务是一个压缩算法,应该能回到这个压缩表示之前的形式,回到原有的高维
武科大许志伟
·
2020-08-16 05:57
机器学习
机器学习基础
PCA
重建压缩表示
主成分数量选取
PCA应用误区
吴恩达机器学习
笔记(二)(附编程作业链接)
吴恩达机器学习
笔记(二)标签:机器学习
吴恩达机器学习
笔记二一逻辑回归logisticregression逻辑函数S型函数logisticfunctionandsigmoidfunction决策边界decisionboundary
蚍蜉_
·
2020-08-16 04:32
机器学习
吴恩达机器学习
—BP神经网络+matlab程序
烨枫_邱https://www.jianshu.com/p/6ab6f53874f71概念:BP神经网络是一种多层的前馈神经网络,其主要的特点是:信号是前向传播的,而误差是反向传播的。具体来说,对于如下的只含一个隐层的神经网络模型:BP神经网络的过程主要分为两个阶段,第一阶段是信号的前向传播,从输入层经过隐含层,最后到达输出层;第二阶段是误差的反向传播,从输出层到隐含层,最后到输入层,依次调节隐含
熙铭在学习
·
2020-08-16 01:52
机器学习
深度学习
吴恩达机器学习
______学习笔记记录#九、神经网络--学习
9.1代价函数首先引入一些便于稍后讨论的新标记方法:假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信号y,L表示神经网络层数,表示每层的neuron个数(表示输出层神经元个数),代表最后一层中处理单元的个数。将神经网络的分类定义为两种情况:二类分类和多类分类,二类分类:表示哪一类;K类分类:表示分到第i类;(k>2)我们回顾逻辑回归问题中我们的代价函数为:在逻辑回归中,我们只有一个输出
张某某。paranoia
·
2020-08-15 07:37
吴恩达机器学习
吴恩达机器学习
(五)正则化(解决过拟合问题)
目录0.前言1.正则化(Regularization)2.线性回归中的正则化3.逻辑回归中的正则化学习完吴恩达老师机器学习课程的正则化,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~0.前言在分类或者回归时,通常存在两个问题,“过拟合”(overfitting)和“欠拟合”(underfitting).过拟合:曲线为了减
zhq9695
·
2020-08-14 22:25
机器学习
吴恩达机器学习
笔记 —— 8 正则化
本章讲述了机器学习中如何解决过拟合问题——正则化。讲述了正则化的作用以及在线性回归和逻辑回归是怎么参与到梯度优化中的。更多内容参考机器学习&深度学习在训练过程中,在训练集中有时效果比较差,我们叫做欠拟合;有时候效果过于完美,在测试集上效果很差,我们叫做过拟合。因为欠拟合和过拟合都不能良好的反应一个模型应用新样本的能力,因此需要找到办法解决这个问题。想要解决这个问题,有两个办法:1减少特征的数量,可
weixin_33995481
·
2020-08-14 20:37
B站
吴恩达机器学习
视频笔记(31)——网络训练验证测试数据集的组成介绍
从今天开始我们进入新的一个大方向了,改善深层神经网络:超参数调试、正则化以及优化,首先进入深度学习的一个新层面,先认识下在深度学习中的数据集的分类。之前可能大家已经了解了神经网络的组成的几个部分,那么我们将继续学习如何有效运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。训练,验证,测试集(Train/Dev/Testsets)在
nine_mink
·
2020-08-14 18:49
B站吴恩达深度学习视频笔记
吴恩达学习—Logistic Regression
吴恩达机器学习
第一课便是LogisticRegression,这个算法是一种常见的分类算法,因其使用了logistic函数,由此得名。
秋风05
·
2020-08-14 17:20
机器学习
吴恩达机器学习
课后练习-ex2
所用到的文件ex2.m-Octave/MATLAB脚本,该脚本引导您完成ex2reg.m-Octave/MATLAB脚本,用于ex2data1.txt练习的后面部分-Ex2data1.txt练习的前半部分的训练集-ex2data2.txt练习的后半部分的训练集提交。m-提交脚本,用于将您的解决方案发送到我们的服务器mapFeature.m-生成多项式特征的函数plotdecisionboundar
JachinGuo
·
2020-08-14 16:52
吴恩达机器学习课后作业
吴恩达机器学习
错题集
Week3Regularization第1题Youaretrainingaclassificationmodelwithlogisticregression.Whichofthefollowingstatementsaretrue?Checkallthatapply.A.Introducingregularizationtothemodelalwaysresultsinequalorbetterp
风所在的街道
·
2020-08-14 07:41
机器学习
吴恩达机器学习
第一次作业——线性回归
线性回归一、单变量线性回归1,线性回归2,梯度下降算法(Gradientdescentalgorithm)3,可视化实现二、多变量线性回归1,回归方程2,缩小特征3,梯度下降算法的实现一、单变量线性回归1,线性回归使用plotData.m,完成了对已加载数据集ex1data1.txt的可视化,反应在二维坐标中。functionplotData(x,y)%PLOTDATAPlotsthedatapo
『 venus』
·
2020-08-13 16:34
机器学习
吴恩达机器学习
第一次作业 Linear Regression(基于Python实现)
文章目录1.数据处理部分1.1加载数据1.2分割X和y1.3绘图展示数据1.4给X加一列全为1的向量2.实现线性回归算法2.1初始化参数2.2实现损失函数2.3实现梯度下降2.4将得到的直线绘制出来,观察拟合程度3.完整代码1.数据处理部分1.1加载数据data_file_path="ex1/ex1data1.txt"#此处需根据你的数据文件的位置进行相应的修改data=np.loadtxt(da
flyawayl
·
2020-08-13 14:03
ML
&
DL
《机器学习基石》第一周 —— When Can Machine Learn?
(注:由于之前进行了
吴恩达机器学习
课程的学习,其中有部分内容与机器学习基石的内容重叠,所以以下该系列的笔记只记录新的知识)《机器学习基石》课程围绕着下面这四个问题而展开:主要内容:一、什么时候适合用机器学习
alince20008
·
2020-08-13 13:04
人工智能
数据结构与算法
人工神经网络(NN)和卷积神经网络(CNN)
推荐
吴恩达机器学习
课程(网易云课堂),李宏毅机器学习课程(b站)人工神经网络简称神经网络(NN),是目前各种神经网络的基础,其构造是仿造生物神经网络,将神经元看成一个逻辑单元,其功能是用于对函数进行估计和近似
Link_Ray
·
2020-08-13 12:03
机器学习
LayUI动态添加table表格
1.需要的数据格式varproductdata="";varlist=[//{field:"
Week1
",title:"Week7",align:'center',width:100},//{field
文物双全
·
2020-08-13 11:50
JQ
C#
第十五章-异常检测算法 深度之眼_
吴恩达机器学习
作业训练营
目录一,算法简介1.1问题引入1.2异常检测VS监督学习二,异常检测系统2.1高斯分布2.2算法思路2.3具体实现步骤三,应用细节与系统改进3.1特征变换3.2多元高斯分布3.3误差分析四,总结一,算法简介1.1问题引入在实际生活中,我们总会遇到这样一类问题:在一个群体中,找出“不合群”的个体。例如在通讯系统中找出非常规的犯罪用户;在一批出产零件中检测出不合格的零件;在计算中心中,检测出行为异常的
凡尘维一心
·
2020-08-12 13:43
吴恩达机器学习
【深度之眼
吴恩达机器学习
第四期】笔记(九)
目录K均值K均值算法语言描述伪代码描述解决分离不佳的簇K均值的损失函数K均值初始化如何选择K主成分分析用途1:去除冗余特征用途2:可视化数据直观来理解主成分分析主成分分析与线性回归的区别选择要降到几维(K)降维用于加速算法主成分分析的误用编程K均值主成分分析K均值无监督学习的数据没有标签,希望计算机自行学习其中的知识。比如聚类模型会通过数据的内在性质,把数据划分为不同的关系紧密的子集。而K均值就是
树天先森
·
2020-08-12 12:34
吴恩达机器学习
【深度之眼
吴恩达机器学习
第四期】笔记(十一)
目录推荐系统基于内容的推荐系统协同过滤均值归一化编程推荐系统以电影推荐系统为例子,假设4个用户(nu=4)对5部电影(nm=5)作出了以下评分,其中“?”代表第j个用户没有对第i部电影进行评分(r(i,j)=0)。如果第j个用户对第i部电影进行了评分(r(i,j)=1),这时y(i,j)代表用户对电影的评分。推荐系统要做的,就是在现有评分的基础上,预测“?”的评分,然后把预测评分高的电影推荐给该用
树天先森
·
2020-08-12 12:03
吴恩达机器学习
【深度之眼
吴恩达机器学习
第四期】笔记(八)
目录SVM从逻辑回归到SVM间隔最大理解SVM直觉上来理解SVM核函数SVM编程SVM从逻辑回归到SVM在逻辑回归中,如果标签y=1,我们希望预测值也等于1,那么就需要θTx远远大于0;相反,如果标签y=0,那么就需要θTx远远小于0。这时候使用的损失函数如下:根据上面的损失函数,所有样本点在逻辑回归中都会一直产生损失,就会一直对所有点都进行优化。但是样本点在越过决策边界一定距离后其实是比较安全的
树天先森
·
2020-08-12 12:02
吴恩达机器学习
机器学习
【深度之眼
吴恩达机器学习
第四期】笔记(十)
目录异常点检测高斯分布异常点检测和监督学习选择特征多元高斯分布使用多元高斯分布的异常点检测算法原始模型VS.多元高斯分布的模型编程异常点检测假如有一个关于飞机引擎的数据集,而且这些飞机引擎都是能良好运行的。现在得到一个新的飞机引擎的数据,希望知道它是否能运行良好。在下图中,红色的数据点是正常的样本,那么,右下角的绿色点就是一个异常点。对于给定的数据集,异常点检测学习到的模型是P(x),也就是说,给
树天先森
·
2020-08-12 12:02
吴恩达机器学习
深度之眼
吴恩达机器学习
课程学习记录——(2)——
week1
打卡1
任务打卡1:1)提交Anaconda的安装后启动jupyternotebook后的界面截图,以及个人申请博客后的展示(博客形式不限,推荐CSDN)。2)提交学习吴恩达《机器学习》第一课的课程笔记,谈谈你对机器学习的理解。打卡内容:不少于2张图片,不少于50字PS:鼓励大家积极把笔记写到博客上哦,还要机会赢取价值千元的礼品,具体评分规则可以看这个:https://appuaAoe86p4947.h5
Robin_Pi
·
2020-08-12 10:24
网课学习
【深度之眼
吴恩达机器学习
】打卡学习
【深度之眼
吴恩达机器学习
】打卡学习第一周introductionWhatisMachineLearning?
only one °
·
2020-08-12 10:20
吴恩达机器学习
笔记(1)
2.单变量线性回归2.1模型描述线性回归算法预测房价的例子:有了这个函数就可以进行价格预测(那怎么确定函数的参数?)一种可能的表达方式是:2.2代价函数我们选择的参数决定了我们得到的直线相对于我们的训练集的准确程度,模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差(modelingerror)。我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数。即使得代价函数最小
叶锦
·
2020-08-12 00:16
机器学习
机器学习
吴恩达机器学习
笔记(2)
4.2多变量梯度下降和单变量线性回归一样,我们在多变量线性回归中也给他构建一个代价函数,这个代价函数是所有建模误差的平方和:我们的目标和单变量线性回归问题中一样,是要找出使得代价函数最小的一系列参数。多变量线性回归的批量梯度下降算法为:我们开始随机选择一系列的参数值,计算所有的预测结果后,再给所有的参数一个新的值,如此循环直到收敛。Python代码:defcomputeCost(X,y,theta
叶锦
·
2020-08-12 00:16
机器学习
台湾大学机器学习笔记——Neural Network 神经网络
,从左边开始,那些x就是输入样本点所包含的特征,然后经过第一层的w权重,得出第二层神经元(图中圆圈表示神经元)的输入值,在经过一个激活函数将输入值S转化为输出值X,这里的激活函数可以选用不同的函数,在
吴恩达机器学习
视频中的激活函数为
BestRivenZC
·
2020-08-11 10:07
机器学习算法
吴恩达机器学习
笔记第一课——线性回归
importnumpyasnpimportmatplotlib.pyplotaspltimportpandasaspdfrommpl_toolkits.mplot3dimportAxes3Ddefplot_data(data):data.plot(kind='scatter',x='population',y='profit',figsize=(8,5))plt.xlabel('populatio
STUDY EVERY DAY
·
2020-08-11 10:28
机器学习
[日常]蒟蒻的高一生活 Week 1~3
(然而实际上级部不少监督一直没启动23333)(然而三周过去好多事情都忘了QAQ瞎写好了(逃))
Week1
心情复杂地进了海阔的班...(感觉药丸?)
weixin_30363817
·
2020-08-11 06:51
一次受益颇多的CTF(RE/PWN)
上两周的题目回顾:HgameCTF(
week1
)-RE,PWN题解析记一次春节CTF实战练习(RE/PWN)##pwn###ROP_LEVEL2程序init禁用了59号中断,所以
合天智汇
·
2020-08-11 06:27
《学习如何学习》
Week1
2.5-2.6 小结+复习
week1
:2Procrastination,Memory,andSleep#《学习如何学习》Week12.5Summary虽说活体大脑非常复杂,本周我们通过和僵尸比喻,类比,简化了问题。
蓝亦
·
2020-08-11 05:38
Coursera
记一次春节CTF实战练习(RE/PWN)
相对来说,比第一周难(HgameCTF(
week1
)-RE,PWN题解析)。这次的有一道逆向考点也挺有意思,得深入了解AES的CBC加密模式才能解题。
合天智汇
·
2020-08-11 05:58
日常练习
week1
——从i春秋的基础分类开始做起——1.小苹果下载就是一个很普通的小苹果.wav,这是我第一见到音频隐写的题目,这个题目很简单用到一个工具叫silentEye,SilentEye是一个跨平台的应用程序设计,可以轻松地使用隐写术,在这种情况下,可以将消息隐藏到图片或声音中。它提供了一个很好的界面,并通过使用插件系统轻松集成了新的隐写算法和加密过程。下载地址:http://www.opdown.com/
Tttttimer?
·
2020-08-11 05:23
日常练习
吴恩达机器学习
第五周编程作业ex4答案
nnCostFunction.ma1=[ones(m,1)X];%5000x401z2=a1*Theta1';%5000x25Theta125*401a2=sigmoid(z2);%5000x25a2=[ones(m,1)a2];%5000x26z3=a2*Theta2';%5000x10Theta210×26a3=sigmoid(z3);%5000x10h=a3;%5000x10u=eye(nu
煜明
·
2020-08-11 00:19
机器学习
吴恩达机器学习
第六周编程作业ex5答案
linearRegCostFunction.mJ=1/(2*m)*sum((X*theta-y).^2)+lambda/(2*m)*(sum(theta.*theta)-theta(1)*theta(1));gradient=1/m*X'*(X*theta-y);%没有sumgrad=gradient+lambda/m*theta;grad(1)=gradient(1);learningCurve
煜明
·
2020-08-11 00:19
机器学习
吴恩达机器学习
第二周编程作业ex1答案
吴恩达机器学习
第三周课后作业ex2答案
吴恩达机器学习
第四周课后作业ex3答案warmUpExercise.mfunctionA=warmUpExercise()%WARMUPEXERCISEExamplefunctioninoctave
煜明
·
2020-08-11 00:18
机器学习
Python学习--Machine-Learning
吴恩达机器学习
编程作业 (第一周)
Machine-Learning编程作业ProgrammingExercise1:LinearRegression1.单变量线性回归1.1读取数据并显示1.2定义代价函数1.3梯度下降法1.4可视化2.多变量线性回归2.1读入数据并显示2.2特征归一化2.3代价函数2.4梯度下降3.正规方程法实现单变量回归4.用sklearn库中函数实现单变量回归作业文件打包如下:链接:https://pan.b
OOOrchid
·
2020-08-10 20:26
python机器学习
吴恩达机器学习
之总结:总结和致谢(详细笔记,建议收藏,已有专栏)
吴恩达机器学习
栏目清单专栏直达:https://blog.csdn.net/qq_35456045/category_9762715.html文章目录19.总结(Conclusion)19.1总结和致谢
汪雯琦
·
2020-08-10 19:41
【吴恩达机器学习】
吴恩达机器学习
入门视频笔记(一)
翻了翻笔记本,发现以前看
吴恩达机器学习
入门视频的笔记,拿来与大家分享一下,也当作自己的一次复习。笔记内容有跳跃性,也很琐碎,不具有系统性,如果大家要系统性学习可以去对应网站或者b站上自行搜索。
DebugMyself
·
2020-08-10 12:39
吴恩达视频笔记
机器学习
算法
人工智能
神经网络的梯度下降算法
注:本文是学习
吴恩达机器学习
的学习笔记。
程序之巅
·
2020-08-10 12:20
吴恩达机器学习
课程作业 Exercise 1:Linear Regression
吴恩达机器学习
课程作业Exercise1:LinearRegression数据准备成本函数单变量线性回归多变量线性回归sklearn实现线性回归使用函数总结DataFrameDataFrame.locDataFrame.ilocDataFrame.ixDataFrame.insertnumpynumpy.powernumpy.sumnumpy.multiplynumpy.matrixnumpy.d
u010660276
·
2020-08-09 12:57
机器学习
吴恩达机器学习
(四)——逻辑回归(Logistic Regression)
1、分类问题(Classification)线性回归主要是解决监督学习问题中的“回归”问题,逻辑回归主要主要解决监督学习中的“分类”问题。在分类问题中,要预测的变量?是离散的值。逻辑回归算法是分类算法。先从最简单的二分类问题开始讨论:分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;区别一个肿瘤是恶性的还是良性的。1)因变量y(dependentvariable)可能属
Leben&流觞
·
2020-08-09 02:45
机器学习
吴恩达机器学习
粗略随笔——逻辑回归
逻辑回归:含义:在线性回归的基础上,给出输出的置信度。举例来说:线性回归P(1|x;θ)=0.7,该数据分类为1的可信度为0.7。核心:在线性回归的输出基础上,通过sigmoid函数(也称logistic函数),将输出规范到0~1范围。即设线性回归的输出为f(x),逻辑回归则为g(f(x)),g(z)=1/(1+e^z)。现实意义:决策边界。给定置信标准(如当可信度>0.5)时,即当g(z)>0.
rosesor
·
2020-08-08 21:23
机器学习基础
吴恩达机器学习
——多元梯度下降,学习率,特征,特征多项式
这里有啥如何判断梯度下降是正常的???自动收敛测试学习速率的选择特征多项式回归如何判断梯度下降是正常的???如果迭代正常,每一步迭代后J(Θ)都应该下降。并且下降的程度逐渐减缓。自动收敛测试如果代价函数小于某个值ε时,例如ε可以是1e-3,但是通常选择一个ε非常困难,依靠自动收敛检测不一定可靠,还是通过图像比较可靠。学习速率的选择从代价函数图像表现出代价函数的值迭代后不断上升,或呈震荡,意味着学习
咕噜咕噜-
·
2020-08-08 20:05
机器学习
吴恩达机器学习
入门——应用机器学习方法
吴恩达机器学习
入门——应用机器学习方法机器学习诊断法模型选择问题正则化、偏差与方差学习曲线系统设计误差分析不对称性分类的误差机器学习数据机器学习诊断法如何判断一个学习算法的好坏,当该算法的预测值有很大的偏差
qq_42100113
·
2020-08-08 20:06
吴恩达机器学习
入门——异常检测
吴恩达机器学习
入门——异常检测高斯分布异常检测算法开发和评估异常检测系统异常检测与监督学习的区别异常检测算法的特征多变量高斯分布高斯分布对于高斯函数的参数:u为均值,δ2为方差。
qq_42100113
·
2020-08-08 20:34
机器学习
吴恩达机器学习
入门——Logistic 回归
吴恩达机器学习
入门——Logistic回归分类问题模型建立决策判断代价函数多元分类分类问题如上图的分类问题,如果用粉色的hθ\thetaθ(x)函数,可以以0.5为判断值进行分类,区分出0和1,而当我们增加一个新的样本
qq_42100113
·
2020-08-08 20:34
吴恩达机器学习
入门——单变量线性回归
吴恩达机器学习
入门——单变量线性回归模型代价函数梯度下降算法模型h为假设函数,通过训练集的输入,经过学习算法,可以得到假设函数。这个假设函数就可以来计算回归值(预估值)。
qq_42100113
·
2020-08-08 20:34
上一页
23
24
25
26
27
28
29
30
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他