E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习私人笔记
目标检测学习路线【基础知识+论文入门】
个人路线,仅供参考一、基础知识补充初步看完
吴恩达机器学习
之后,开始看目标检测论文之前,我发现有些目标检测基础是非看不可的,所以按照下列顺序进行了知识补充(大家有时间还是应该一步一步来呀不要学我感觉这样突击很心虚
han_hhh
·
2020-07-15 23:03
目标检测
机器学习
论文
2019-06-05
《阿毗达摩概要精解》导读网易云课堂-
吴恩达机器学习
课程55-64课时第八章:正则化;第九章:神经网络学习人工智能能否实现?
YZY君
·
2020-07-15 23:50
吴恩达机器学习
笔记之照片OCR
问题描述:照片光学识别(PhotoOpticalCharacterRecognition),一般有如下几个步骤:1.文字侦测(Textdetection):将图片上的文字与其他环境对象分离开来。2.字符划分(Charactersegementation):将文字分割成一个个单个的字符。3.字符分类(Characterclassification):确定每一个字符是什么。上面一个流程我们称之为机器学
iblue_coffee
·
2020-07-15 20:12
机器学习笔记
吴恩达机器学习
第三章测试及编程练习
代码:https://github.com/LiuZhe6/AndrewNGMachineLearning文章目录测验1:LogisticRegression第一题第二题第三题第四题第五题测验2:Regularization第一题第二题第三题第四题第五题编程练习作业一:SigmoidFunction作业二&三:LogisticRegressionCost&LogisticRegressionGra
一叶知秋Autumn
·
2020-07-15 19:00
机器学习
机器学习
吴恩达机器学习
第五周测验及编程作业
代码:https://github.com/LiuZhe6/AndrewNGMachineLearning文章目录测验:NeuralNetworks:Learning第一题第二题第三题第四题第五题编程练习:NeuralNetworkLearning作业一:FeedforwardandCostFunction作业二:RegularizedCostFunction作业三:SigmoidGradient
一叶知秋Autumn
·
2020-07-15 18:27
机器学习
机器学习
吴恩达机器学习
笔记5——多变量线性回归
第5章多变量线性回归1,多功能2,多元梯度下降法(GradientDescentforMultiplevariabls)Hypothesis假设:Parameters参数:n+1维向量Costfunction代价函数:Gradientdescent:Repeat{}每一个j=0,...,n同时更新3,特征缩放(featurescaling)如上图,进行梯度下降法,可能要来来回回很多步之后才能到达最
Margo_Zhang
·
2020-07-15 18:38
吴恩达机器学习
入门机器学习(三)--课后作业解析-线性回归(Python实现)
相关资料:线性回归Python实现源码与数据集下载
吴恩达机器学习
课件与课后习题下载1.单变量线性回归在本练习的这一部分中,您将使用一个变量实现线性回归,以预测食品卡车的道具。
爱吃骨头的猫、
·
2020-07-15 15:15
•机器学习基础
吴恩达机器学习
第一次作业-线性回归
吴恩达机器学习
第一次作业(一)Linearregressionwithonevariable(1)Plotthedataaddpath('你电脑上的数据文件路径')data=load('ex1data1
老班老班
·
2020-07-15 07:13
机器学习
吴恩达机器学习
第二次作业-Logstic Regression
(一)将数据可视化addpath('文件路径')data=load('ex2data1.txt')X=data(:,[1,2])y=data(:,3)plotData(X,y)%plotData函数functionplotData(X,y)figure;holdon;pos=find(y==1);neg=find(y==0);plot(X(pos,1),X(pos,2),'k+','LineWid
老班老班
·
2020-07-15 07:13
机器学习
吴恩达机器学习
(四) (支持向量机SVM)
首先回顾一下logistics回归中的sigmoid函数当θTx远大于0时hθ(x)无限接近于1,那么我们给他一种对应情况,y=1。反之亦然。回忆起cost函数(坐标系中的红框),坐标系纵坐标就是cost代价我们对比一下上一篇学习的理解cost函数的图像,上一篇中的横坐标是hθ(x),而这里的横坐标是Z=θTx。当hθ(x)等于零代价函数也为零可以表达y=1的时候,所需要的Z是无穷大的(需要e-θ
川酱
·
2020-07-15 07:08
机器学习
吴恩达机器学习
(三)(logistics回归)
分类问题:先从一个二元分类开始。二元分类问题是让我去将问题分成两类,这两类互相呈对立面。logistics回归的本质上就是研究sigmoid(激活)函数,y=1/(1+e-x)也可以叫做logistics函数,他是个生物学概念函数。我们可以看到激活函数经过(0,0.5),当我们将第一节课学的拟合函数hθ(x)=θTx(θ,x默认是一个列向量)外面再套上一层对应关系g(),这个对应关系就是激活函数中
川酱
·
2020-07-15 07:08
吴恩达机器学习
笔记(二)(多变量特征缩放,特征选择,正规方程)
当出现变量之间范围相差较大时,可以将其特征缩放标准化后,使梯度下降法的速度提高。下面的作业题中,X数据的第一列代表房间的面积,第二列代表房间数。相差过大所以需要特征缩放补充知识:标准差=根号方差。默认是std(x,0,1),第二个位置0代表方差的分母是n,1代表方差分母是n-1,第三个位置,0代表按照行来计算标准差,1代表按列来计算标准差。特征缩放函数(x=(x-u平均值)/标准差)functio
川酱
·
2020-07-15 07:36
吴恩达机器学习
笔记(一)(梯度下降)
所以在这里把吴恩达本人写的代码给汉化了,因为网上实在找不到,我不知道他们为什么不这样做,好让我省点力气,希望这篇文章不要被发现很多人发现吧。如上将介绍最简单的单变量线性函数回归,我们对采集到的一些数据后进行线性拟合。这里称hθ(x)是拟合曲线,上图例子是直线。蓝线对应着右图的一条等高线,中心点表示拟合程度最高的h(x)。J(θ0,θ1)叫代价函数,代表拟合程度。如果对代价函数做最小梯度法,去寻找一
川酱
·
2020-07-15 07:36
人工智能学习之-学习笔记
人工智能学习之-学习笔记
吴恩达机器学习
:https://www.coursera.org/learn/machine-learning单元线性回归相关公式代价函数(costfunction)-平方误差函数
LarryHai6
·
2020-07-15 00:05
IT-AI
机器学习
吴恩达机器学习
-自制版Matlab作业1(Coursera上无法提交,放弃折腾)
知识点1知识点2MatricesandVectorsA=[1216;5179;3127]和A=[1,21,6;5,17,9;31,2,7]是一样的效果。(逗号)但是这里发现第八个元素,不是按照行来数,而是按照列。在matlab中如何我们要对矩阵进行转置,那么我们就使用A’这种的方式.那么逆矩阵如何表示呢?inv(A)。注意不是每个矩阵都是有逆矩阵的,有逆矩阵的前提条件是,该矩阵的行列式要有解。不可
诗杨诗祺
·
2020-07-15 00:58
机器学习
吴恩达机器学习
(四)局部加权回归
吴恩达机器学习
(四)局部加权回归使用局部加权回归的原因局部加权回归的原理实例讨论使用局部加权回归的原因在讲义中描述的是:makesthechoiceoffeatureslesscritical(为了让特征的选择不是那么重要
sddfsAv
·
2020-07-14 22:36
机器学习
感动!有人将吴恩达的视频课程做成了文字版
于是,以黄海广博士为首的一群机器学习爱好者发起了一个公益性质的项目(http://www.ai-start.com):
吴恩达机器学习
和深度学习课程的字幕翻译
AI科技大本营
·
2020-07-14 09:08
【机器学习】
吴恩达机器学习
作业无法提交
在我提交吴恩达的ML作业的时候,出现了以下错误代码:[error]submissionwithcurl()wasnotsuccessful!!Submissionfailed:错误使用submitWithConfiguration>validateResponse(line158)GradersentnoresponseFunction:validateResponseFileName:C:\Us
爱学习的大白菜
·
2020-07-14 09:07
机器学习
解决matlab2019b
吴恩达机器学习
提交失败的问题
解决matlab2019b
吴恩达机器学习
提交失败的问题matlab2019b问题复现问题没完这样就完了?
·空感自诩”
·
2020-07-14 02:32
matlab
机器学习
[Machine Learning]
吴恩达机器学习
笔记 一 ——绪论:初始机器学习
1、MachineLearningdefinitionArthurSamul(1959):Fieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed.TomMitchell(1998):AcomputerprogramissaidtolearnfromexperienceEwithrespectto
哟米 2000
·
2020-07-13 21:01
机器学习
机器学习
【
吴恩达机器学习
】学习笔记1.3(Normal Equation& 与梯度下降比较)
NormalEquation(标准方程)通过前面的学习,我们知道了能够通过梯度下降的方法求得我们的最优解,那还有没有其他方法呢?回想我们原来的学习过程,如果我们已知一个二次函数,想求它的最小值,我们采用的方法就是对二次函数求导,找到导数为0的那个点,这就是NormalEquation的方法如上图所示,我们得到一个关于变量的矩阵X,和一个输出的矩阵Y,利用来求的我们的θ向量,关于这个式子怎么求得需要
00111001
·
2020-07-13 20:44
机器学习
吴恩达机器学习
笔记(week1——week5)
Week1转自该大神~~~~~http://scruel.gitee.io/ml-andrewng-notes/week1.html一、引言(Introduction)1.1欢迎1.2机器学习是什么?1.3监督学习1.4无监督学习二、单变量线性回归(LinearRegressionwithOneVariable)2.1模型表示2.2代价函数2.3代价函数的直观理解I2.4代价函数的直观理解II2.
张文彬彬
·
2020-07-13 15:44
吴恩达机器学习笔记
斯坦福大学
吴恩达机器学习
教程中文笔记——week6——应用机器学习的建议,机器学习系统的设计
第6周文章目录第6周@[toc]十、应用机器学习的建议(AdviceforApplyingMachineLearning)10.1决定下一步做什么10.2评估一个假设10.3模型选择和交叉验证集10.4诊断偏差和方差10.5正则化和偏差/方差10.6学习曲线10.7决定下一步做什么十一、机器学习系统的设计(MachineLearningSystemDesign)11.1首先要做什么11.2误差分析
laiczhang
·
2020-07-13 12:20
吴恩达机器学习笔记
吴恩达机器学习
第三周(含编程作业及python实现)
主要内容:逻辑回归:分类问题。即训练集中的标签(y值)属于一个有穷集,如{0,1},{0,...,10}。具体例子有:判断病人是否患有癌症(2种类别);手写数字识别(10种类别);判断学生是否挂科等等。假设函数:在原先线性回归函数中的θ*X上,再套上一层激励函数。激励函数是神经网络中的一种函数,通常是非线性的。在这里的机器学习问题上,其表示形式为,其中,(这里的θ为列向量,但其实要根据具体情况以及
booooooty
·
2020-07-13 11:42
机器学习
吴恩达机器学习
笔记--第一周-2.模型和损失函数
week1-2.ModelandCostFunction一、ModelRepresentation训练集(trainingset)中的一些符号表示:单变量线性回归(linearregressionwithonevariable/univariatelinearregression)二、CostFuntion三、CostFunction-IntructionI四、CostFunction-Intru
Loki97
·
2020-07-13 10:11
吴恩达machine
learning学习笔记
吴恩达机器学习
笔记6 机器学习模型的诊断与修正
目录模型误差较大的处理方法假设的评估模型选择和交叉验证集拟合次数的评估(偏差/方差)正则化系数评估(偏差/方差)学习曲线LearningCurves如何利用学习曲线识别高偏差(HighBias)/欠拟合(underfit)如何利用学习曲线识别高方差(HighBias)/过拟合(overfit)如何修正一个机器学习模型如何选择一个神经网络结构模型误差较大的处理方法获得更多的训练样本——通常是有效的,
mxb1234567
·
2020-07-13 08:31
机器学习
【
吴恩达机器学习
】学习记录1:课程概论及相关基础概念(监督学习、非监督学习、损失函数、梯度下降法)
课程概论机器学习的定义监督学习非监督学习模型表示代价函数梯度下降法课程概论机器学习概念的简单介绍:机器学习是一种在对人工智能进行探索的过程中产生的新技术,它赋予了计算机新的能力,使其不仅仅是一个进行超级计算的工具。机器学习的应用:数据挖掘、人工无法完成的工作(自动驾驶直升机、手写识别、CV、NLP等)、个性化工程(Amazon、Netflix的产品推荐)、理解人类的学习过程(仿脑)机器学习的定义吴
ayayayayo
·
2020-07-13 02:40
机器学习
吴恩达机器学习
系列课程笔记——监督学习常见模型
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.回归问题模型1.1线性回归模型(LinearRegression)1.1.1单变量线性回归(UnivariateLinearRegression)1.1.2多元线性回归模型(MultivariableLinearRegression)1.2多项式回归模型(PolynomialRegres
White_lies
·
2020-07-13 01:41
#
吴恩达机器学习
人生一世,活出我要的价值
我其实还在探索,到底这类要写什么,或者说,哪些是比较合适在这里呈现出来,而哪些只应该作为我的
私人笔记
存在。
洋画森
·
2020-07-13 01:11
西瓜书+实战+
吴恩达机器学习
(十六)半监督学习(半监督SVM、半监督k-means、协同训练算法)
文章目录0.前言1.半监督SVM2.半监督k-means2.1.约束k-means2.2.约束种子k-means3.协同训练算法如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言半监督学习中部分样本有标记,部分样本无标记。半监督学习可分为两种:纯半监督学习:希望学得的模型适用于未观察到的数据直推学习:希望对数据集中未标记的样本进行预测1.半监督SVM半监督支持向量机(
zhq9695
·
2020-07-12 20:13
机器学习
matlab版
吴恩达机器学习
第五章笔记
机器学习matlab操作基础1、基本操作2、移动数据3、计算数据4、绘图数据5、控制语句:for,while,if语句6、向量化1、基本操作参考视频:5-1-BasicOperations(14min).mkv打开matlab(R2019b)这是matlab命令行现在示范最基本的matlab代码:输入5+6,然后得到11。输入1/2、2^6等等,得到相应答案。这些都是基本的数学运算也可以去做逻辑运
Nice try
·
2020-07-12 19:58
机器学习
吴恩达机器学习
笔记
本文为
吴恩达机器学习
视频听课笔记,仅记录课程大纲及对于部分关键点、疑难点的理解。
大红红蝴蝶公主
·
2020-07-12 17:10
机器学习
超级详细讲解线性回归(含吴恩达相关)
多个样本点损失函数梯度下降(GradientDescent)代码实现训练模型函数模型拟合函数损失函数(代价函数)梯度下降算法迭代函数画图显示完整的代码手写线性回归函数代码sklearn线性回归函数代码
吴恩达机器学习
线性回归
JY丫丫
·
2020-07-12 17:12
J_机器学习
【
吴恩达机器学习
笔记】Week5 ex4 nnCostFunction part1 答案
被Week5的ex4中nnCostFunction的part1卡了一下,现在弄懂了,说一下自己的理解%Part1:Feedforwardtheneuralnetworkandreturnthecostinthe%variableJ.AfterimplementingPart1,youcanverifythatyour%costfunctioncomputationiscorrectbyverify
Vincent__Lai
·
2020-07-12 10:46
机器学习
《
吴恩达机器学习
》学习笔记_章节3
章节3课时14矩阵和向量别人的笔记这一节比较简单,主要回顾矩阵向量的基本知识,为之后的学习打下基础。1、矩阵m*n的矩阵就是指m行(横向)n列(纵向),Aij是指第i行,第j个元素。一般用大写来表示矩阵。矩阵的运算也比较简单,矩阵求和就是对应位置求和即可,所以维数不同的矩阵不可以求和,矩阵的倍数就是所有位置乘以相应的倍数。还有矩阵的逆(可以用一些工具来求,如Octave和Matlab),矩阵的转置
jimleelcc
·
2020-07-11 21:05
吴恩达机器学习
笔记(五)-Octave教程
第六章Octave/Matlab教程基本操作一些想要构建大规模机器学习项目的人通常会使用Octave,这是一种很好的原始语言来构建算法原型。本章节将介绍一系列的Octave命令:(1)可以执行最基础的数学运算和逻辑运算。(2)V=1:0.1:2,表示的是从1开始,每次步长为0.1,一直增加到2。(3)V=1:6,这样v就被赋值了,从1到6。(4)Ones(2,3)会得到两行三列的矩阵,并且值都为1
献世online
·
2020-07-11 17:32
机器学习
机器学习与深度学习
吴恩达机器学习
第十一章---应用机器学习的建议
决定下一步做什么当得到一个如上图中上半部分所示的代价函数,需要对其进行优化。那如何进行优化才能使得这个式子能够更进一步得出更准确的模型那?给出几个方式:1.可以收集更多的训练样本2.尝试使用更少的特征(防止过拟合)3.也有可能需要更多的特征4.增加多项式特征5.减小或增大正则化数lambda的值但是如何确选择哪一种优化方法又成为一个新的问题。方法并不是随便选取的,不然很有可能你花费了很长时间最后得
Boran+
·
2020-07-11 16:26
笔记
吴恩达
机器学习笔记
机器学习
吴恩达机器学习
第十章---神经网络参数的反向传播算法
代价函数代价函数我们在上面定义,如同右上角所设置的一样,我们用L来表示总层数,sl表示对应的层数的神经元的个数。如上图中左上角所示,我们得知s1=3,s2=s3=5,s4=4,同时它的输出只有1或者0(一个典型的分类问题)。同样我们在使用神经网络时一样要面对它的代价函数。在看神经网络的代价函数之前我们先来观测一下逻辑回归对应的代价函数,逻辑回归对应的代价函数如上图上方所示,y(i)表示实际值,h(
Boran+
·
2020-07-11 16:26
吴恩达
机器学习笔记
笔记
机器学习
吴恩达机器学习
(一)监督学习与无监督学习
∗∗∗点击查看:
吴恩达机器学习
——整套笔记+编程作业详解∗∗∗\color{#f00}{***\点击查看\:
吴恩达机器学习
\——\整套笔记+编程作业详解\***}∗∗∗点击查看:
吴恩达机器学习
——整套笔记
Fun'
·
2020-07-11 12:04
吴恩达
机器学习
K-mean均值算法原理讲解和代码实战
K-mean均值算法原理讲解和代码实战前言最近在学习
吴恩达机器学习
课程,刚刚学完第一个无监督学习算法,搭配着机器学习实战里面的k-mean实战,成功的将理论和实际结合了起来。
梁先森-python数据分析师进阶之路
·
2020-07-11 12:09
机器学习
吴恩达机器学习
笔记(三)
吴恩达机器学习
笔记(三)标签(空格分隔):机器学习
吴恩达机器学习
笔记三神经网络1神经网络的数学表达2前向传播forwardpropagation3神经网络简单示例AND多元分类问题重要矢量化公式1.神经网络神经网络分为输入层
蚍蜉_
·
2020-07-11 01:57
机器学习
吴恩达机器学习
Week_7 ex6课后编程作业代码答案
EX6gaussianKerneldataset3ParamsprocessEmailemailFeaturesgaussianKernelfunctionsim=gaussianKernel(x1,x2,sigma)%RBFKERNELreturnsaradialbasisfunctionkernelbetweenx1andx2%sim=gaussianKernel(x1,x2)returnsa
来来
·
2020-07-10 10:27
吴恩达机器学习
Week_9 ex8课后编程作业代码答案
EX8estimateGaussianselectThresholdcofiCostFuncestimateGaussianfunction[musigma2]=estimateGaussian(X)%ESTIMATEGAUSSIANThisfunctionestimatestheparametersofa%GaussiandistributionusingthedatainX%[musigma2
来来
·
2020-07-10 10:27
吴恩达机器学习
总结(P1-P11)
Machinelearning绪论前十一课,介绍机器学习的基本概念,相关应用场景,以及第一个机器学习算法,所涉及的数学知识基本都是高中知识。几个重要的概念机器学习分类强人工智能弱人工智能机器学习的方式监督式学习回归分类非监督式学习聚类相关机器学习的条件:大量的计算能力+大量的数据俩个重要的函数成本函数(代价函数)用来反映AI输出和真实输出的差异。显而易见的成本函数的结果值越趋向0,拟合效果越好假设
南乡人
·
2020-07-09 23:10
机器学习
吴恩达 机器学习课程 coursera 第四次编程作业(Neural Network Back Propagation) python实现
本文是
吴恩达机器学习
课程的第四次编程作业:NeuralNetworkBackPropagation,用python实现。ex4.py为主程序入口。
-TOXNO-
·
2020-07-09 23:59
机器学习
Coursera
吴恩达机器学习
week9的ex8编程作业代码
Machine-learning-ex8这是Coursera上Week9的ml-ex8的编程作业代码。经过测验,全部通过。具体文件可以进入我的github包括以下3个文件:%estimateGaussian.m%selectThreshold.m%cofiCostFunc.mestimateGaussian.mfunction[musigma2]=estimateGaussian(X)%ESTIM
loserChen.
·
2020-07-09 23:38
机器学习
吴恩达机器学习作业
吴恩达机器学习
(Machine Learning)课程总结笔记---Week9
文章目录0概述1.课程大纲2.课程内容2.1异常检测2.1.1什么是异常检测2.1.2高斯分布2.1.3高斯分布算法2.1.4评估系统2.1.5异常检测和监督学习对比2.1.6特征选择2.1.7多元高斯分布2.1.7.1多元高斯分布模型2.1.7.2多元高斯分布的变化2.1.7.2.1改变$\Sigma$2.1.7.2.1改变$\mu$2.1.7.3算法流程2.1.7.4多元高斯分布模型与一般高斯
csdn_SUSAN
·
2020-07-09 10:06
吴恩达--机器学习
吴恩达机器学习
笔记week9
本周主要讲异常检测和协同过滤算法。异常检测Motivation 异常检测主要的motivation是我们可能有很多正常的样本,异常样本很少,然而异常样本才是业务中感兴趣的正样本,这个时候我们无法使用分类。一方面是因为正样本太少了,另一方面,其实我们也不知道异常样本到底都有那些类,在这种情况下,我们就会使用异常检测这种方式进行。主要思路 主要思路就是负样本有一个分布,一般假设成高斯的,然后估计出
asasasaababab
·
2020-07-09 07:52
学习笔记
吴恩达机器学习
课程笔记+代码实现(10)神经网络:表述(Neural Networks: Representation)
7.神经网络:表述(NeuralNetworks:Representation)文章目录7.神经网络:表述(NeuralNetworks:Representation)7.1非线性假设7.2模型表示17.3模型表示27.4特征和直观理解17.5样本和直观理解II7.6多类分类本章编程作业及代码实现部分见:多类分类和神经网络神经网络中的反向传播7.1非线性假设无论是线性回归还是逻辑回归都有这样一个缺
geekxiaoz
·
2020-07-09 06:35
吴恩达机器学习
课程笔记+代码实现(7)逻辑回归(Logistic Regression)
5.逻辑回归(LogisticRegression)文章目录5.逻辑回归(LogisticRegression)5.1分类问题5.2假说表示5.3判定边界5.4代价函数5.5多类别分类:一对多本章编程作业及代码实现部分见:Python实现逻辑回归和正则化(ProgrammingExercise2)5.1分类问题在分类问题中,你要预测的变量yyy是离散的值,我们将学习一种叫做逻辑回归(Logisti
geekxiaoz
·
2020-07-09 06:34
上一页
20
21
22
23
24
25
26
27
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他