E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习课程整理
16周回顾及17周计划
课程整理
7篇文章(二)本周综述本周总体满意度4分。两个核心任务都未启动,把很大一部分精力放在了理财规划师
课程整理
上(9.5h),想着先做出一点成果,再推进其他任务。
李焕武
·
2020-07-30 07:49
吴恩达机器学习
线性回归练习题:多变量线性回归(octave实现)
单变量的线性回归模型就不再细说了,这里只记录多变量线性回归中几个需要实现的步骤和函数,其他内容在课程中的讲义和习题中都有详细描述。特征标准化,对应featureNormalize函数作用:消除不同特征间的量纲,提高梯度下降的速度,缩短收敛时间需要在featureNormalize.m文件中填充的代码:mu=mean(X);%计算每个特征的均值sigma=std(X);%计算每个特征的标准差X_no
爱小白兔的大懒熊
·
2020-07-30 06:23
机器学习
吴恩达机器学习
笔记之监督学习
Supervisedlearning:监督学习指的就是我们给学习算法一个数据集,这个数据集由“正确答案”组成。比如房价的预测,给定一系列房子的数据,给定数据集中每个样本的正确价格,实际的售价运用学习算法,来算出更多的正确答案。用专业的术语来讲,这叫做回归问题,即试着推测出一系列连续值属性。还有一类问题叫做分类问题,比如根据一个人的外貌预测一个人是男生还是女生,预测结果是离散的,可以根据多个特征来预
iblue_coffee
·
2020-07-29 17:11
机器学习笔记
吴恩达机器学习
笔记1 初识机器学习
本章节主要介绍了监督学习和无监督学习的概念与举例,适合小白入门机器学习。1.监督学习监督学习指的就是我们给学习算法一个数据集。这个数据集由“正确答案”组成。房价问题首先给了一系列房子的数据,然后给定数据集中每个样本实际的售价,然后运用学习算法,算出更多的正确答案。这是一个回归问题,回归是指预测连续值的属性。可以用一条直线、二次函数或二阶多项式拟合数据做出预测。肿瘤问题假设想通过查看病历来推测乳腺癌
xz23333
·
2020-07-29 09:33
机器学习
机器学习
外包项目开发
课程整理
三:Selfsourcing(自主开发)及 Prototyping(打造原型)
外包项目开发
课程整理
三:Selfsourcing(自主开发)及Prototyping(打造原型)课程整体内容:InsourcingandtheSDLC(内包及系统开发生命周期):定义传统SDLC,并描述其中
emmmnmm
·
2020-07-29 05:14
外包
自主开发
原型
外包项目开发
课程整理
四:Outsourcing(外包)
外包项目开发
课程整理
四:Outsourcing(外包)课程整体内容:InsourcingandtheSDLC(内包及系统开发生命周期):定义传统SDLC,并描述其中7个主要阶段Component-BasedDevelopment
emmmnmm
·
2020-07-29 05:14
外包
外包项目开发
课程整理
一:SDLC传统系统开发生命周期7个阶段
外包项目开发
课程整理
一:SDLC传统系统开发生命周期7个阶段前言:课程全称为:通过案例学习外包项目开发,是软件工程专业大三下的课程,我将根据中方外方ppt教授讲述内容及上网搜索的知识对本课程进行系统的整理
emmmnmm
·
2020-07-29 05:13
SDLC
外包
软件开发生命周期
继承中同名冲突
来自:唐老师的
课程整理
继承中:子类可以定义父类中的同名函数;子类中的成员将隐藏父类中的同名成员;父类中的同名成员依然存在于子类中,可用作用域分辨符“::”以访问其父类中的同名成员。
a18796007675
·
2020-07-27 18:25
编程语言C/C++
深度学习&强化学习&进化计算 入门资源整理
吴恩达讲授的机器学习课程被广泛认为是最好的MachineLearning入门课程:
吴恩达机器学习
课程(Coursera)
吴恩达机器学习
课程(网易云课堂)如果你的时间不多
CaLMdoWN_
·
2020-07-27 17:50
深度学习
吴恩达机器学习
第一次编程作业答案+解析
第一次作业答案与解析文章目录第一次作业答案与解析前言答案+解析BasicFunction(warmUpExercise.m)Plotting(plotData.m)Cost(computeCost.m)Gradientdescent(gradientDescent.m)RestLinearregressionwithmultiplevariablesFeatureNormalization(fea
Clauria
·
2020-07-27 15:14
机器学习
【
吴恩达机器学习
】逻辑回归 Logistic Regression
逻辑回归(LogisticRegression)对于分类问题(Classificationproblem),也就是预测的变量yyy是一个离散值(比如y={0,1}y=\{0,1\}y={0,1}),可以使用**逻辑回归(LogisticRegression)**来处理。逻辑回归的假设函数满足:0≤hθ(x)≤10\leh_\theta(x)\le10≤hθ(x)≤1假设函数(HypothesisR
Elliott__
·
2020-07-16 03:12
机器学习
吴恩达机器学习
练习2:Regularized logistic regression
本小节主要练习正则化logistic分类。1、原始数据的可视化data=load('ex2data2.txt');%将数据导入data中X=data(:,[1,2]);y=data(:,3);%读取data的第1、2列为输入X,第3列为输出y(y=0或y=1)plotData(X,y);%调用plotData函数绘图holdon;xlabel('MicrochipTest1')ylabel('Mi
梅文化_2019
·
2020-07-16 03:14
机器学习
Pyhon中Seaborn模板,sns.set(context="notebook", style="darkgrid", palette=color_palette("RdBu",2))报错
吴恩达机器学习
第二个例子LogisticRegression中。
神说哈喽我的
·
2020-07-16 01:16
Python
Flink Checkpoint-轻量级分布式快照
本文根据ApacheFlink进阶篇系列直播
课程整理
而成,由阿里巴巴高级研发工程师唐云(茶干)分享,主要讲解Flink中Checkpoint的应用实践,包括四个部分,分别是Checkpoint与state
haoyangmao1
·
2020-07-15 23:57
目标检测学习路线【基础知识+论文入门】
个人路线,仅供参考一、基础知识补充初步看完
吴恩达机器学习
之后,开始看目标检测论文之前,我发现有些目标检测基础是非看不可的,所以按照下列顺序进行了知识补充(大家有时间还是应该一步一步来呀不要学我感觉这样突击很心虚
han_hhh
·
2020-07-15 23:03
目标检测
机器学习
论文
2019-06-05
《阿毗达摩概要精解》导读网易云课堂-
吴恩达机器学习
课程55-64课时第八章:正则化;第九章:神经网络学习人工智能能否实现?
YZY君
·
2020-07-15 23:50
吴恩达机器学习
笔记之照片OCR
问题描述:照片光学识别(PhotoOpticalCharacterRecognition),一般有如下几个步骤:1.文字侦测(Textdetection):将图片上的文字与其他环境对象分离开来。2.字符划分(Charactersegementation):将文字分割成一个个单个的字符。3.字符分类(Characterclassification):确定每一个字符是什么。上面一个流程我们称之为机器学
iblue_coffee
·
2020-07-15 20:12
机器学习笔记
吴恩达机器学习
第三章测试及编程练习
代码:https://github.com/LiuZhe6/AndrewNGMachineLearning文章目录测验1:LogisticRegression第一题第二题第三题第四题第五题测验2:Regularization第一题第二题第三题第四题第五题编程练习作业一:SigmoidFunction作业二&三:LogisticRegressionCost&LogisticRegressionGra
一叶知秋Autumn
·
2020-07-15 19:00
机器学习
机器学习
吴恩达机器学习
第五周测验及编程作业
代码:https://github.com/LiuZhe6/AndrewNGMachineLearning文章目录测验:NeuralNetworks:Learning第一题第二题第三题第四题第五题编程练习:NeuralNetworkLearning作业一:FeedforwardandCostFunction作业二:RegularizedCostFunction作业三:SigmoidGradient
一叶知秋Autumn
·
2020-07-15 18:27
机器学习
机器学习
吴恩达机器学习
笔记5——多变量线性回归
第5章多变量线性回归1,多功能2,多元梯度下降法(GradientDescentforMultiplevariabls)Hypothesis假设:Parameters参数:n+1维向量Costfunction代价函数:Gradientdescent:Repeat{}每一个j=0,...,n同时更新3,特征缩放(featurescaling)如上图,进行梯度下降法,可能要来来回回很多步之后才能到达最
Margo_Zhang
·
2020-07-15 18:38
吴恩达机器学习
产品经理入门到精通(两千块的
课程整理
系列)9—需求获取与管理
第十六小节,需求从哪里来需求的几种来源:目标用户,自己,网络,同事等、不管需求从哪里来,还原需要后,都要在目标用户身上去验证(非功能需求除外),确定是目标用户的需求。什么是定性:主观推论,男神喜欢美女。什么是定量:客观数据。90%男生喜欢美女。先定性再定量。从用户处获取需求的四种方式1、定性+说:用户访谈。(1)目标用户有什么需求?用户属性是什么,看下他们是不是我们的目标用户、有什么需求、在什么场
不正经的产品经理
·
2020-07-15 16:30
入门机器学习(三)--课后作业解析-线性回归(Python实现)
相关资料:线性回归Python实现源码与数据集下载
吴恩达机器学习
课件与课后习题下载1.单变量线性回归在本练习的这一部分中,您将使用一个变量实现线性回归,以预测食品卡车的道具。
爱吃骨头的猫、
·
2020-07-15 15:15
•机器学习基础
吴恩达机器学习
第一次作业-线性回归
吴恩达机器学习
第一次作业(一)Linearregressionwithonevariable(1)Plotthedataaddpath('你电脑上的数据文件路径')data=load('ex1data1
老班老班
·
2020-07-15 07:13
机器学习
吴恩达机器学习
第二次作业-Logstic Regression
(一)将数据可视化addpath('文件路径')data=load('ex2data1.txt')X=data(:,[1,2])y=data(:,3)plotData(X,y)%plotData函数functionplotData(X,y)figure;holdon;pos=find(y==1);neg=find(y==0);plot(X(pos,1),X(pos,2),'k+','LineWid
老班老班
·
2020-07-15 07:13
机器学习
吴恩达机器学习
(四) (支持向量机SVM)
首先回顾一下logistics回归中的sigmoid函数当θTx远大于0时hθ(x)无限接近于1,那么我们给他一种对应情况,y=1。反之亦然。回忆起cost函数(坐标系中的红框),坐标系纵坐标就是cost代价我们对比一下上一篇学习的理解cost函数的图像,上一篇中的横坐标是hθ(x),而这里的横坐标是Z=θTx。当hθ(x)等于零代价函数也为零可以表达y=1的时候,所需要的Z是无穷大的(需要e-θ
川酱
·
2020-07-15 07:08
机器学习
吴恩达机器学习
(三)(logistics回归)
分类问题:先从一个二元分类开始。二元分类问题是让我去将问题分成两类,这两类互相呈对立面。logistics回归的本质上就是研究sigmoid(激活)函数,y=1/(1+e-x)也可以叫做logistics函数,他是个生物学概念函数。我们可以看到激活函数经过(0,0.5),当我们将第一节课学的拟合函数hθ(x)=θTx(θ,x默认是一个列向量)外面再套上一层对应关系g(),这个对应关系就是激活函数中
川酱
·
2020-07-15 07:08
吴恩达机器学习
笔记(二)(多变量特征缩放,特征选择,正规方程)
当出现变量之间范围相差较大时,可以将其特征缩放标准化后,使梯度下降法的速度提高。下面的作业题中,X数据的第一列代表房间的面积,第二列代表房间数。相差过大所以需要特征缩放补充知识:标准差=根号方差。默认是std(x,0,1),第二个位置0代表方差的分母是n,1代表方差分母是n-1,第三个位置,0代表按照行来计算标准差,1代表按列来计算标准差。特征缩放函数(x=(x-u平均值)/标准差)functio
川酱
·
2020-07-15 07:36
吴恩达机器学习
笔记(一)(梯度下降)
所以在这里把吴恩达本人写的代码给汉化了,因为网上实在找不到,我不知道他们为什么不这样做,好让我省点力气,希望这篇文章不要被发现很多人发现吧。如上将介绍最简单的单变量线性函数回归,我们对采集到的一些数据后进行线性拟合。这里称hθ(x)是拟合曲线,上图例子是直线。蓝线对应着右图的一条等高线,中心点表示拟合程度最高的h(x)。J(θ0,θ1)叫代价函数,代表拟合程度。如果对代价函数做最小梯度法,去寻找一
川酱
·
2020-07-15 07:36
人工智能学习之-学习笔记
人工智能学习之-学习笔记
吴恩达机器学习
:https://www.coursera.org/learn/machine-learning单元线性回归相关公式代价函数(costfunction)-平方误差函数
LarryHai6
·
2020-07-15 00:05
IT-AI
机器学习
吴恩达机器学习
-自制版Matlab作业1(Coursera上无法提交,放弃折腾)
知识点1知识点2MatricesandVectorsA=[1216;5179;3127]和A=[1,21,6;5,17,9;31,2,7]是一样的效果。(逗号)但是这里发现第八个元素,不是按照行来数,而是按照列。在matlab中如何我们要对矩阵进行转置,那么我们就使用A’这种的方式.那么逆矩阵如何表示呢?inv(A)。注意不是每个矩阵都是有逆矩阵的,有逆矩阵的前提条件是,该矩阵的行列式要有解。不可
诗杨诗祺
·
2020-07-15 00:58
机器学习
吴恩达机器学习
(四)局部加权回归
吴恩达机器学习
(四)局部加权回归使用局部加权回归的原因局部加权回归的原理实例讨论使用局部加权回归的原因在讲义中描述的是:makesthechoiceoffeatureslesscritical(为了让特征的选择不是那么重要
sddfsAv
·
2020-07-14 22:36
机器学习
感动!有人将吴恩达的视频课程做成了文字版
于是,以黄海广博士为首的一群机器学习爱好者发起了一个公益性质的项目(http://www.ai-start.com):
吴恩达机器学习
和深度学习课程的字幕翻译
AI科技大本营
·
2020-07-14 09:08
【机器学习】
吴恩达机器学习
作业无法提交
在我提交吴恩达的ML作业的时候,出现了以下错误代码:[error]submissionwithcurl()wasnotsuccessful!!Submissionfailed:错误使用submitWithConfiguration>validateResponse(line158)GradersentnoresponseFunction:validateResponseFileName:C:\Us
爱学习的大白菜
·
2020-07-14 09:07
机器学习
解决matlab2019b
吴恩达机器学习
提交失败的问题
解决matlab2019b
吴恩达机器学习
提交失败的问题matlab2019b问题复现问题没完这样就完了?
·空感自诩”
·
2020-07-14 02:32
matlab
机器学习
2018-08-03
电信SP统计项目测试---完成2)考核细则完善----完成3)开会-和成员沟通考核(未完成)成员出差、成员去电信、开会冲突,预计下周一继续4)面试(应聘人员笔试不过关,他着急走,就没有面试)5)人力资源
课程整理
灼灼2015
·
2020-07-14 01:04
[Machine Learning]
吴恩达机器学习
笔记 一 ——绪论:初始机器学习
1、MachineLearningdefinitionArthurSamul(1959):Fieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed.TomMitchell(1998):AcomputerprogramissaidtolearnfromexperienceEwithrespectto
哟米 2000
·
2020-07-13 21:01
机器学习
机器学习
【
吴恩达机器学习
】学习笔记1.3(Normal Equation& 与梯度下降比较)
NormalEquation(标准方程)通过前面的学习,我们知道了能够通过梯度下降的方法求得我们的最优解,那还有没有其他方法呢?回想我们原来的学习过程,如果我们已知一个二次函数,想求它的最小值,我们采用的方法就是对二次函数求导,找到导数为0的那个点,这就是NormalEquation的方法如上图所示,我们得到一个关于变量的矩阵X,和一个输出的矩阵Y,利用来求的我们的θ向量,关于这个式子怎么求得需要
00111001
·
2020-07-13 20:44
机器学习
吴恩达机器学习
笔记(week1——week5)
Week1转自该大神~~~~~http://scruel.gitee.io/ml-andrewng-notes/week1.html一、引言(Introduction)1.1欢迎1.2机器学习是什么?1.3监督学习1.4无监督学习二、单变量线性回归(LinearRegressionwithOneVariable)2.1模型表示2.2代价函数2.3代价函数的直观理解I2.4代价函数的直观理解II2.
张文彬彬
·
2020-07-13 15:44
吴恩达机器学习笔记
【文魁派】思维导图武林计划 朱岚《武林计划
课程整理
》No.50
图片发自App【作者】朱岚【派别】文魁派【导师】王玉印老师【解说】把
课程整理
了一遍,感觉收获满满。
朱岚62
·
2020-07-13 14:34
斯坦福大学
吴恩达机器学习
教程中文笔记——week6——应用机器学习的建议,机器学习系统的设计
第6周文章目录第6周@[toc]十、应用机器学习的建议(AdviceforApplyingMachineLearning)10.1决定下一步做什么10.2评估一个假设10.3模型选择和交叉验证集10.4诊断偏差和方差10.5正则化和偏差/方差10.6学习曲线10.7决定下一步做什么十一、机器学习系统的设计(MachineLearningSystemDesign)11.1首先要做什么11.2误差分析
laiczhang
·
2020-07-13 12:20
吴恩达机器学习笔记
吴恩达机器学习
第三周(含编程作业及python实现)
主要内容:逻辑回归:分类问题。即训练集中的标签(y值)属于一个有穷集,如{0,1},{0,...,10}。具体例子有:判断病人是否患有癌症(2种类别);手写数字识别(10种类别);判断学生是否挂科等等。假设函数:在原先线性回归函数中的θ*X上,再套上一层激励函数。激励函数是神经网络中的一种函数,通常是非线性的。在这里的机器学习问题上,其表示形式为,其中,(这里的θ为列向量,但其实要根据具体情况以及
booooooty
·
2020-07-13 11:42
机器学习
吴恩达机器学习
笔记--第一周-2.模型和损失函数
week1-2.ModelandCostFunction一、ModelRepresentation训练集(trainingset)中的一些符号表示:单变量线性回归(linearregressionwithonevariable/univariatelinearregression)二、CostFuntion三、CostFunction-IntructionI四、CostFunction-Intru
Loki97
·
2020-07-13 10:11
吴恩达machine
learning学习笔记
吴恩达机器学习
笔记6 机器学习模型的诊断与修正
目录模型误差较大的处理方法假设的评估模型选择和交叉验证集拟合次数的评估(偏差/方差)正则化系数评估(偏差/方差)学习曲线LearningCurves如何利用学习曲线识别高偏差(HighBias)/欠拟合(underfit)如何利用学习曲线识别高方差(HighBias)/过拟合(overfit)如何修正一个机器学习模型如何选择一个神经网络结构模型误差较大的处理方法获得更多的训练样本——通常是有效的,
mxb1234567
·
2020-07-13 08:31
机器学习
怎么增加我们的抗风险能力——没有任何保险的人就叫裸奔
ps:
课程整理
的笔记保险的作用是转嫁风险,运用杠杆原理以小博大买安心,花一万换50万身价,为家庭成员准备份保障,本身就不是投资理财。
suey_fcfd
·
2020-07-13 04:00
【
吴恩达机器学习
】学习记录1:课程概论及相关基础概念(监督学习、非监督学习、损失函数、梯度下降法)
课程概论机器学习的定义监督学习非监督学习模型表示代价函数梯度下降法课程概论机器学习概念的简单介绍:机器学习是一种在对人工智能进行探索的过程中产生的新技术,它赋予了计算机新的能力,使其不仅仅是一个进行超级计算的工具。机器学习的应用:数据挖掘、人工无法完成的工作(自动驾驶直升机、手写识别、CV、NLP等)、个性化工程(Amazon、Netflix的产品推荐)、理解人类的学习过程(仿脑)机器学习的定义吴
ayayayayo
·
2020-07-13 02:40
机器学习
吴恩达机器学习
系列课程笔记——监督学习常见模型
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.回归问题模型1.1线性回归模型(LinearRegression)1.1.1单变量线性回归(UnivariateLinearRegression)1.1.2多元线性回归模型(MultivariableLinearRegression)1.2多项式回归模型(PolynomialRegres
White_lies
·
2020-07-13 01:41
#
吴恩达机器学习
西瓜书+实战+
吴恩达机器学习
(十六)半监督学习(半监督SVM、半监督k-means、协同训练算法)
文章目录0.前言1.半监督SVM2.半监督k-means2.1.约束k-means2.2.约束种子k-means3.协同训练算法如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言半监督学习中部分样本有标记,部分样本无标记。半监督学习可分为两种:纯半监督学习:希望学得的模型适用于未观察到的数据直推学习:希望对数据集中未标记的样本进行预测1.半监督SVM半监督支持向量机(
zhq9695
·
2020-07-12 20:13
机器学习
matlab版
吴恩达机器学习
第五章笔记
机器学习matlab操作基础1、基本操作2、移动数据3、计算数据4、绘图数据5、控制语句:for,while,if语句6、向量化1、基本操作参考视频:5-1-BasicOperations(14min).mkv打开matlab(R2019b)这是matlab命令行现在示范最基本的matlab代码:输入5+6,然后得到11。输入1/2、2^6等等,得到相应答案。这些都是基本的数学运算也可以去做逻辑运
Nice try
·
2020-07-12 19:58
机器学习
数学建模学习笔记:灰色关联分析
本次笔记内容内容来自清风老师的
课程整理
,增加了一些拓展资源以及自己的见解,如有侵权请联系删除。清风老师的数学建模课程可以在B站搜索到。本文给出了excel和matlab两种计算灰色关联度的过程详解。
yanyanwenmeng
·
2020-07-12 18:14
吴恩达机器学习
笔记
本文为
吴恩达机器学习
视频听课笔记,仅记录课程大纲及对于部分关键点、疑难点的理解。
大红红蝴蝶公主
·
2020-07-12 17:10
机器学习
上一页
22
23
24
25
26
27
28
29
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他