E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week2
Pyhon中Seaborn模板,sns.set(context="notebook", style="darkgrid", palette=color_palette("RdBu",2))报错
吴恩达机器学习
第二个例子LogisticRegression中。
神说哈喽我的
·
2020-07-16 01:16
Python
目标检测学习路线【基础知识+论文入门】
个人路线,仅供参考一、基础知识补充初步看完
吴恩达机器学习
之后,开始看目标检测论文之前,我发现有些目标检测基础是非看不可的,所以按照下列顺序进行了知识补充(大家有时间还是应该一步一步来呀不要学我感觉这样突击很心虚
han_hhh
·
2020-07-15 23:03
目标检测
机器学习
论文
2019-06-05
《阿毗达摩概要精解》导读网易云课堂-
吴恩达机器学习
课程55-64课时第八章:正则化;第九章:神经网络学习人工智能能否实现?
YZY君
·
2020-07-15 23:50
吴恩达机器学习
笔记之照片OCR
问题描述:照片光学识别(PhotoOpticalCharacterRecognition),一般有如下几个步骤:1.文字侦测(Textdetection):将图片上的文字与其他环境对象分离开来。2.字符划分(Charactersegementation):将文字分割成一个个单个的字符。3.字符分类(Characterclassification):确定每一个字符是什么。上面一个流程我们称之为机器学
iblue_coffee
·
2020-07-15 20:12
机器学习笔记
吴恩达机器学习
第三章测试及编程练习
代码:https://github.com/LiuZhe6/AndrewNGMachineLearning文章目录测验1:LogisticRegression第一题第二题第三题第四题第五题测验2:Regularization第一题第二题第三题第四题第五题编程练习作业一:SigmoidFunction作业二&三:LogisticRegressionCost&LogisticRegressionGra
一叶知秋Autumn
·
2020-07-15 19:00
机器学习
机器学习
吴恩达机器学习
第五周测验及编程作业
代码:https://github.com/LiuZhe6/AndrewNGMachineLearning文章目录测验:NeuralNetworks:Learning第一题第二题第三题第四题第五题编程练习:NeuralNetworkLearning作业一:FeedforwardandCostFunction作业二:RegularizedCostFunction作业三:SigmoidGradient
一叶知秋Autumn
·
2020-07-15 18:27
机器学习
机器学习
吴恩达机器学习
笔记5——多变量线性回归
第5章多变量线性回归1,多功能2,多元梯度下降法(GradientDescentforMultiplevariabls)Hypothesis假设:Parameters参数:n+1维向量Costfunction代价函数:Gradientdescent:Repeat{}每一个j=0,...,n同时更新3,特征缩放(featurescaling)如上图,进行梯度下降法,可能要来来回回很多步之后才能到达最
Margo_Zhang
·
2020-07-15 18:38
吴恩达机器学习
从零开始的Python图像识别-
Week2
OpenCV入门
本周我们简单讲解了OpenCV官方的入门案例内容有:图像处理入门视频处理入门画图功能入门鼠标事件入门轨迹栏入门文章目录OpenCV入门图像处理入门读取图像显示图像写入图像视频处理入门从相机捕获视频保存视频画图功能绘制直线绘制矩形绘制圆绘制椭圆绘制多边形向图像添加文本:通过鼠标绘制图案通过轨迹栏调色OpenCV入门图像处理入门读取图像使用函数cv.imread()读取图像。该映像应位于工作目录中,或
咸鱼不垫底
·
2020-07-15 16:01
入门机器学习(三)--课后作业解析-线性回归(Python实现)
相关资料:线性回归Python实现源码与数据集下载
吴恩达机器学习
课件与课后习题下载1.单变量线性回归在本练习的这一部分中,您将使用一个变量实现线性回归,以预测食品卡车的道具。
爱吃骨头的猫、
·
2020-07-15 15:15
•机器学习基础
吴恩达机器学习
第一次作业-线性回归
吴恩达机器学习
第一次作业(一)Linearregressionwithonevariable(1)Plotthedataaddpath('你电脑上的数据文件路径')data=load('ex1data1
老班老班
·
2020-07-15 07:13
机器学习
吴恩达机器学习
第二次作业-Logstic Regression
(一)将数据可视化addpath('文件路径')data=load('ex2data1.txt')X=data(:,[1,2])y=data(:,3)plotData(X,y)%plotData函数functionplotData(X,y)figure;holdon;pos=find(y==1);neg=find(y==0);plot(X(pos,1),X(pos,2),'k+','LineWid
老班老班
·
2020-07-15 07:13
机器学习
吴恩达机器学习
(四) (支持向量机SVM)
首先回顾一下logistics回归中的sigmoid函数当θTx远大于0时hθ(x)无限接近于1,那么我们给他一种对应情况,y=1。反之亦然。回忆起cost函数(坐标系中的红框),坐标系纵坐标就是cost代价我们对比一下上一篇学习的理解cost函数的图像,上一篇中的横坐标是hθ(x),而这里的横坐标是Z=θTx。当hθ(x)等于零代价函数也为零可以表达y=1的时候,所需要的Z是无穷大的(需要e-θ
川酱
·
2020-07-15 07:08
机器学习
吴恩达机器学习
(三)(logistics回归)
分类问题:先从一个二元分类开始。二元分类问题是让我去将问题分成两类,这两类互相呈对立面。logistics回归的本质上就是研究sigmoid(激活)函数,y=1/(1+e-x)也可以叫做logistics函数,他是个生物学概念函数。我们可以看到激活函数经过(0,0.5),当我们将第一节课学的拟合函数hθ(x)=θTx(θ,x默认是一个列向量)外面再套上一层对应关系g(),这个对应关系就是激活函数中
川酱
·
2020-07-15 07:08
吴恩达机器学习
笔记(二)(多变量特征缩放,特征选择,正规方程)
当出现变量之间范围相差较大时,可以将其特征缩放标准化后,使梯度下降法的速度提高。下面的作业题中,X数据的第一列代表房间的面积,第二列代表房间数。相差过大所以需要特征缩放补充知识:标准差=根号方差。默认是std(x,0,1),第二个位置0代表方差的分母是n,1代表方差分母是n-1,第三个位置,0代表按照行来计算标准差,1代表按列来计算标准差。特征缩放函数(x=(x-u平均值)/标准差)functio
川酱
·
2020-07-15 07:36
吴恩达机器学习
笔记(一)(梯度下降)
所以在这里把吴恩达本人写的代码给汉化了,因为网上实在找不到,我不知道他们为什么不这样做,好让我省点力气,希望这篇文章不要被发现很多人发现吧。如上将介绍最简单的单变量线性函数回归,我们对采集到的一些数据后进行线性拟合。这里称hθ(x)是拟合曲线,上图例子是直线。蓝线对应着右图的一条等高线,中心点表示拟合程度最高的h(x)。J(θ0,θ1)叫代价函数,代表拟合程度。如果对代价函数做最小梯度法,去寻找一
川酱
·
2020-07-15 07:36
Week2
Teamework from Z.XML - 必应缤纷桌面助手 - 软件分析与用户需求调查
软件分析与用户需求调查(2013)fromZ.XML本次团队作业要求:通过定性,定量地分析,总结和评定某软件是否满足了目标用户的需求,并把分析的过程和结果用博客表达出来。选题:必应缤纷桌面的必应助手上周例会中我们团队仔细分析了每个选题,并在最后以投票的方式确定了我们本次团队任务的选题:搜索助手类:。具体的讨论内容和投票结果记录在团队博客的例会记录上。请参见:http://www.cnblogs.c
weixin_34021089
·
2020-07-15 04:54
Week2
Teamework from Z.XML 软件分析与用户需求调查(五)从对比中看见必应助手发展空间...
本文将主要探讨软件功能前景(浮动头像界面,升级式角色),找出与bing助手相类似功能的资深软件,分析这些软件的发展趋势和用户体验,从历史的角度来评测bing助手的某些功能的前景。1、浮动头像界面-曲别针2、升级式角色-QQ宠物3、漂浮的思想-360悬浮窗4、界面信息密度在使用此桌面小助手三天后,觉得这个桌面小助手的存在对我的“干扰”远远超于功能的服务。首先从服务说起:我每天在电脑前呆久了,就会“休
weixin_33872660
·
2020-07-15 04:58
Week2
Teamework from Z.XML 软件分析与用户需求调查(二)应用助手功能评测
评测人:薛亚杰周敏轩。说明:言辞激烈,请勿介意。软件使用概述我们团队这次评测的必应助手是必应缤纷桌面的一个小功能,根据评测人员试用几天后发现,它的作用大概就是能够用一种看上去比较生动的形式来给必应缤纷桌面的用户提供一些资讯吧。等等,我们应该先来看看这个简介吧:==,评测人员一开始并没有发现该助手有任何和搜索相关的功能;可能是由于自身智商不够,导致愚钝的评测员未能发现在该机智的小助手在默默的帮助实现
weixin_33854644
·
2020-07-15 04:17
人工智能学习之-学习笔记
人工智能学习之-学习笔记
吴恩达机器学习
:https://www.coursera.org/learn/machine-learning单元线性回归相关公式代价函数(costfunction)-平方误差函数
LarryHai6
·
2020-07-15 00:05
IT-AI
机器学习
吴恩达机器学习
-自制版Matlab作业1(Coursera上无法提交,放弃折腾)
知识点1知识点2MatricesandVectorsA=[1216;5179;3127]和A=[1,21,6;5,17,9;31,2,7]是一样的效果。(逗号)但是这里发现第八个元素,不是按照行来数,而是按照列。在matlab中如何我们要对矩阵进行转置,那么我们就使用A’这种的方式.那么逆矩阵如何表示呢?inv(A)。注意不是每个矩阵都是有逆矩阵的,有逆矩阵的前提条件是,该矩阵的行列式要有解。不可
诗杨诗祺
·
2020-07-15 00:58
机器学习
吴恩达机器学习
(四)局部加权回归
吴恩达机器学习
(四)局部加权回归使用局部加权回归的原因局部加权回归的原理实例讨论使用局部加权回归的原因在讲义中描述的是:makesthechoiceoffeatureslesscritical(为了让特征的选择不是那么重要
sddfsAv
·
2020-07-14 22:36
机器学习
Java学习心得week1
Java学习心得
week2
这是正式开始学习Java的第一周,也是在疫情下在家学习的第一周,参加千峰逆战班应该是一个好的开始。
qq_41643212
·
2020-07-14 20:30
感动!有人将吴恩达的视频课程做成了文字版
于是,以黄海广博士为首的一群机器学习爱好者发起了一个公益性质的项目(http://www.ai-start.com):
吴恩达机器学习
和深度学习课程的字幕翻译
AI科技大本营
·
2020-07-14 09:08
【机器学习】
吴恩达机器学习
作业无法提交
在我提交吴恩达的ML作业的时候,出现了以下错误代码:[error]submissionwithcurl()wasnotsuccessful!!Submissionfailed:错误使用submitWithConfiguration>validateResponse(line158)GradersentnoresponseFunction:validateResponseFileName:C:\Us
爱学习的大白菜
·
2020-07-14 09:07
机器学习
Week2
Teamework from Z.XML 软件分析与用户需求调查(三)必应助手体验评测
评测人:毛宇肖俊鹏说明:言辞激烈,请勿介意我花了2天的时间来试用这个软件《必应缤纷桌面手机助手》,有了很多体会,这里,我来谈一下这款软件在体验部分的表现情况。体验部分主要分为三个部分,分别是软件的适应性:在联网/断网,大小屏幕,没有鼠标的情况下都可以顺畅操作.和不同平台的软件能流畅协作;成长性:记住用户的选择,适应用户的特点,用户越用越方便用户有控制权:系统状态有反馈,等待时间要合适。关键操作有确
weixin_34021089
·
2020-07-14 03:01
解决matlab2019b
吴恩达机器学习
提交失败的问题
解决matlab2019b
吴恩达机器学习
提交失败的问题matlab2019b问题复现问题没完这样就完了?
·空感自诩”
·
2020-07-14 02:32
matlab
机器学习
[Machine Learning]
吴恩达机器学习
笔记 一 ——绪论:初始机器学习
1、MachineLearningdefinitionArthurSamul(1959):Fieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed.TomMitchell(1998):AcomputerprogramissaidtolearnfromexperienceEwithrespectto
哟米 2000
·
2020-07-13 21:01
机器学习
机器学习
【
吴恩达机器学习
】学习笔记1.3(Normal Equation& 与梯度下降比较)
NormalEquation(标准方程)通过前面的学习,我们知道了能够通过梯度下降的方法求得我们的最优解,那还有没有其他方法呢?回想我们原来的学习过程,如果我们已知一个二次函数,想求它的最小值,我们采用的方法就是对二次函数求导,找到导数为0的那个点,这就是NormalEquation的方法如上图所示,我们得到一个关于变量的矩阵X,和一个输出的矩阵Y,利用来求的我们的θ向量,关于这个式子怎么求得需要
00111001
·
2020-07-13 20:44
机器学习
吴恩达机器学习
笔记(week1——week5)
Week1转自该大神~~~~~http://scruel.gitee.io/ml-andrewng-notes/week1.html一、引言(Introduction)1.1欢迎1.2机器学习是什么?1.3监督学习1.4无监督学习二、单变量线性回归(LinearRegressionwithOneVariable)2.1模型表示2.2代价函数2.3代价函数的直观理解I2.4代价函数的直观理解II2.
张文彬彬
·
2020-07-13 15:44
吴恩达机器学习笔记
斯坦福大学
吴恩达机器学习
教程中文笔记——week6——应用机器学习的建议,机器学习系统的设计
第6周文章目录第6周@[toc]十、应用机器学习的建议(AdviceforApplyingMachineLearning)10.1决定下一步做什么10.2评估一个假设10.3模型选择和交叉验证集10.4诊断偏差和方差10.5正则化和偏差/方差10.6学习曲线10.7决定下一步做什么十一、机器学习系统的设计(MachineLearningSystemDesign)11.1首先要做什么11.2误差分析
laiczhang
·
2020-07-13 12:20
吴恩达机器学习笔记
吴恩达机器学习
第三周(含编程作业及python实现)
主要内容:逻辑回归:分类问题。即训练集中的标签(y值)属于一个有穷集,如{0,1},{0,...,10}。具体例子有:判断病人是否患有癌症(2种类别);手写数字识别(10种类别);判断学生是否挂科等等。假设函数:在原先线性回归函数中的θ*X上,再套上一层激励函数。激励函数是神经网络中的一种函数,通常是非线性的。在这里的机器学习问题上,其表示形式为,其中,(这里的θ为列向量,但其实要根据具体情况以及
booooooty
·
2020-07-13 11:42
机器学习
吴恩达机器学习
笔记--第一周-2.模型和损失函数
week1-2.ModelandCostFunction一、ModelRepresentation训练集(trainingset)中的一些符号表示:单变量线性回归(linearregressionwithonevariable/univariatelinearregression)二、CostFuntion三、CostFunction-IntructionI四、CostFunction-Intru
Loki97
·
2020-07-13 10:11
吴恩达machine
learning学习笔记
吴恩达机器学习
笔记6 机器学习模型的诊断与修正
目录模型误差较大的处理方法假设的评估模型选择和交叉验证集拟合次数的评估(偏差/方差)正则化系数评估(偏差/方差)学习曲线LearningCurves如何利用学习曲线识别高偏差(HighBias)/欠拟合(underfit)如何利用学习曲线识别高方差(HighBias)/过拟合(overfit)如何修正一个机器学习模型如何选择一个神经网络结构模型误差较大的处理方法获得更多的训练样本——通常是有效的,
mxb1234567
·
2020-07-13 08:31
机器学习
【
吴恩达机器学习
】学习记录1:课程概论及相关基础概念(监督学习、非监督学习、损失函数、梯度下降法)
课程概论机器学习的定义监督学习非监督学习模型表示代价函数梯度下降法课程概论机器学习概念的简单介绍:机器学习是一种在对人工智能进行探索的过程中产生的新技术,它赋予了计算机新的能力,使其不仅仅是一个进行超级计算的工具。机器学习的应用:数据挖掘、人工无法完成的工作(自动驾驶直升机、手写识别、CV、NLP等)、个性化工程(Amazon、Netflix的产品推荐)、理解人类的学习过程(仿脑)机器学习的定义吴
ayayayayo
·
2020-07-13 02:40
机器学习
吴恩达机器学习
系列课程笔记——监督学习常见模型
该系列笔记内容是楼主在观看课程时记录的,其中图片是视频中ppt的截图,内容仅供参考,有问题欢迎大家指出。目录1.回归问题模型1.1线性回归模型(LinearRegression)1.1.1单变量线性回归(UnivariateLinearRegression)1.1.2多元线性回归模型(MultivariableLinearRegression)1.2多项式回归模型(PolynomialRegres
White_lies
·
2020-07-13 01:41
#
吴恩达机器学习
裸辞周记Week3:没有外食的一周!
之前的文章:裸辞周记Week1:休息与调整裸辞周记
Week2
:逐渐进入备考状态0.目标完成情况上周制定的三个目标,实现了两个,具体情况如下:0.1【通过考试】备考投入时间达到21h上周投入备考时间为22h
静夏安好
·
2020-07-12 20:16
西瓜书+实战+
吴恩达机器学习
(十六)半监督学习(半监督SVM、半监督k-means、协同训练算法)
文章目录0.前言1.半监督SVM2.半监督k-means2.1.约束k-means2.2.约束种子k-means3.协同训练算法如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言半监督学习中部分样本有标记,部分样本无标记。半监督学习可分为两种:纯半监督学习:希望学得的模型适用于未观察到的数据直推学习:希望对数据集中未标记的样本进行预测1.半监督SVM半监督支持向量机(
zhq9695
·
2020-07-12 20:13
机器学习
matlab版
吴恩达机器学习
第五章笔记
机器学习matlab操作基础1、基本操作2、移动数据3、计算数据4、绘图数据5、控制语句:for,while,if语句6、向量化1、基本操作参考视频:5-1-BasicOperations(14min).mkv打开matlab(R2019b)这是matlab命令行现在示范最基本的matlab代码:输入5+6,然后得到11。输入1/2、2^6等等,得到相应答案。这些都是基本的数学运算也可以去做逻辑运
Nice try
·
2020-07-12 19:58
机器学习
吴恩达机器学习
笔记
本文为
吴恩达机器学习
视频听课笔记,仅记录课程大纲及对于部分关键点、疑难点的理解。
大红红蝴蝶公主
·
2020-07-12 17:10
机器学习
超级详细讲解线性回归(含吴恩达相关)
多个样本点损失函数梯度下降(GradientDescent)代码实现训练模型函数模型拟合函数损失函数(代价函数)梯度下降算法迭代函数画图显示完整的代码手写线性回归函数代码sklearn线性回归函数代码
吴恩达机器学习
线性回归
JY丫丫
·
2020-07-12 17:12
J_机器学习
【
吴恩达机器学习
笔记】Week5 ex4 nnCostFunction part1 答案
被Week5的ex4中nnCostFunction的part1卡了一下,现在弄懂了,说一下自己的理解%Part1:Feedforwardtheneuralnetworkandreturnthecostinthe%variableJ.AfterimplementingPart1,youcanverifythatyour%costfunctioncomputationiscorrectbyverify
Vincent__Lai
·
2020-07-12 10:46
机器学习
Coursera——Machine Learning (linear Regression)
week2
编程作业答案
1、warmUpExercise.m:输出一个5*5的单位矩阵(identitymatrix)functionA=warmUpExercise()%WARMUPEXERCISEExamplefunctioninoctave%A=WARMUPEXERCISE()isanexamplefunctionthatreturnsthe5x5identitymatrixA=[];%=============Y
sand_13
·
2020-07-11 22:04
ml
《
吴恩达机器学习
》学习笔记_章节3
章节3课时14矩阵和向量别人的笔记这一节比较简单,主要回顾矩阵向量的基本知识,为之后的学习打下基础。1、矩阵m*n的矩阵就是指m行(横向)n列(纵向),Aij是指第i行,第j个元素。一般用大写来表示矩阵。矩阵的运算也比较简单,矩阵求和就是对应位置求和即可,所以维数不同的矩阵不可以求和,矩阵的倍数就是所有位置乘以相应的倍数。还有矩阵的逆(可以用一些工具来求,如Octave和Matlab),矩阵的转置
jimleelcc
·
2020-07-11 21:05
嵩天老师python爬虫笔记整理
week2
1.BeautifulSoup库入门BeautifulSoup库是一个解析网络数据的python库,下面使用下。importrequestsr=requests.get('https://python123.io/ws/demo.html')r.text'Thisisapythondemopage\r\n\r\nThedemopythonintroducesseveralpythoncourses
laiczhang
·
2020-07-11 21:25
pythonMOOC
python
爬虫
beautiful
soup
吴恩达机器学习
笔记(五)-Octave教程
第六章Octave/Matlab教程基本操作一些想要构建大规模机器学习项目的人通常会使用Octave,这是一种很好的原始语言来构建算法原型。本章节将介绍一系列的Octave命令:(1)可以执行最基础的数学运算和逻辑运算。(2)V=1:0.1:2,表示的是从1开始,每次步长为0.1,一直增加到2。(3)V=1:6,这样v就被赋值了,从1到6。(4)Ones(2,3)会得到两行三列的矩阵,并且值都为1
献世online
·
2020-07-11 17:32
机器学习
机器学习与深度学习
吴恩达机器学习
第十一章---应用机器学习的建议
决定下一步做什么当得到一个如上图中上半部分所示的代价函数,需要对其进行优化。那如何进行优化才能使得这个式子能够更进一步得出更准确的模型那?给出几个方式:1.可以收集更多的训练样本2.尝试使用更少的特征(防止过拟合)3.也有可能需要更多的特征4.增加多项式特征5.减小或增大正则化数lambda的值但是如何确选择哪一种优化方法又成为一个新的问题。方法并不是随便选取的,不然很有可能你花费了很长时间最后得
Boran+
·
2020-07-11 16:26
笔记
吴恩达
机器学习笔记
机器学习
吴恩达机器学习
第十章---神经网络参数的反向传播算法
代价函数代价函数我们在上面定义,如同右上角所设置的一样,我们用L来表示总层数,sl表示对应的层数的神经元的个数。如上图中左上角所示,我们得知s1=3,s2=s3=5,s4=4,同时它的输出只有1或者0(一个典型的分类问题)。同样我们在使用神经网络时一样要面对它的代价函数。在看神经网络的代价函数之前我们先来观测一下逻辑回归对应的代价函数,逻辑回归对应的代价函数如上图上方所示,y(i)表示实际值,h(
Boran+
·
2020-07-11 16:26
吴恩达
机器学习笔记
笔记
机器学习
吴恩达机器学习
(一)监督学习与无监督学习
∗∗∗点击查看:
吴恩达机器学习
——整套笔记+编程作业详解∗∗∗\color{#f00}{***\点击查看\:
吴恩达机器学习
\——\整套笔记+编程作业详解\***}∗∗∗点击查看:
吴恩达机器学习
——整套笔记
Fun'
·
2020-07-11 12:04
吴恩达
机器学习
K-mean均值算法原理讲解和代码实战
K-mean均值算法原理讲解和代码实战前言最近在学习
吴恩达机器学习
课程,刚刚学完第一个无监督学习算法,搭配着机器学习实战里面的k-mean实战,成功的将理论和实际结合了起来。
梁先森-python数据分析师进阶之路
·
2020-07-11 12:09
机器学习
吴恩达机器学习
笔记(三)
吴恩达机器学习
笔记(三)标签(空格分隔):机器学习
吴恩达机器学习
笔记三神经网络1神经网络的数学表达2前向传播forwardpropagation3神经网络简单示例AND多元分类问题重要矢量化公式1.神经网络神经网络分为输入层
蚍蜉_
·
2020-07-11 01:57
机器学习
上一页
24
25
26
27
28
29
30
31
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他