E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习私人笔记
Coursera-
吴恩达机器学习
课程笔记-Week3
logisticregressionBinaryclassificationproblemslogisticregression是一个分类算法Hypothesisfunctiondecisionboundary决策边界与线性回归算法类似,先了解logistic回归算法的表达式然后是它的costfunction代价函数本质上就是对每一个训练样本计算真实值和预测值的差距,差距大则代价函数的取值也大(这
z1xiang
·
2020-01-14 15:00
Coursera-
吴恩达机器学习
课程笔记-Week2
参考资料:吴恩达教授机器学习课程机器学习课程中文笔记Week2一.多变量线性回归(LinearRegressionwithMultipleVariables)多变量就时当一个example里有n个特征的情况,将n个特征统一到一个matrix里去看作整体。多变量线性回归还是先出costfunction,然后用梯度下降算法/正规方程法使costfunction最小化特征的选择多变量线性回归中有很多特征
z1xiang
·
2020-01-11 23:00
Coursera-
吴恩达机器学习
课程笔记-Week2
参考资料:吴恩达教授机器学习课程机器学习课程中文笔记Week2一.多变量线性回归(LinearRegressionwithMultipleVariables)多变量就时当一个example里有n个特征的情况,将n个特征统一到一个matrix里去看作整体。多变量线性回归还是先出costfunction,然后用梯度下降算法/正规方程法使costfunction最小化特征的选择多变量线性回归中有很多特征
z1xiang
·
2020-01-11 23:00
Coursera-
吴恩达机器学习
课程笔记-Week1
参考资料:吴恩达教授机器学习课程机器学习课程中文笔记Week1一.引言机器学习模型可分为监督学习Supervieselearning(每个数据集给出了正确的值)和无监督学习Unsupervisedlearning(数据集只有特征,没有对应正确的值)机器学习处理的问题可以分为Regression回归问题(结果是real-valuedoutput连续的值)和Classification问题(结果是di
z1xiang
·
2020-01-11 23:00
Coursera-
吴恩达机器学习
课程笔记-Week1
参考资料:吴恩达教授机器学习课程机器学习课程中文笔记Week1一.引言机器学习模型可分为监督学习Supervieselearning(每个数据集给出了正确的值)和无监督学习Unsupervisedlearning(数据集只有特征,没有对应正确的值)机器学习处理的问题可以分为Regression回归问题(结果是real-valuedoutput连续的值)和Classification问题(结果是di
z1xiang
·
2020-01-11 23:00
22
吴恩达机器学习
小记
多分类问题的引入:识别手写数字。首先将数字图片转换为灰度图像,将20*20分辨率的图像生成400维的向量,标签则为0~9,考虑兼容性可将0映射为10。然后可以采用逻辑回归,神经网络等监督学习算法。计算参数向量可以采用梯度下降算法或fminunc函数,都需要计算代价函数和梯度的表达式。防止过拟合需要加上正则化表达式。theta0为截距不需要正则化,所以写带正则化的代价函数和梯度时要注意。向量化替代循
陈昱熹
·
2020-01-08 20:42
【机器学习】入门笔记系列 | 西瓜书笔记(一)
看了很多前辈大神的推荐,从西瓜书(周志华老师《机器学习》)或者Coursera
吴恩达机器学习
视频入门比较好。我比较喜欢书籍,因为做起笔记比较方便。
胖三斤66
·
2020-01-08 18:29
吴恩达机器学习
-Chapter 15 降维
目的:降维的应用、概念、及算法。降维的3个目的:数据压缩、加速算法(缩小特征变量)、数据可视化。降维本身也是一种无监督学习算法。1.Lesson115数据压缩 1.目的:降维的第一个应用数据压缩 2.内容: 1.降维实际上就是减少特征变量(这里说的降维是针对特征变量进行向量化而言),比如3维降到2维就是指3个特征变量缩小到2个特征变量 2.当特征变量太多,而且重复度
数据追随者
·
2020-01-04 08:02
南官人文大讲堂20191122
《
私人笔记
本》刚开始写情绪小说,与生命交流。二、成年人的生活成长一个
晴天雪XJ
·
2020-01-03 09:19
面对这样的一个问题平台,我们必须敢怒敢言
从16年到现在,用已经有将近四年了,很喜欢它的简约风格,拿起手机,无论是在办公室,旅行途中,还是半夜时分,想写就写,就像一个
私人笔记
本,已经习惯了它的存在,渐渐融入自己的生活中,每隔三两天没写点东西就觉得少了点什么
浅浅落落
·
2019-12-29 07:36
吴恩达机器学习
机器学习的定义:(使用octave编程环境)1、在没有明确设置的情况下,使计算机具有学习能力——Samuel2、计算机程序从经验E中学习,解决某一任务T,进行某一性能度量P,通过P测定在T上的表现因经验E而提高——TomMitchell机器学习算法分类:1、监督学习(Supervisedlearning)2、无监督学习(Unsupervisedlearning)3、强化学习(Reinforceme
renyangfar
·
2019-12-28 17:15
吴恩达机器学习
-Chapter 14 无监督学习
目的:无监督学习聚类算法1.Lesson108无监督学习 1.目的:介绍无监督学习,无标签y,只有特征变量X 2.应用场景:市场划分、社交网络人群聚类、服务器集群划分2.Lesson109K-Means算法 1.目的:介绍K-Means定义及原理 2.K-Means是迭代算法,它做2件事1)簇分类2)移动聚类中心 3.步骤: 1.随机找2个聚类中心,分别叫:
数据追随者
·
2019-12-26 13:06
吴恩达机器学习
-Chapter 12 机器学习系统设计
本章目的:设计机器学习系统的问题及建议1.Lesson93确定执行的优先级 1.垃圾邮件分类的思路,以及模型优化的选择问题2.Lesson94误差分析 1.目的:学习误差分析的概念 2.内容: 1.为解决一个应用最快速度搭建一个简单的机器学习系统,并画出学习曲线,来判断可能问题(高偏差问题or高方差问题or其他问题),再决定收集数据还是增加特征变量 2.在快速
数据追随者
·
2019-12-25 11:17
【机器学习】-Week3 3. Decision Boundary
来源:coursera斯坦福
吴恩达机器学习
DecisionBoundaryInordertogetourdiscrete0or1classification,wecantranslatetheoutputofthehypothesisfunctionasfollows
Kitty_风花
·
2019-12-23 21:53
吴恩达机器学习
-Chapter 11 应用机器学习的建议
本章目的:评估判断算法的好坏,以及问题点,并对症下药1.lesson84评估假设 1.目的:评估假设判断欠拟合、过拟合问题 2.数据集分为测试集、训练集2.lesson85模型选择训练集、验证集、测试集 1.首先根据训练集训练出不同的模型算法(不同的多项式及次数) 2.然后在测试集是计算出不同模型算法的J(θ),取J(θ)最小的模型算法 3.当在第二步选择出的模型算法
数据追随者
·
2019-12-22 23:23
【机器学习】-Week2 6.Octave/Matlab Resources
来源:coursera斯坦福
吴恩达机器学习
Octave/MATLABresourcesOctaveResourcesAttheOctavecommandline,typinghelpfollowedbyafunctionnamedisplaysdocumentationforabuilt-infunction.Forexample
Kitty_风花
·
2019-12-21 07:07
时间管理讲座
私人笔记
去年有幸听了一个关于“时间管理”的讲座,今年翻出了当时零散的笔记,就来对照一下自己的问题在哪里吧。1.二八定律20%的高效工作时间,完成一天80%的工作量。所以呢?用那20%的最佳工作时间去做最重要的工作吧。每个人的工作节奏,精力储备不一样,要找到自己的最佳时间区域。内心独白:作为一个小职员,好像分不太清哪个工作重要,哪个工作不重要。因为,重要程度如何,都要完成的嘛,只是需要考虑用一天中的哪段时间
AstorAstor
·
2019-12-21 03:22
感谢我们可以有不一样的勇敢人生
从
私人笔记
中再读此文,我非常感动我被赋予基本的写作能力,回看过去的文字,我知道那是真实的我。我不知道是否有勇气继续写作,但是我知道我应当坚持记录。00很多事,你要敢想。所以题名为《你值得你的勇敢》。
没有蛀牙的奥斯卡
·
2019-12-18 20:24
【机器学习】-Week2 7. Vectorization
来源:coursera斯坦福
吴恩达机器学习
无论你是用Octave还是别的语言比如MATLAB或者你正在用Python或JavaCC++所有这些语言都具有各种线性代数库这些库文件都是内置的容易阅读和获取他们通常写得很好已经经过高度优化通常是数值计算方面的博士或者专业人士开发的而当你实现机器学习算法时如果你能好好利用这些线性代数库或者说数值线性代数库并联合调用它们而不是自己去做那些函数库可以做的事情如
Kitty_风花
·
2019-12-18 06:04
日结Day54
制作“
私人笔记
”,做中长期的目标管理。《房思琪的初恋乐园》一小时“无论是哪一种爱,他最残暴的爱,我最无知的爱,爱总有一种宽待爱以外的人的性质。
西西学姐
·
2019-12-17 08:17
【机器学习】-Week3 1. Classification
来源:coursera斯坦福
吴恩达机器学习
分类要尝试分类,一种方法是使用线性回归并将大于0.5的所有预测映射为1,将所有小于0.5的预测映射为0.但是,此方法不能很好地工作,因为分类实际上不是线性函数。
Kitty_风花
·
2019-12-07 03:05
吴恩达机器学习
—反向传播算法
代价函数神经网络用于二分类与多分类问题当处理二分类问题时,输出值有一个,输出结果为1或0;当输出值有多个时,输出结果为一个向量。神经网络中的代价函数神经网络的损失函数与逻辑回归相似,但是神经网络的输出单元不是一个,而是k个。表示输出是一个k维向量,当为二元分类时,则为一个值。k表示输出值的个数,因此,在损失函数中,将输出值与实际值之差累加求最小。j表示层数,i表示每一层第i个单元。神经网络中的前项
Mei_d12f
·
2019-11-29 03:00
目录:
吴恩达机器学习
课后作业
简单介绍本博客为作者自行完成的
吴恩达机器学习
课后练习题目录,均使用PyTorch进行实现,无法保证对错,仅供参考.作业题目以及源代码百度云盘连接提取码:3dvb题目的命名方式与下表中的作业名称一致.源代码统一放在
weixin_44132485
·
2019-11-27 21:29
吴恩达机器学习
吴恩达机器学习
PyTorch
2014斯坦福大学
吴恩达机器学习
课程笔记-4 Linear Regression with Multiple Variables
文章目录4多变量线性回归(LinearRegressionwithMultipleVariables)4-1多个特征(MultipleFeatures)4-2多变量的梯度下降(GradientDescentforMultipleVariables)4-3梯度下降实践1:特征缩放(GradientDescentinPracticeI:FeatureScaling)4-4梯度下降实践2:学习率(Gra
Green Lv
·
2019-11-24 15:26
机器学习
机器学习
吴恩达
2014斯坦福大学
吴恩达机器学习
课程笔记-2 Linear Regression with One Variable
文章目录2单变量线性回归(LinearRegressionwithOneVariable)2-1模型表达(ModelRepresentation)2-2代价函数(CostFunction)2-3&2-4CostFunctionintuitionI&II2-5梯度下降(GradientDescent)2-6GradientDescentintuition2-7GradientDescentforLi
Green Lv
·
2019-11-21 15:22
机器学习
机器学习
吴恩达
吴恩达机器学习
笔记-神经网络的代价函数和反向传播算法
代价函数在神经网络中,我们需要定义一些新的参数来表示代价函数。L=totalnumberoflayersinthenetwork=numberofunits(notcountingbiasunit)inlayerlK=numberofoutputunits/classes在上一章的神经网络的介绍中,我们有多个输出的节点。这里我们定义来表示第k个输出结果。神经网络的代价函数应当和之前说过的Logis
Carey_Wu
·
2019-11-08 20:15
我的第一篇博客
笔记的大体脉络如下:一、
吴恩达机器学习
课程笔记二、《NeuralNetworkandDeepLearning》读书笔记
Edwin_dl
·
2019-11-07 04:09
【Andrew Ng机器学习】单变量线性回归-代价函数(一)
课程:
吴恩达机器学习
之前我们已经给出了代价函数的数学定义,接下来是一些例子,直观地来理解代价函数是用来做什么的,以及我们为什么要使用它。
jenye_
·
2019-11-05 07:02
自然笔记~初见
犹记得我俩的第一次
私人笔记
在观鸟亭附近,皓画的是草及鸟叫的声音……外出,我们总习惯于带本本子和笔。然而我自己动嘴多,动笔少。对于自然笔记的喜爱却是蔓延开。
暖暖的小院
·
2019-11-01 02:55
吴恩达机器学习
——反向传播算法
吴恩达机器学习
——反向传播算法1.误差$\delta^{(3)}$,$\delta^{(2)}$的推导2.反向传播算法的计算过程前言:反向传播算法是用来求偏导数的,即σJ(θ)σθij(2)\frac{
Donreen
·
2019-10-15 19:58
机器学习入门
吴恩达
机器学习
反向传播算法
GitHub上有哪些比较好的计算机视觉/机器视觉的项目?
今日推荐文章github标星11600+:最全的
吴恩达机器学习
课程资源(完整笔记、中英文字幕视频、python作业,提供百度云镜像!)计算机视
spearhead_cai
·
2019-10-08 08:00
【Python】机器学习之单变量线性回归 利用正规方程找到合适的参数值
【Python】机器学习之单变量线性回归利用正规方程找到合适的参数值本次作业来自
吴恩达机器学习
。
秦羽纶
·
2019-10-05 01:00
【Python】机器学习之单变量线性回归 利用批量梯度下降找到合适的参数值
【Python】机器学习之单变量线性回归利用批量梯度下降找到合适的参数值本题目来自
吴恩达机器学习
视频。
秦羽纶
·
2019-10-04 17:00
吴恩达机器学习
课程ex1:Linear Regression
吴恩达机器学习
课程ex1:LinearRegressionmatlab实现#computeCost.mfunctionJ=computeCost(X,y,theta)m=length(y);J=0;h_func
苏鱼鱼的小鱼儿
·
2019-10-04 14:13
机器学习
吴恩达
coursera
【Python】机器学习之单变量线性回归练习(计算Cost Function)
注:练习来自于
吴恩达机器学习
翻译后的题目:你是一个餐厅的老板,你想在其他城市开分店,所以你得到了一些数据(数据在本文最下方),数据中包括不同的城市人口数和该城市带来的利润。
秦羽纶
·
2019-10-04 14:00
【Python】机器学习之单变量线性回归练习(计算Cost Function)
注:练习来自于
吴恩达机器学习
翻译后的题目:你是一个餐厅的老板,你想在其他城市开分店,所以你得到了一些数据(数据在本文最下方),数据中包括不同的城市人口数和该城市带来的利润。
QYG
·
2019-10-04 14:00
github标星11600+:最全的
吴恩达机器学习
课程资源(完整笔记、中英文字幕视频、python作业,提供百度云镜像!)...
吴恩达老师的机器学习课程,可以说是机器学习入门的第一课和最热门课程,我在github开源了
吴恩达机器学习
个人笔记,用python复现了课程作业,成为热门项目,star数达到11671+,曾经有相关报道文章
spearhead_cai
·
2019-10-04 08:00
deep_learning_学习资料
TensorFlow的55个经典案例:https://blog.csdn.net/xzy_thu/article/details/76220654
吴恩达机器学习
:1、序列学习:https://mooc.study
醉画仙
·
2019-09-28 14:00
吴恩达机器学习
笔记-支持向量机(Support Vector Machines)
与逻辑回归和神经网络相比,支持向量机,或者简称SVM,在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式。它也是我们所介绍的最后一个监督学习算法。为了描述支持向量机,事实上,我将会从逻辑回归开始展示我们如何一点一点修改来得到本质上的支持向量机。在逻辑回归中我们已经熟悉了这里的假设函数形式,和右边的S型激励函数。当y=1时,我们得到,如上图左下所示,当z增大时其对应的值会变得非常小。现在开始
_4444yl
·
2019-09-26 18:10
吴恩达机器学习
公开课
本文主要总结吴恩达老师机器学习公开课的知识点。课程共8次编程作业已经上传到我的GitHub上了。这是作业链接回归和分类回归问题是指用已知数据拟合一个合适的假设函数h(x),或者可以理解为曲线,来预测新输入的变量的输出结果,如给定房间的大学位置等信息,预测房价。而分类问题,顾名思义,是指用已知数据拟合一个合适的假设函数h(x),对未知数据进行分类。在分类问题中,用到的假设函数为logistic函数:
AndyFlyingZZZ
·
2019-09-26 16:06
机器学习
人工智能AI:Keras PyTorch MXNet 深度学习实战(不定时更新)
推荐学习
吴恩达机器学习
的视频https://study.163.com/courses-search?
wx58496ad5e0126
·
2019-09-21 16:56
AI
吴恩达机器学习
入门笔记14/15-异常检测问题/推荐系统
14异常检测问题针对给出的样本构建一个模型,在模型范围内的样本点被认为是正常的,超出阈值的样本点被认为是异常的。14.1算法实现一堆样本的每个特征量都对应一个均值和方差计算样本每个特征的均值和标准差利用高斯分布构建概率函数:\(p(x)=p(x_1;\mu_1,\sigma^2_1)p(x_2;\mu_2,\sigma^2_2)...p(x_n;\mu_n,\sigma^2_n)\)设定一个阈值\
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记12/13-聚类与降维
12聚类-无监督学习算法之一聚类试图将数据集中的无标记样本划分为若干个通常不相交的子集,每个子集称为一个簇(cluster),每个簇可能对应于一些潜在的概念聚类算法的两个基本问题:性能度量和距离计算12.1性能度量原则:同一簇样本尽可能相似,不同簇样本尽可能不同,即簇内相似度高簇间相似度低将聚类结果与某个参考模型进行比较,称为外部指标直接考察聚类结果不利用任何参考模型,称为内部指标12.1.1外部
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记16/17-大规模机器学习/机器学习中的重要思想
16大规模机器学习16.1随机梯度下降-每次只取一个样本进行梯度下降作出cost函数图像出现平缓,则需改变特征或改变学习率16.2Mini-Batch梯度下降每次选取一定数量的样本进行梯度下降,当使用向量化方法并行计算时速度比随机梯度下降更快17机器学习中的重要思想17.1流水线-OCR需要文字检测文字分割文字识别三大部分17.1.1文字检测/行人检测运用滑动窗口的算法,每次滑动固定步长,识别窗口
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记10/11-贝叶斯分类器/集成学习(西瓜书补充)
10贝叶斯分类器10.1朴素贝叶斯分类器假设所有属性相互独立\[h_{nb}(\boldsymbol{x})=\underset{c\in\mathcal{Y}}{\arg\max}P(c)\prod_{i=1}^{d}P\left(x_{i}|c\right)\tag{10.1}\]\(P(c)=\frac{|D_c|}{|D|}\),\(P(x_i|c)=\frac{|D_{c,x_i}|}{
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记8-构建大型机器学习系统的方法
选择合适的特征向量从一个很简单的算法实现,交叉验证检验误差,作出学习曲线。看算法是否具有高偏差或高方差问题,再考虑是否选择增加特征量或者增加样本==用实际证据来指导决策==发现误差后,手动分析误差类别,判断什么特征导致的误差,对误差进行优先级排序,先解决最多数量的==在交叉验证集上==,为算法设定一个单一规则的数值评价指标进行评估,例如错误率。每次修改算法数值都能改变,帮助判断算法改进后的好坏程度
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记9-支持向量机
9支持向量机-SVM相比于神经网络,不用担心陷入局部最优问题,因为是凸优化9.1支持向量机的假设函数\[h_{\theta}(x)=\left\{\begin{array}{ll}{1,}&{\text{if}\theta^{T}x\geq0}\\{0,}&{\text{other}}\end{array}\right.\tag{9.1}\]最小化上式,得到参数\(\theta\)后下次代入为SV
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记7-神经网络
7神经网络解决特征数量过多,线性回归与逻辑回归算法参数过多的情况7.1M-P神经元模型神经元接收其他n个神经元传递的输入信号,加权和作为总输入值,与神经元阈值比较,再通过激活函数处理产生神经元输出,激活函数为sigmoid函数,是设定在神经元上的函数,典型的激活函数为sigmoid函数7.2感知机最简单的神经网络,输入层仅接收外界信号,输出层为M-P神经元,可容易实现逻辑与或非运算,感知机权重学习
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记6-决策树(由西瓜书补充)
6决策树6.1结构一个根节点:样本全集若干个内部结点:对应于属性测试若干个叶结点:决策结果==属性代表了各个结点,各个结点的连接线代表属性的取值==当第一层最优划分属性选取后,在划分后的D中进行递归,一层层选取最优划分属性,最后形成决策树只有一层划分的决策树称为决策树桩6.2目的产生一颗泛化能力强,即处理未见示例能力强的决策树6.3衡量划分属性的标准随着划分的不断进行,决策树的分支结点包含的样本尽
jestland
·
2019-09-19 12:00
吴恩达机器学习
入门笔记5-正则化
5正则化给参数增加惩罚项,达到简化假设函数,降低过拟合的目的5.1正则化线性回归5.1.1正则化代价函数\[J(\theta)=\frac{1}{2m}\left[\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})^{2}+\lambda\sum_{j=1}^{n}\theta_{j}^{2}\right]\tag{5.1}\]右边加的项称为正则化项,\(\la
jestland
·
2019-09-19 12:00
上一页
26
27
28
29
30
31
32
33
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他