E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习私人笔记
吴恩达机器学习
课程笔记——Ch5 多元线性回归
Chapeter5LinearRegressionwithMultipleVariables(多元线性回归)终于改成看一节视频做一节笔记了==否则视频1小时,笔记3小时的操作真心蛋疼...课程笔记总览传送门:https://blog.csdn.net/weixin_42900928/article/details/86523192Chapeter5LinearRegressionwithMulti
A_waken
·
2019-01-19 16:06
多元线性回归
学习率
正规方程
机器学习
吴恩达机器学习
学习笔记(二)多变量回归模型
在这篇博客中,我们将会讲到单变量回归模型的扩展模型——多变量回归模型。在上一篇博客中,我们讲到了一个房价预测的例子,在该例子中我们用到了一个特征“房屋面积”x1,如下图:在上图中,我们构建了一单变量回归函数来预测数据,现在,如果我们不止只有一个房子的特征来预测房屋的价格,而是多了“卧室的数量”、“房子的楼层数”以及“房子的年龄”这三个特征来帮助我们预测房价,如下图:在上图中,我们使用n来表示特征的
脸红因为风太烫
·
2019-01-14 17:33
吴恩达机器学习
吴恩达机器学习
笔记(15.应用实例:图片文字识别)
1,问题描述和流程图图像文字识别应用所作的事是,从一张给定的图片中识别文字。这比从一份扫描文档中识别文字要复杂的多。为了完成这样的工作,需要采取如下步骤:1.文字侦测(Textdetection)——将图片上的文字与其他环境对象分离开来2.字符切分(Charactersegmentation)——将文字分割成一个个单一的字符3.字符分类(Characterclassification)——确定每一
就是这个七昂
·
2019-01-12 16:55
python
神经网络
吴恩达机器学习
学习笔记(一)单变量回归模型
近来,在网易云课堂观看了
吴恩达机器学习
的视频,写下该系列博客让自己在未来能够观看复习知识。
脸红因为风太烫
·
2019-01-09 20:55
吴恩达机器学习
吴恩达机器学习
第四次作业(python实现):BP神经网络
BP神经网络数据放在这:先放上整体代码,后面对具体函数有解释importnumpyasnpfromscipy.ioimportloadmatfromsklearn.metricsimportclassification_reportimportmatplotlib.pyplotaspltimportscipy.optimizeasoptimporttimedefraw_data(path):dat
浅唱、
·
2018-12-27 22:41
吴恩达机器学习
笔记(十九)
原创博客,转置请注明出处!1、问题描述与OCRpipeline图像文字识别应用所作的事是,从一张给定的图片中识别文字。这比从一份扫描文档中识别文字要复杂的多。为了完成这样的工作,需要采取如下步骤:①文字侦测——将图片上的文字与其他环境对象分离开来②字符切分——将文字分割成一个个单一的字符③字符分类——确定每一个字符是什么可以用任务流程图来表达这个问题,每一项任务可以由一个单独的小队来负责解决如同2
kk123k
·
2018-12-26 15:23
机器学习
机器学习
上限分析
吴恩达机器学习
第三次作业(python实现):多分类与神经网络
多分类数据在这importnumpyasnpimportmatplotlib.pyplotaspltfromscipy.ioimportloadmatfromscipy.optimizeimportminimizefromsklearn.metricsimportclassification_report"""每个训练样本是一个20x20的图像原始数据是一个字典,字典中的X的shape是(5000
浅唱、
·
2018-12-23 14:19
吴恩达机器学习作业练习
机器学习3——多类分类和神经网络
本篇博客主要讲解,
吴恩达机器学习
第四周的编程作业,作业内容主要是对手写数字进行识别,是一个十分类问题,要求使用两种不同的方法实现:一是用之前讲过的逻辑回归实现手写数字识别,二是用本周讲的神经网络实现手写数字识别
Yuancccc
·
2018-12-20 22:25
算法工程师修仙之路:
吴恩达机器学习
(十五)
吴恩达机器学习
笔记及作业代码实现中文版第十章支持向量机大间隔分类器的数学原理假设我有两个二维向量uuu和vvv,uTvu^TvuTv也叫做向量uuu和vvv之间的内积。
fangzhan1109
·
2018-12-15 11:50
教学
课程
吴恩达机器学习
笔记 - cost function and gradient descent
一、简介costfuction是用来判断机器预算值和实际值得误差,一般来说训练机器学习的目的就是希望将这个costfunction减到最小。本文会介绍如何找到这个最小值。二、线性回归的costfunction假设现在有个一元一次方程式h(x)=wx+b,要用来预测实际值y,今天我输入了一组(x0,x1,x2......xm)and(y0,y1,y2,y3.......ym),那costfuncti
彦柏
·
2018-12-14 23:00
算法工程师修仙之路:
吴恩达机器学习
(十四)
吴恩达机器学习
笔记及作业代码实现中文版第十章支持向量机直观上对大间隔的理解人们有时将支持向量机看作是大间距分类器。
fangzhan1109
·
2018-12-14 16:48
教学
课程
算法工程师修仙之路:
吴恩达机器学习
(十三)
吴恩达机器学习
笔记及作业代码实现中文版第十章支持向量机优化目标在监督学习中,许多学习算法的性能都非常类似,因此,重要的不是你该选择使用学习算法A还是学习算法B,而更重要的是,所创建的大量数据在应用这些算法时
fangzhan1109
·
2018-12-14 11:21
教学
课程
算法工程师修仙之路:
吴恩达机器学习
(十)
吴恩达机器学习
笔记及作业代码实现中文版第七章神经网络参数的反向传播算法理解反向传播为了更好地理解反向传播算法,我们再来仔细研究一下前向传播的原理:反向传播算法做的是:梯度检测当我们对一个较为复杂的模型(
fangzhan1109
·
2018-12-09 11:12
教学
课程
算法工程师修仙之路:
吴恩达机器学习
(九)
吴恩达机器学习
笔记及作业代码实现中文版第七章神经网络参数的反向传播算法代价函数假设神经网络的训练样本有mmm个,每个包含一组输入xxx和一组输出信号yyy,LLL表示神经网络层数,SIS_ISI表示每层的神经元个数
fangzhan1109
·
2018-12-08 12:13
教学
课程
算法工程师修仙之路:
吴恩达机器学习
(八)
吴恩达机器学习
笔记及作业代码实现中文版第六章神经网络学习特征和直观理解从本质上讲,神经网络能够通过学习得出其自身的一系列特征。
fangzhan1109
·
2018-12-06 23:52
教学
课程
吴恩达机器学习
课后作业深度解析(附答案)(ex1)
作业ex1题目及答案源码下载地址ex1题目及答案一.单变量线性回归问题背景:假如你是餐馆老板,已知若干城市中人口和利润的数据(ex1data1.txt),用线性回归方法计算该去哪个城市发展。ex1.m是官方提供的入口函数,通过该函数补全其他函数的代码。warmUpExercise.m:输出5*5的单位矩阵A=eye(5);Matlab中,eye(n)返回n*n的单位矩阵,eye(m,n)返回m*n
布衣书生real
·
2018-12-05 00:50
机器学习
吴恩达机器学习
笔记(7)——神经网络的一个学习算法
一、代价函数首先我们定义:L=神经网络的总层数si=第L层的单元数量(不含偏置单元)K=输出单元/类型的数量hΘ(x)k=假设函数中的第k个输出因为逻辑回归里的代价函数为:推广到神经网络中:二、代价函数的优化算法——反向传播算法(backpropagationalgorithm)1、含义神经网络的代价函数已经求出来了,那么现在要进行minJ也就是优化算法。这一节的主要目的是计算J的偏导数。每当模型
阿尔基亚
·
2018-12-03 20:20
吴恩达机器学习
吴恩达机器学习
- 课程总结
监督学习算法h_θ(x)costfunction求解特性线性回归逻辑回归神经网络sigmoid反向传播SVM无决策边界
YANWeichuan
·
2018-12-03 14:50
算法工程师修仙之路:
吴恩达机器学习
(五)
吴恩达机器学习
笔记及作业代码实现中文版第四章Logistic回归简化代价函数与梯度下降逻辑回归的代价函数:Cost(hθ(x(i)),y(i))=−y(i)log(hθ(x(i)))−(1−y(i))log
fangzhan1109
·
2018-12-03 10:43
教学
课程
吴恩达机器学习
笔记
梯度下降法:需要自己设置学习参数需要多次迭代支持特征数比较大(百万)多特征线性回归正规方程:不需要自己设置学习参数不需要多次迭代时间负责度为O(n3),特征多的话会很慢。一万左右
尖头核桃
·
2018-12-02 23:43
吴恩达机器学习
课程笔记+代码实现(3)线性代数回顾(Linear Algebra Review)
3.线性代数回顾(LinearAlgebraReview)文章目录3.线性代数回顾(LinearAlgebraReview)3.1矩阵和向量3.2加法和标量乘法3.3矩阵向量乘法3.4矩阵乘法3.5矩阵乘法的性质3.6逆、转置如需系统学习有关机器的数学基础知识(高数、线性代数、概率论与数理统计),参见CSDN博客链接。3.1矩阵和向量如图:这个是4×2矩阵,即4行2列,如mmm为行,nnn为列,那
geekxiaoz
·
2018-12-02 21:22
吴恩达
机器学习
线性代数
吴恩达机器学习
课程笔记+代码实现(2)单变量线性回归和梯度下降(Linear Regression with One Variable and Gradient Descent)
2.单变量线性回归和梯度下降(LinearRegressionwithOneVariableandGradientDescent)文章目录2.单变量线性回归和梯度下降(LinearRegressionwithOneVariableandGradientDescent)2.1模型表示2.2代价函数2.3梯度下降2.4梯度下降的直观理解2.5梯度下降的线性回归本章编程作业及代码实现部分见:Python
geekxiaoz
·
2018-12-02 20:06
机器学习
吴恩达
线性回归
梯度下降
算法工程师修仙之路:
吴恩达机器学习
(四)
吴恩达机器学习
笔记及作业代码实现中文版第四章Logistic回归分类在分类问题中,要预测的变量y是离散的值,逻辑回归(LogisticRegression)算法是目前最流行使用最广泛的一种学习算法。
fangzhan1109
·
2018-12-01 23:56
教学
课程
吴恩达机器学习
作业(1):线性回归
目录1)导入相关库和数据2)代价函数3)批量梯度下降4)绘制线性模型前阵子在网易云课堂学习了吴恩达老师的机器学习课程,今天结合网上资料,用Python实现了线性回归作业,共勉。建议大家使用Jupyternotebook来编写程序。1)导入相关库和数据导入相关库:numpy,pandas,matplotlibimportnumpyasnpimportpandasaspdimportmatplotli
10点43
·
2018-11-30 15:18
机器学习
吴恩达机器学习
之多变量线性回归理论部分
本博客主要参考此博客:恋雨心一.MultipleFeatures—多维特征相对于单变量线性回归模型,多变量线性回归模型适用于处理多个变量/特征。对比:以之前我们介绍的单变量线性回归模型为例:用房屋面积x预测房子价格y。现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x1,x2,…,xn)。增添了更多特征后,我们引入以下新的注释:n代表特征的数量x(i
qq_40432881
·
2018-11-28 18:05
机器学习
回归模型
吴恩达机器学习
章节5:Octave使用
5.1基本操作Octave下载地址:https://www.gnu.org/software/octave/download.htmloctave:1>PS1('>>');>>PS1('>>'):表示更换命令提示符。其中单引号中的内容可换成自己习惯用的任意符号。简单语法和python一致,如下:>>1+1ans=2>>1-1ans=0>>2*2ans=4>>1/2ans=0.50000>>2^2a
井上皓
·
2018-11-27 14:39
吴恩达机器学习
章节3:矩阵知识
前文本文是对吴恩达老师的机器学习教学视频进行学习时,所记录的学习笔记。以下是本章主要讲的内容:矩阵和向量的基本知识和运算法则。3.1矩阵和向量矩阵概念:矩阵是一个按照长方阵列排列的复数或实数集合。矩阵表示:由m×n个数aij排成的m行n列的数表称为m行n列的矩阵,简称m×n矩阵。记作:m×n矩阵这m×n个数称为矩阵A的元素,简称为元,数aij位于矩阵A的第i行第j列,称为矩阵A的(i,j)元,以数
井上皓
·
2018-11-27 13:18
吴恩达机器学习
笔记(七)神经网络
吴恩达机器学习
笔记(七)神经网络一、非线性假设(Non-linearHypotheses)二、神经元和大脑(NeuronsandBrain)三、模型表示(ModelRepresentation)四、例子与直观理解
AngelaOrange
·
2018-11-24 16:30
机器学习笔记
吴恩达机器学习
笔记(四)多变量线性回归
吴恩达机器学习
笔记(四)多变量线性回归一、多维特征(MultipleFeatures)二、多元梯度下降法三、多元梯度下降法实操——特征缩放(FeatureScaling)四、多元梯度下降法实操——学习率
AngelaOrange
·
2018-11-22 19:26
机器学习笔记
吴恩达
机器学习
多变量
线性回归
算法工程师修仙之路:
吴恩达机器学习
(三)
吴恩达机器学习
笔记及作业代码实现中文版第三章多变量线性回归多维特征现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x1,x2,...,xn)(x_1,x_
fangzhan1109
·
2018-11-22 17:16
教学
课程
机器学习 |
吴恩达机器学习
第六周编程作业(Python版)
实验指导书下载密码:ovyt本篇博客主要讲解,
吴恩达机器学习
第六周的编程作业,作业内容主要是实现一个正则化的线性回归算法,涉及本周讲的模型选择问题,绘制学习曲线判断高偏差/高方差问题。
CoreJT
·
2018-11-15 17:02
林轩田机器学习
吴恩达机器学习
- 练习题ex2
练习了一下吴恩达的《ProgrammingExercise2:LogisticRegression》,两点心得:听课和做习题是两回事,代码是需要严格按照理论公式实现体会到矩阵运算的强大威力,重复的计算不仅仅是可以通过for循环实现,更可以通过矩阵高效的计算惨不忍睹的第一版,很算法,很C程序员:costFunction.mfori=1:m,J+=-y(i)*log(sigmoid(X(i,:)*th
YANWeichuan
·
2018-11-15 14:40
吴恩达机器学习
| (3) 第二周编程作业(Python版)
实验指导书本篇博客主要讲解,
吴恩达机器学习
第二周的编程作业,作业内容主要是实现单元/多元线性回归算法。实验的原始版本是用Matlab实现的,本篇博客主要用Python来实现。
CoreJT
·
2018-11-10 23:41
吴恩达机器学习
ML笔记:ML的模型选择,交叉验证。
目录一、训练集(trainingset)二、验证集(validatiionset)三、测试集(testset)四、交叉验证(Crossvalidation)五、交叉验证的实现六、模型的选择(
吴恩达机器学习
中的
炊烟袅袅岁月情
·
2018-11-08 17:03
Machine
Learning
深度学习
机器学习
机器学习 |
吴恩达机器学习
第四周编程作业(Python版本)
实验指导书下载密码:u8dl本篇博客主要讲解,
吴恩达机器学习
第四周的编程作业,作业内容主要是对手写数字进行识别,是一个十分类问题,要求使用两种不同的方法实现:一是用之前讲过的逻辑回归实现手写数字识别,二是用本周讲的神经网络实现手写数字识别
CoreJT
·
2018-11-08 14:52
林轩田机器学习
机器学习实战(十四)Pegasos(原始估计子梯度求解器)
本篇综合了先前的文章,如有不理解,可参考:机器学习实战(五)支持向量机SVM
吴恩达机器学习
(十)支持向量机机器学习实战(四)逻辑回归LR所有代码和数据可以访问我的github如果这篇文章对你有一点小小的帮助
I can丶
·
2018-11-06 19:09
机器学习
机器学习
梯度下降
pegasos
SVM
随机梯度下降
吴恩达机器学习
笔记-非监督学习
聚类之前的课程中我们学习的都是监督学习相关的算法,现在来开始看非监督学习。非监督学习相对于监督非学习来看,其使用的是未标记的训练集而监督学习的是标记的训练集。换句话说,我们不知道向量y的预期结果,仅仅只是拥有一个可以找到结构的特征的集合。其中一种可能的结构是,所有的数据可以大致地划分成两组,这种划分的算法称为聚类算法。这是我们第一种无监督学习算法。在很多场景下我们会使用聚类的方式来解决非监督学习问
CareyWYR
·
2018-11-05 00:00
机器学习
吴恩达机器学习
练习6——支持向量机
机器学习练习6——支持向量机SVMs代价函数核函数可视化数据集改变惩罚系数CC=1C=1000SVMwithGaussian设置适当的C和sigmaSVMs代价函数支持向量机做的全部事情,就是极小化参数向量θ范数的平方,或者说长度的平方。内积θ‘x^((i))而变成了p^((i))⋅∥θ∥。p^((i))用来表示这是第i个训练样本在参数向量θ上的投影。核函数可视化数据集改变惩罚系数CC=1C=10
cherry1307
·
2018-11-02 09:59
机器学习
吴恩达机器学习
练习5——正则化线性回归和偏差/方差
机器学习练习5——正则化线性回归和偏差/方差正则化线性回归数据可视化代价函数拟合偏差、方差折中多项式回归特征归一化正则化为验证集选择lambda正则化线性回归利用水库水位的变化从大坝流出的水量数据可视化代价函数function[J,grad]=linearRegCostFunction(X,y,theta,lambda)m=length(y);%numberoftrainingexamplesJ=
cherry1307
·
2018-11-02 09:26
机器学习
吴恩达机器学习
练习3——多元分类与神经网络
机器学习练习3——多元分类与神经网络神经网络——手写数字识别网络模型ex3_nn.m预测神经网络——手写数字识别网络模型输入层:400个神经元;隐藏层:26个神经元;输出层:10个神经元ex3_nn.m%%MachineLearningOnlineClass-Exercise3|Part2:NeuralNetworks%Instructions%------------%%Thisfilecont
cherry1307
·
2018-11-02 09:02
机器学习
吴恩达机器学习
练习3——多元分类与神经网络
机器学习练习3——多元分类与神经网络Logistic回归——手写数字识别可视化数据集代价函数和梯度下降一对多预测Logistic回归——手写数字识别可视化数据集该训练样本为5,000张20*20的书写数字的灰度图。X:5000*400y:5000*1在X中随机选取100张图像并显示function[h,display_array]=displayData(X,example_width)if~ex
cherry1307
·
2018-11-02 09:27
机器学习
吴恩达机器学习
练习2——正则化的Logistic回归
机器学习练习2——正则化的Logistic回归过拟合正则化线性回归梯度下降正规方法Logistic回归练习2可视化数据集特征映射代价函数和梯度下降绘制出决策边界过拟合如果我们有非常多的特征,我们通过学习得到的假设可能能够非常好地适应训练集(代价函数可能几乎为0),但是可能会不能推广到新的数据。解决:1.丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙
cherry1307
·
2018-11-02 09:13
机器学习
逻辑回归
机器学习
吴恩达机器学习
练习2——Logistic回归
机器学习练习2——Logistic回归Logistic回归代价函数梯度下降练习2数据集可视化数据集sigmoid函数代价函数及梯度下降使用fminunc学习参数评估Logistic回归代价函数Logistic回归是分类算法,它的输出值在0和1之间。h(x)的作用是,对于给定的输入变量,根据选择的参数计算输出变量等于1的可能性(estimatedprobablity)即h(x)=P(y=1|x;θ)
cherry1307
·
2018-11-02 09:52
机器学习
吴恩达机器学习
练习1——多元线性回归
机器学习练习1——多元线性回归多变量线性回归均值归一化代价函数梯度下降练习1数据集特征缩放(归一化)均值归一化代价函数梯度下降正规方程多变量线性回归均值归一化代价函数梯度下降练习1数据集x1:thesizeofthehouse(insquarefeet)x2:thenumberofbedroomsy:hepriceofthehouse特征缩放(归一化)在面对多维特征问题的时候,我们要保证这些特征都
cherry1307
·
2018-11-02 09:38
机器学习
吴恩达机器学习
练习1——单变量线性回归
机器学习练习1——单变量线性回归单变量线性回归代价函数:梯度下降练习1数据集数据集的可视化代价函数梯度下降法可视化J单变量线性回归代价函数:梯度下降练习1数据集X代表poplation,y代表profits数据集的可视化functionplotData(x,y)figure;data=load('ex1data1.txt');x=data(:,1);y=data(:,2);plot(x,y,'rx
cherry1307
·
2018-11-02 09:35
机器学习
支持向量机SVM(直观理解原理、推导)
这里主要基于
吴恩达机器学习
课程对于SVM的讲解进行总结回顾,并参考各类资料对其推导过程进一步理解及实现。所以分为两个部分及最后的一些个人总结。
Enjoy_endless
·
2018-10-31 14:45
Machine
learning
机器学习实战(九)K-means(K-均值)
本篇综合了先前的文章,如有不理解,可参考:
吴恩达机器学习
(十一)K-means所有代码和数据可以访问我的github如果这篇文章对你有一点小小的帮助,
zhq9695
·
2018-10-29 11:49
机器学习
机器学习资料汇总
吴恩达深度学习讲义http://www.ai-start.com/dl2017/
吴恩达机器学习
讲义http://www.ai-start.com/ml2014/理解Scikit-Learn中分类性能度量指标
愿风去了
·
2018-10-25 16:18
吴恩达机器学习
- PCA算法降维
原
吴恩达机器学习
-PCA算法降维2018年06月25日13:08:17离殇灬孤狼阅读数:152更多个人分类:
吴恩达机器学习
版权声明:如果感觉写的不错,转载标明出处链接哦~blog.csdn.net/wyg1997https
Abai_Snow
·
2018-10-25 16:24
机器学习
吴恩达机器学习
与深度学习作业目录 [图片已修复]
python3.6(一)
吴恩达机器学习
作业目录1
吴恩达机器学习
作业Python实现(一):线性回归2
吴恩达机器学习
作业Python实现(二):logistic回归3
吴恩达机器学习
作业Python实现(三
Cowry5
·
2018-10-23 10:59
MachineLearning
DeepLearning
上一页
29
30
31
32
33
34
35
36
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他