E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习私人笔记
吴恩达机器学习
笔记-反向传播算法练习
直观感受反向传播的概念上篇文章讲述了神经网络的反向传播算法的基本概念,现在来详细的对此算法进行一些讲解。回忆一下神经网络的代价函数:如果我们只考虑一个简单的只有一个输出单元的情况,即k=1,那么代价函数则变成:直观的说,$\delta_j^(l)$项表示在第l层中第j个单元的误差。更正式的说,$\delta$的值实际上是代价函数的导数。$$\delta_j^(l)=\frac{\partial}{
weixin_33825683
·
2020-08-20 08:49
吴恩达机器学习
day6(神经网络的学习反向传播算法)
神经网络的学习反向传播算法1.代价函数2.反向传播算法3.向传播算法的直观理解4.实现注意:展开参数5.梯度检验6.随机初始化综合自主驾驶1.代价函数假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信号y,L表示神经网络层数,SI表示每层的neuron个数(Sl表示输出层神经元个数),SL代表最后一层中处理单元的个数。将神经网络的分类定义为两种情况:二类分类和多类分类,二类分类:SL=0
晨沉宸辰
·
2020-08-20 07:46
吴恩达机器学习笔记
吴恩达机器学习
-- 神经网络学习
9.1非线性假设无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。吴恩达老师举了一个例子:当我们使用的多次项式进行预测时,我们可以应用的很好。之前课程学习过,使用非线性的多项式项,能够建立更好的分类模型。假设有非常多的特征,例如大于100个变量,希望用这100个特征来构建一个非线性的多项式模型,结果将是数量非常惊人的特征组合,即便只采用两两特征的组合,也会有接近50
名字被猪吃掉了
·
2020-08-19 10:23
机器学习
吴恩达机器学习
-- 逻辑回归(Logistic Regression)
7.1分类问题如果要预测的变量是离散值,此时我们应用logisticsregression。在分类问题中,我们对某一事物进行分类,有二分类和多分类问题。此节先讨论二分类问题,即只有两个分类。将因变量(dependentvariable)可能属于的两个类分别称为负向类(negativeclass)和正向类(positiveclass),则因变量,0表示负向类,1表示正向类。用线性回归算法解决分类问题
名字被猪吃掉了
·
2020-08-19 10:51
机器学习
吴恩达机器学习
-- 正则化
8.1过拟合的问题过拟合问题会导致线性回归和逻辑回归效果变差,那么过拟合到底是指什么意思呢?一个回归问题的例子:图一的线性回归模型,欠拟合;图三的逻辑回归模型虽然经过了所有的样本点,但是它预测新数据时却效果很差,因为它过于强调拟合原始数据。这种情况就叫做过拟合。可以看出,若给出一个新的值使之预测,它将表现的很差,是过拟合,虽然能非常好地适应我们的训练集但在新输入变量进行预测时可能会效果不好;而中间
名字被猪吃掉了
·
2020-08-19 10:18
机器学习
吴恩达机器学习
:线性回归
首先说一些关于课程的题外话。对于Ng的这个课程,笔者没有选择在Coursera上学习课程,一来是因为Coursera有自己的课程周期,但这个周期不一定适合所有人。其次Coursera的课程作业是使用Octave语言,而笔者个人觉得不管是学习还是未来使用Python都会是更合适的语言。所以最终笔者选择了课程视频+Python实现作业的形式。为了更好的阅读体验你可以在网站中查看,点击课程视频你就能不间
Agent001
·
2020-08-19 06:54
吴恩达机器学习
第一章【Introduction】
吴恩达机器学习
第一章【Introduction】文章目录
吴恩达机器学习
第一章【Introduction】MachineLearningSupervisedLearning【监督学习】UnsupervisedLearning
Gowi_fly
·
2020-08-19 03:50
ML
吴恩达深度学习第二章第一周——Dropout正则化的个人理解
学习了
吴恩达机器学习
第二章改善深层神经网络:超参数调试、正则化以及优化的第一周之后发现对其中的部分知识仍然不是很理解,因此打算对其中的一些难点重新去整理。
倚剑笑紅尘
·
2020-08-19 03:45
机器学习
机器学习
24-经典问题解析二
注:博客中内容主要来自《狄泰软件学院》,博客仅当
私人笔记
使用。测试环境:Ubuntu10.10GCC版本:9.2.0一、关于析构的疑问当程序中存在多个对象的时候,如何确定这些对象的析构顺序?
喂你的猴子跑了
·
2020-08-18 21:13
C++
吴恩达机器学习
----引言
吴恩达机器学习
教程学习笔记(1/16)吴恩达教授(AndrewNg)的机器学习可以说是一门非常重视ML理论基础的课程,做做一些简单的笔记加上个人的理解。
huapusi
·
2020-08-18 17:42
吴恩达机器学习笔记
人工智能
机器学习
吴恩达
监督学习
非监督学习
Github标星过万的
吴恩达机器学习
、深度学习课程笔记,《统计学习方法》代码实现,可以在线阅读了!...
吴恩达机器学习
、深度学习,李航老师《统计学习方法》,可以说是机器学习入门的宝典。本文推荐一个网站“机器学习初学者”,把以上资源的笔记、代码实现做成了网页版,可以在线阅读了。
湾区人工智能
·
2020-08-18 13:15
人工智能
编程语言
xhtml
办公软件
nagios
西瓜书+实战+
吴恩达机器学习
(三)机器学习基础(多分类、类别不平衡)
文章目录0.前言1.多分类学习2.类别不平衡如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言本篇介绍机器学习中的多分类和类别不平衡问题。1.多分类学习一些算法可以直接进行多分类,而另一些算法则不行,基本思路是:将多分类任务拆为若干个二分类任务求解。一对一(Onevs.One,OvO):给定数据集,将NNN个类别两两配对,产生N(N−1)/2N(N-1)/2N(N−1
zhq9695
·
2020-08-18 13:09
机器学习
吴恩达机器学习
EX5 作业 正则化线性回归 偏差 VS 方差 学习曲线
1、偏差、方差、学习曲线1.1偏差、方差从下图可以看出a、线性回归存在欠拟合,高偏差问题,如左图b、多项式或者很多特征存在过拟合、高方差问题,如右图训练集误差和交叉验证集误差近似时:偏差/欠拟合交叉验证集误差远大于训练集误差时:方差/过拟合1.2正则化和方差、偏差和多项式模型次数问题类似当lambda很大时,高偏差/欠拟合,如左图当lambda很小时,高方差/过拟合,如右图当lamdba较小时,训
lsnow8624
·
2020-08-18 11:50
吴恩达机器学习作业
机器学习资源
明天就要考研了,努力奋斗了近一年的时间,相信大家都已经做好准备,毕竟努力过结果都不会太差马上就要上“战场”了,大家加油希望每个人都能收获理想的成绩一、视频资源
吴恩达机器学习
视频链接:https://study
「已注销」
·
2020-08-17 20:11
机器学习
吴恩达机器学习
笔记五_多元分类和神经网络
为什么要使用神经网络在笔记三中,曾提到非线性拟合的问题。当时是通过构造特征向量,即由两个或以上的变量构造一个新的变量,增加\(\theta\)的维度,以拟合出更细腻的曲线。下面是课件中类似的例子:可以看到,随着变量即数据集的维度增加,这种做法将会导致“维度灾难”,越来越不可行。就上述例子,以100维的数据集为例,二次项的构造复杂度是\(O(n^2)\),实际是5000;三次项复杂度是\(O(n^3
weixin_33963594
·
2020-08-17 16:22
[
吴恩达机器学习
笔记]12支持向量机2 SVM的正则化参数和决策间距
12.支持向量机觉得有用的话,欢迎一起讨论相互学习~吴恩达老师课程原地址参考资料斯坦福大学2014机器学习教程中文笔记by黄海广12.2大间距的直观理解-LargeMarginIntuition人们有时将支持向量机看作是大间距分类器。在这一部分,我将介绍其中的含义,这有助于我们直观理解SVM模型的假设是什么样的。以下图片展示的是SVM的代价函数:最小化SVM代价函数的必要条件如果你有一个正样本,y
武科大许志伟
·
2020-08-17 15:44
机器学习
机器学习基础
吴恩达机器学习
SVM
正则化参数
margin
吴恩达机器学习
第三章线性代数回顾学习笔记
matrix:矩阵vector:向量vector:ann*1matrix;矩阵的加法:只有相同维度的矩阵才能相加矩阵的乘法和除法:两个矩阵的乘法:m×n矩阵乘以n×o矩阵=m×o矩阵矩阵的乘法不满足交换律:A×B≠B×A矩阵的乘法满足结合律:A×B×C=A×(B×C)单位矩阵:在矩阵的乘法中,有一种矩阵起着特殊的作用,如同数的乘法中的1,这种矩阵被称为单位矩阵。它是个方阵,从左上角到右下角的对角线
西祠梧桐
·
2020-08-17 14:23
机器学习
关于蓝队的一些思考和感悟--写在博客访问量破万之际
过去也曾有写博客的想法,并不是没有坚持,而是觉得不好把握哪些技术可以分享,哪些不便分享,于是干脆把自己的技术笔记记录在了
私人笔记
本上。
redwand
·
2020-08-17 14:12
蓝队
【
吴恩达机器学习
笔记】第三章 线性代数回顾
搜索微信公众号:‘AI-ming3526’或者’计算机视觉这件小事’获取更多人工智能、机器学习干货csdn:https://blog.csdn.net/qq_36645271github:https://github.com/aimi-cn/AILearners第三章线性代数回顾3.1矩阵和向量矩阵(matrix):由数字组成的举行列阵,并写在方括号中。矩阵的维数(dimensionofmatri
Jermiane
·
2020-08-17 14:37
个人笔记
吴恩达机器学习
作业——多元分类及神经网络
第四周作业多元分类问题:识别手写数字0~9(0替换为10),5000个样本,20*20共400像素。多元分类Logistic回归1参数初始化%%Initializationclear;closeall;clc%%Setuptheparametersyouwilluseforthispartoftheexerciseinput_layer_size=400;%20x20InputImagesofDi
xc1996-
·
2020-08-17 12:26
机器学习
西瓜书+实战+
吴恩达机器学习
(二二)概率图模型之马尔可夫随机场
文章目录0.前言1.马尔可夫随机场结构2.近似推断2.1.Metropolis-Hastings如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言概率图模型是一类用图来表达变量相关关系的概率模型。图中的节点代表变量,图中的边代表变量之间存在某种联系。马尔可夫随机场(MarkovRandomField)是著名的无向图模型。马尔可夫链:系统下一时刻的状态仅由当前状态决定,
zhq9695
·
2020-08-16 17:51
机器学习
西瓜书+实战+
吴恩达机器学习
(二一)概率图模型之贝叶斯网络
文章目录0.前言1.贝叶斯网络结构2.近似推断2.1.吉布斯采样3.隐马尔可夫模型HMM如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言概率图模型是一类用图来表达变量相关关系的概率模型。图中的节点代表变量,图中的边代表变量之间存在某种联系。贝叶斯网络利用有向无环图DAG来刻画变量之间的依赖关系。B=<G,θ>B=<G,\theta>B=,BB
zhq9695
·
2020-08-16 17:50
机器学习
西瓜书+实战+
吴恩达机器学习
(二十)随机算法(拉斯维加斯方法、蒙特卡罗方法)
文章目录0.前言1.拉斯维加斯方法2.蒙特卡罗方法如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言随机算法主要分为两种类型:拉斯维加斯方法:采样次数越多,越有可能给出最优解蒙特卡罗方法:采样次数越多,越能近似最优解1.拉斯维加斯方法拉斯维加斯方法或者给出满足要求的解,或者不给出解。拉斯维加斯方法找到正确解的概率会随着计算时间的增加而增加。一个简单的例子是随机快速排序
zhq9695
·
2020-08-16 17:47
机器学习
西瓜书+实战+
吴恩达机器学习
(二三)EM算法和变分推断
文章目录0.前言1.EM算法2.变分推断如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言EM算法是常用的估计参数隐变量的方法,它是一种迭代式算法,EM算法原型:E步:若参数θ\thetaθ已知,则可根据训练数据推断出最优隐变量ZZZM步:若ZZZ的值已知,则可方便的对参数θ\thetaθ进行极大似然估计1.EM算法在概率图模型中,主要推断任务是基于观测变量推断隐变量
zhq9695
·
2020-08-16 17:47
机器学习
吴恩达机器学习
第二次作业(python实现):逻辑回归
逻辑回归数据在这importmatplotlib.pyplotaspltimportnumpyasnpimportscipy.optimizeasoptfromsklearn.metricsimportclassification_reportimportpandasaspdfromsklearnimportlinear_model#获取原始数据defraw_data(path):data=pd.
浅唱、
·
2020-08-16 10:14
吴恩达机器学习作业练习
吴恩达机器学习
课后习题ex8 异常检测(python实现)
异常检测二维数据高维数据在本练习中,您将实现异常检测算法来检测服务器计算机中的异常行为。这些特性测量每台服务器的吞吐量(mb/s)和响应延迟(ms)。当您的服务器正在运行时,您收集了m=307个它们的行为示例,因此有一个未标记的数据集。您怀疑这些示例中的绝大多数是服务器正常运行的“正常”(非异常)示例,但也可能有一些服务器在此数据集中异常运行的示例。您将使用高斯模型来检测数据集中的异常示例。您将首
flowerfu
·
2020-08-16 09:05
吴恩达机器学习
第二道编程题logistic逻辑回归
主程序logistic.m:A=load('tumor_size.txt');%肿瘤尺寸B=load('tumor_type.txt');%肿瘤性质,0良性1恶性C=[ones(length(B),1),A];%画出数据集pos=find(B==1);neg=find(B==0);plot(A(pos,1),A(pos,2),'k+','Linewidth',2,'MarkerSize',7);h
面包儿
·
2020-08-16 07:36
吴恩达机器学习
作业(二)实现:logistic回归
对于这一类分类问题:拿到数据先将它绘制出来,看数据在图片的分布,如果明显是两极化的,就用普通的逻辑回归,比如下图:如果数据的分布比较特别,就加入正则化,所谓正则化就是加入惩罚项,使得结果不容易过度拟合,所以两者只有代价函数不一样比如下图:当然还有更高级的回归算法,这是比较常用且简单的算法ex2.m所有编写的函数都在这里面调用%%MachineLearningOnlineClass-Exercise
小胖仙
·
2020-08-16 07:23
人工智能
吴恩达机器学习
作业讲解(含代码)——ex1(线性回归)
详细代码链接:h5wwProgrammingExercise1:LinearRegressionFilesincludedinthisexercise你必须要完成以下的函数:warmUpExercise.m-简单的样例函数plotData.m-显示数据集的函数computeCost.m-线性回归的代价函数gradientDescent.m-执行梯度下降算法你可以额外完成以下函数:computeCo
LazyYangHuan
·
2020-08-16 07:09
机器学习
吴恩达机器学习作业讲解
吴恩达机器学习
第二次作业——逻辑回归
逻辑回归一、逻辑回归1,数据可视化2,sigmoid函数,逻辑回归模型3,代价函数以及梯度4,评价逻辑回归二、正规化逻辑回归1,数据可视化2,特征映射(FeatureMapping)3,代价函数及梯度一、逻辑回归1,数据可视化在这部分练习中,建立一个逻辑回归模型来预测一个学生是否被大学录取。假设作为一所大学系的管理者,要根据每一位申请人在两次考试中的成绩来确定他们的入学机会。这里有前几年的历史数据
『 venus』
·
2020-08-16 07:17
机器学习
吴恩达机器学习
课后编程作业第二课解析:logistic regression
本文结合http://www.cnblogs.com/hapjin/p/6078530.html等众多文章以及Python版本代码来解析逻辑回归并实现首先问题描述:使用逻辑回归函数根据学生的考试成绩来判断该学生是否可以入学。训练数据的成绩样例如下:第一列表示第一次考试成绩,第二列表示第二次考试成绩,第三列表示入学结果(0--不能入学,1--可以入学)34.62365962451697,78.024
ChiiZhang
·
2020-08-16 07:38
吴恩达机器学习编程作业
吴恩达机器学习
(十四)——降维
14.1动机一:数据压缩降维也是一种无监督学习的方法,降维并不需要使用数据的标签。降维的其中一个目的是数据压缩,数据压缩不仅能够压缩数据,使用较少的计算机内存或磁盘空间,更可以加快我们的学习算法。降维能很好的处理特征冗余,例如:在做工程时,有几个不同的工程队,也许第一个工程队给你二百个特征,第二工程队给你另外三百个的特征,第三工程队给你五百个特征,一千多个特征都在一起,这些特征中往往都存在着巨大的
大鹏小站
·
2020-08-16 06:54
机器学习
吴恩达机器学习
作业5——偏差/方差/训练集/验证集/测试集
这一部分,我们需要先对一个水库的流出水量以及水库水位进行正则化线性归回。然后将会探讨方差-偏差的问题1数据可视化importnumpyasnpimportscipy.ioassioimportscipy.optimizeasoptimportpandasaspdimportmatplotlib.pyplotaspltimportseabornassnsdata=sio.loadmat('E:/sh
kingsure001
·
2020-08-16 06:13
机器学习
机器学习
python
过拟合
正则化
吴恩达机器学习
第二周编程作业(Python实现)
课程作业提取码:3szr1、单元线性回归ex1.pyfrommatplotlib.colorsimportLogNormfrommpl_toolkits.mplot3dimportAxes3DfromcomputeCostimport*fromplotDataimport*print('PlottingData...')data=np.loadtxt('./data/ex1data1.txt',d
jingjingnier
·
2020-08-16 06:22
学习
吴恩达机器学习
笔记(12)——降维(Dimensionality Reduction)
这里介绍第二种无监督学习方法,叫做降维(DimensionalityReduction)一、目标1:数据压缩DataCompression由于可能存在许多冗余特征量,或者说特征高度相关,所以需要减少特征量的数量。so如果允许我们通过投影这条绿线上所有的原始样本,来近似原始的数据集,那么我只需要用一个数就能表示每个训练样本的位置,这样就能把内存的需求减半,同时这将允许我们的学习算法运行的更快。二、目
阿尔基亚
·
2020-08-16 06:07
吴恩达机器学习
吴恩达机器学习
编程作业2逻辑回归(python)
网上的python实现基本都看了,重复率很高,第一个写出来的真大佬啊我使用jupyternotebook方便可视化和理解,只需要在一个文件里写完就可以了,不用绕来绕去。1.逻辑回归(不包含正则化)题意:ex2data1.txt包含三列数据,第一列第一次考试成绩,第二列第二次考试成绩。两次成绩决定通过不通过。第三列1表示admit,0表示refuse。1.1可视化原始数据importmatplotl
虎娃娃huwawa
·
2020-08-16 06:44
机器学习
吴恩达机器学习
笔记之机器学习系统设计
确定执行的优先级:误差分析:在设计一个复杂的机器学习系统时,可以先用最简单的算法去快速实现它,然后用交叉验证集来看看自己的算法需要在哪些方面提高,除此之外,还可以进行误差分析,来针对性的提高我们的算法。不对称分类的误差评估:类偏斜情况表现为我们的训练集中有非常多的同一种类的实例,只有很少或没有其他类的实例。这样我们并不能简单的从模型的准确度来度量我们的算法是否是一个好的算法。Precision和R
iblue_coffee
·
2020-08-16 06:21
机器学习笔记
[
吴恩达机器学习
笔记]14降维5-7重建压缩表示/主成分数量选取/PCA应用误区
14.降维觉得有用的话,欢迎一起讨论相互学习~吴恩达老师课程原地址参考资料斯坦福大学2014机器学习教程中文笔记by黄海广14.5重建压缩表示ReconstructionfromCompressedRepresentation使用PCA,可以把1000维的数据压缩到100维特征,或将三维数据压缩到一二维表示。所以,如果如果把PCA任务是一个压缩算法,应该能回到这个压缩表示之前的形式,回到原有的高维
武科大许志伟
·
2020-08-16 05:57
机器学习
机器学习基础
PCA
重建压缩表示
主成分数量选取
PCA应用误区
吴恩达机器学习
笔记(二)(附编程作业链接)
吴恩达机器学习
笔记(二)标签:机器学习
吴恩达机器学习
笔记二一逻辑回归logisticregression逻辑函数S型函数logisticfunctionandsigmoidfunction决策边界decisionboundary
蚍蜉_
·
2020-08-16 04:32
机器学习
吴恩达机器学习
—BP神经网络+matlab程序
烨枫_邱https://www.jianshu.com/p/6ab6f53874f71概念:BP神经网络是一种多层的前馈神经网络,其主要的特点是:信号是前向传播的,而误差是反向传播的。具体来说,对于如下的只含一个隐层的神经网络模型:BP神经网络的过程主要分为两个阶段,第一阶段是信号的前向传播,从输入层经过隐含层,最后到达输出层;第二阶段是误差的反向传播,从输出层到隐含层,最后到输入层,依次调节隐含
熙铭在学习
·
2020-08-16 01:52
机器学习
深度学习
43-函数的意义
注:博客中内容主要来自《狄泰软件学院》,博客仅当
私人笔记
使用。
喂你的猴子跑了
·
2020-08-16 00:24
C
吴恩达机器学习
______学习笔记记录#九、神经网络--学习
9.1代价函数首先引入一些便于稍后讨论的新标记方法:假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信号y,L表示神经网络层数,表示每层的neuron个数(表示输出层神经元个数),代表最后一层中处理单元的个数。将神经网络的分类定义为两种情况:二类分类和多类分类,二类分类:表示哪一类;K类分类:表示分到第i类;(k>2)我们回顾逻辑回归问题中我们的代价函数为:在逻辑回归中,我们只有一个输出
张某某。paranoia
·
2020-08-15 07:37
吴恩达机器学习
吴恩达机器学习
(五)正则化(解决过拟合问题)
目录0.前言1.正则化(Regularization)2.线性回归中的正则化3.逻辑回归中的正则化学习完吴恩达老师机器学习课程的正则化,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~0.前言在分类或者回归时,通常存在两个问题,“过拟合”(overfitting)和“欠拟合”(underfitting).过拟合:曲线为了减
zhq9695
·
2020-08-14 22:25
机器学习
吴恩达机器学习
笔记 —— 8 正则化
本章讲述了机器学习中如何解决过拟合问题——正则化。讲述了正则化的作用以及在线性回归和逻辑回归是怎么参与到梯度优化中的。更多内容参考机器学习&深度学习在训练过程中,在训练集中有时效果比较差,我们叫做欠拟合;有时候效果过于完美,在测试集上效果很差,我们叫做过拟合。因为欠拟合和过拟合都不能良好的反应一个模型应用新样本的能力,因此需要找到办法解决这个问题。想要解决这个问题,有两个办法:1减少特征的数量,可
weixin_33995481
·
2020-08-14 20:37
B站
吴恩达机器学习
视频笔记(31)——网络训练验证测试数据集的组成介绍
从今天开始我们进入新的一个大方向了,改善深层神经网络:超参数调试、正则化以及优化,首先进入深度学习的一个新层面,先认识下在深度学习中的数据集的分类。之前可能大家已经了解了神经网络的组成的几个部分,那么我们将继续学习如何有效运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。训练,验证,测试集(Train/Dev/Testsets)在
nine_mink
·
2020-08-14 18:49
B站吴恩达深度学习视频笔记
吴恩达学习—Logistic Regression
吴恩达机器学习
第一课便是LogisticRegression,这个算法是一种常见的分类算法,因其使用了logistic函数,由此得名。
秋风05
·
2020-08-14 17:20
机器学习
吴恩达机器学习
课后练习-ex2
所用到的文件ex2.m-Octave/MATLAB脚本,该脚本引导您完成ex2reg.m-Octave/MATLAB脚本,用于ex2data1.txt练习的后面部分-Ex2data1.txt练习的前半部分的训练集-ex2data2.txt练习的后半部分的训练集提交。m-提交脚本,用于将您的解决方案发送到我们的服务器mapFeature.m-生成多项式特征的函数plotdecisionboundar
JachinGuo
·
2020-08-14 16:52
吴恩达机器学习课后作业
吴恩达机器学习
错题集
Week3Regularization第1题Youaretrainingaclassificationmodelwithlogisticregression.Whichofthefollowingstatementsaretrue?Checkallthatapply.A.Introducingregularizationtothemodelalwaysresultsinequalorbetterp
风所在的街道
·
2020-08-14 07:41
机器学习
吴恩达机器学习
第一次作业——线性回归
线性回归一、单变量线性回归1,线性回归2,梯度下降算法(Gradientdescentalgorithm)3,可视化实现二、多变量线性回归1,回归方程2,缩小特征3,梯度下降算法的实现一、单变量线性回归1,线性回归使用plotData.m,完成了对已加载数据集ex1data1.txt的可视化,反应在二维坐标中。functionplotData(x,y)%PLOTDATAPlotsthedatapo
『 venus』
·
2020-08-13 16:34
机器学习
吴恩达机器学习
第一次作业 Linear Regression(基于Python实现)
文章目录1.数据处理部分1.1加载数据1.2分割X和y1.3绘图展示数据1.4给X加一列全为1的向量2.实现线性回归算法2.1初始化参数2.2实现损失函数2.3实现梯度下降2.4将得到的直线绘制出来,观察拟合程度3.完整代码1.数据处理部分1.1加载数据data_file_path="ex1/ex1data1.txt"#此处需根据你的数据文件的位置进行相应的修改data=np.loadtxt(da
flyawayl
·
2020-08-13 14:03
ML
&
DL
上一页
17
18
19
20
21
22
23
24
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他