E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达机器学习:week2
机器学习 |
吴恩达机器学习
第四周编程作业(Python版本)
实验指导书下载密码:u8dl本篇博客主要讲解,
吴恩达机器学习
第四周的编程作业,作业内容主要是对手写数字进行识别,是一个十分类问题,要求使用两种不同的方法实现:一是用之前讲过的逻辑回归实现手写数字识别,二是用本周讲的神经网络实现手写数字识别
CoreJT
·
2018-11-08 14:52
林轩田机器学习
机器学习实战(十四)Pegasos(原始估计子梯度求解器)
本篇综合了先前的文章,如有不理解,可参考:机器学习实战(五)支持向量机SVM
吴恩达机器学习
(十)支持向量机机器学习实战(四)逻辑回归LR所有代码和数据可以访问我的github如果这篇文章对你有一点小小的帮助
I can丶
·
2018-11-06 19:09
机器学习
机器学习
梯度下降
pegasos
SVM
随机梯度下降
吴恩达机器学习
笔记-非监督学习
聚类之前的课程中我们学习的都是监督学习相关的算法,现在来开始看非监督学习。非监督学习相对于监督非学习来看,其使用的是未标记的训练集而监督学习的是标记的训练集。换句话说,我们不知道向量y的预期结果,仅仅只是拥有一个可以找到结构的特征的集合。其中一种可能的结构是,所有的数据可以大致地划分成两组,这种划分的算法称为聚类算法。这是我们第一种无监督学习算法。在很多场景下我们会使用聚类的方式来解决非监督学习问
CareyWYR
·
2018-11-05 00:00
机器学习
吴恩达机器学习
练习6——支持向量机
机器学习练习6——支持向量机SVMs代价函数核函数可视化数据集改变惩罚系数CC=1C=1000SVMwithGaussian设置适当的C和sigmaSVMs代价函数支持向量机做的全部事情,就是极小化参数向量θ范数的平方,或者说长度的平方。内积θ‘x^((i))而变成了p^((i))⋅∥θ∥。p^((i))用来表示这是第i个训练样本在参数向量θ上的投影。核函数可视化数据集改变惩罚系数CC=1C=10
cherry1307
·
2018-11-02 09:59
机器学习
吴恩达机器学习
练习5——正则化线性回归和偏差/方差
机器学习练习5——正则化线性回归和偏差/方差正则化线性回归数据可视化代价函数拟合偏差、方差折中多项式回归特征归一化正则化为验证集选择lambda正则化线性回归利用水库水位的变化从大坝流出的水量数据可视化代价函数function[J,grad]=linearRegCostFunction(X,y,theta,lambda)m=length(y);%numberoftrainingexamplesJ=
cherry1307
·
2018-11-02 09:26
机器学习
吴恩达机器学习
练习3——多元分类与神经网络
机器学习练习3——多元分类与神经网络神经网络——手写数字识别网络模型ex3_nn.m预测神经网络——手写数字识别网络模型输入层:400个神经元;隐藏层:26个神经元;输出层:10个神经元ex3_nn.m%%MachineLearningOnlineClass-Exercise3|Part2:NeuralNetworks%Instructions%------------%%Thisfilecont
cherry1307
·
2018-11-02 09:02
机器学习
吴恩达机器学习
练习3——多元分类与神经网络
机器学习练习3——多元分类与神经网络Logistic回归——手写数字识别可视化数据集代价函数和梯度下降一对多预测Logistic回归——手写数字识别可视化数据集该训练样本为5,000张20*20的书写数字的灰度图。X:5000*400y:5000*1在X中随机选取100张图像并显示function[h,display_array]=displayData(X,example_width)if~ex
cherry1307
·
2018-11-02 09:27
机器学习
吴恩达机器学习
练习2——正则化的Logistic回归
机器学习练习2——正则化的Logistic回归过拟合正则化线性回归梯度下降正规方法Logistic回归练习2可视化数据集特征映射代价函数和梯度下降绘制出决策边界过拟合如果我们有非常多的特征,我们通过学习得到的假设可能能够非常好地适应训练集(代价函数可能几乎为0),但是可能会不能推广到新的数据。解决:1.丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙
cherry1307
·
2018-11-02 09:13
机器学习
逻辑回归
机器学习
吴恩达机器学习
练习2——Logistic回归
机器学习练习2——Logistic回归Logistic回归代价函数梯度下降练习2数据集可视化数据集sigmoid函数代价函数及梯度下降使用fminunc学习参数评估Logistic回归代价函数Logistic回归是分类算法,它的输出值在0和1之间。h(x)的作用是,对于给定的输入变量,根据选择的参数计算输出变量等于1的可能性(estimatedprobablity)即h(x)=P(y=1|x;θ)
cherry1307
·
2018-11-02 09:52
机器学习
吴恩达机器学习
练习1——多元线性回归
机器学习练习1——多元线性回归多变量线性回归均值归一化代价函数梯度下降练习1数据集特征缩放(归一化)均值归一化代价函数梯度下降正规方程多变量线性回归均值归一化代价函数梯度下降练习1数据集x1:thesizeofthehouse(insquarefeet)x2:thenumberofbedroomsy:hepriceofthehouse特征缩放(归一化)在面对多维特征问题的时候,我们要保证这些特征都
cherry1307
·
2018-11-02 09:38
机器学习
吴恩达机器学习
练习1——单变量线性回归
机器学习练习1——单变量线性回归单变量线性回归代价函数:梯度下降练习1数据集数据集的可视化代价函数梯度下降法可视化J单变量线性回归代价函数:梯度下降练习1数据集X代表poplation,y代表profits数据集的可视化functionplotData(x,y)figure;data=load('ex1data1.txt');x=data(:,1);y=data(:,2);plot(x,y,'rx
cherry1307
·
2018-11-02 09:35
机器学习
支持向量机SVM(直观理解原理、推导)
这里主要基于
吴恩达机器学习
课程对于SVM的讲解进行总结回顾,并参考各类资料对其推导过程进一步理解及实现。所以分为两个部分及最后的一些个人总结。
Enjoy_endless
·
2018-10-31 14:45
Machine
learning
机器学习实战(九)K-means(K-均值)
本篇综合了先前的文章,如有不理解,可参考:
吴恩达机器学习
(十一)K-means所有代码和数据可以访问我的github如果这篇文章对你有一点小小的帮助,
zhq9695
·
2018-10-29 11:49
机器学习
机器学习资料汇总
吴恩达深度学习讲义http://www.ai-start.com/dl2017/
吴恩达机器学习
讲义http://www.ai-start.com/ml2014/理解Scikit-Learn中分类性能度量指标
愿风去了
·
2018-10-25 16:18
吴恩达机器学习
- PCA算法降维
原
吴恩达机器学习
-PCA算法降维2018年06月25日13:08:17离殇灬孤狼阅读数:152更多个人分类:
吴恩达机器学习
版权声明:如果感觉写的不错,转载标明出处链接哦~blog.csdn.net/wyg1997https
Abai_Snow
·
2018-10-25 16:24
机器学习
吴恩达机器学习
与深度学习作业目录 [图片已修复]
python3.6(一)
吴恩达机器学习
作业目录1
吴恩达机器学习
作业Python实现(一):线性回归2
吴恩达机器学习
作业Python实现(二):logistic回归3
吴恩达机器学习
作业Python实现(三
Cowry5
·
2018-10-23 10:59
MachineLearning
DeepLearning
吴恩达机器学习
与深度学习作业目录 [图片已修复]
python3.6(一)
吴恩达机器学习
作业目录1
吴恩达机器学习
作业Python实现(一):线性回归2
吴恩达机器学习
作业Python实现(二):logistic回归3
吴恩达机器学习
作业Python实现(三
Cowry5
·
2018-10-23 10:59
MachineLearning
DeepLearning
Week2
第一次结对编程
黄金点游戏作业要求及项目源码假设有M个玩家,P1,P2,…Pm在(0-100)开区间内,所有玩家自由选择两个正有理数数字提交(可以相同或者不同)给服务器假设提交N11,N12,N21,N22,Nm1,Nm2等M2个数字后,服务器计算:(N11+N12+N21+N22+…+Nm1+Nm2)/(M2)*0.618=Gnum,得到黄金点数字Gnum查看所有玩家提交的数字与Gnum的算术差的绝对值,值最小
Turtlesyu-27
·
2018-10-23 00:00
Week2
结对编程总结
黄金点游戏-结对编程总结这篇随笔是关于上周的黄金点游戏的一个总结。文中会根据作业要求介绍我们结对编程小组的工作内容、结果以及过程中的一些观察和思考。在开始实现之前,用PSP表格记录下你预估完成项目需要的时间。PSP表格:PersonalSoftwareProcess,这里我们使用这种模型来回顾我们完成这次作业的流程和时间安排,但由于我们这次作业要做的是个很简单的bot,所以有些PSP中提到的环节并
azshue
·
2018-10-21 22:00
吴恩达机器学习
- 支持向量机(SVM)
原
吴恩达机器学习
-支持向量机(SVM)2018年06月24日14:40:42离殇灬孤狼阅读数:218更多个人分类:
吴恩达机器学习
版权声明:如果感觉写的不错,转载标明出处链接哦~blog.csdn.net
Abai_Snow
·
2018-10-18 13:13
机器学习
机器学习
python基础教程
以下材料仅仅适于Web方向:1、Week1:读完《简明Python教程》,适应Python开发环境2、
Week2
:写个爬虫,需要深入了解re、urllib2、sqlite3、threading,Queue
Java面试指南
·
2018-10-18 12:43
Coursera-吴恩达-机器学习-第七周-编程作业: Support Vector Machines
本次文章内容:Coursera
吴恩达机器学习
课程,第七周编程作业。编程语言是Matlab。本文只是从代码结构上做的小笔记,更复杂的推导不在这里。
帅金毛
·
2018-10-18 11:57
Machine
learning
吴恩达机器学习
个人笔记(五)-关于机器学习的误差分析
1关于机器学习的改进当我们使用机器学习算法解决实际问题时,可能在得到学习参数后,输入新的数据后效果不是很理想。即运用训练好了的模型来预测未知数据时发现了较大的误差。那么我们可以采用下面的方法来提高机器学习算法的性能。1.获取更多的训练样本2.尝试减少特征的数量3.尝试获的更多的特征4.尝试增加多项式特征5.尝试减少正则化程度5.尝试增加正则化程度我们不应该随机选择上面的某种方法来改进我们的算法,而
XiaoQQin1
·
2018-10-16 20:43
机器学习笔记
吴恩达机器学习
训练秘籍整理一到十章(一)
第一到四章:1.为什么选用机器学习策略。机器学习是无数重要应用的基础。2.先修知识与符号标记。有监督学习的经验。了解机器学习。3.驱动机器学习发展的原因。数据的可用性和计算规模。传统算法和神经网络算法在数据集较小的情况下区别不大,但是随着数据集的增加和网络层数的加深,效果会越来越好。假设我们要做的产品是一个APP,用户上传图片我们来自动的找到图中有猫的照片。第五章:这一章主要介绍测试集,开发集和训
donkey_1993
·
2018-10-16 13:26
机器学习
【DeepLearning学习笔记】Coursera课程《Neural Networks and Deep Learning》——
Week2
Neural Networks Basics课堂笔记...
Coursera课程《NeuralNetworksandDeepLearning》deeplearning.aiWeek2NeuralNetworksBasics2.1LogisticRegressionasaNeutralNetwork2.1.1BinaryClassification二分类逻辑回归是一个用于二分类(binaryclassification)的算法。首先我们从一个问题开始说起,这
败北桑
·
2018-10-14 17:00
Week2
:一切都是最好的安排
十一之后的一周,心还是松散的,行动也是庸懒的,打不起精神,工作中有一些挫败感,因为心里的预期和实际的结果有所偏差。关于工作:十一节前,单位一副职领导找我谈话,希望我去下属一单位任副职,辅助一把领导,待她退休后,提我上位。其实之前我也考虑过,但担心没有基层经验,压力太大,所以未曾积极争取过,但这次领导找我谈话,我本以为板上定钉,只是在征求我的意见,可这周却有了不同的声音。我被摆了一道,说是因为体制内
姜昕烨
·
2018-10-14 16:28
过拟合以及解决办法
如图所示(图片来源:coursera
吴恩达机器学习
公开课)从图中可以看出,图一是欠拟合,模型不能很好地拟合数据;图二是最佳的情况;图三就是过拟合,采用了很复杂的模型。
野心家
·
2018-10-14 10:15
吴恩达机器学习
(十五)大规模机器学习(Batch、Stochastic、Mini-batch gradient descent、MapReduce)
目录0.前言1.StochasticGradientDescent2.Mini-batchGradientDescent3.MapReduce4.在线学习(onlinelearning)学习完吴恩达老师机器学习课程的大规模机器学习,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~0.前言已知梯度下降算法,当数据集很大时,每
I can丶
·
2018-10-13 16:38
机器学习
机器学习
梯度下降
MapReduce
Mini-batch
gradient
descent
Batch
gradient
descent
吴恩达机器学习
笔记-支持向量机
优化目标之前的课程有学习过Logistic回归的假设函数:$$h_\theta(x)=\frac{1}{1+e^{-\theta^Tx}}$$其图像如下:从图像可以看出,如果$y=1$的话,那么我们希望$h_\theta(x)\approx1$,那么$\theta^Tx>>0$;如果$y=0$的话,那么我们希望$h_\theta(x)\approx0$,那么$\theta^Tx=1$(并不是仅仅大
CareyWYR
·
2018-10-12 00:00
机器学习
吴恩达机器学习
--学习笔记:线性回归回顾
第三章:线性回归回顾本章是是一些比较基础的数学问题,主要是在后面章节案例中引入多特征时所必须掌握的基本数学技巧,所以吴老师在第三章带我们一起回顾了些;这里我就不做过多总结和分享,只列举一些基本知识点概念,作为学习笔记;1、矩阵(matrix)、向量(vector)矩阵是由数字组成的矩形阵列,并写在大方括号里,如:,这是一个2x3的矩阵;向量是一个比较特殊的矩阵,它只有一列,即一个nx1的矩阵被称为
Ysp_0316
·
2018-10-11 22:03
学习笔记
机器学习
Coursera-吴恩达-机器学习-第六周-编程作业: Regularized Linear Regression and Bias/Variance
本次文章内容:Coursera
吴恩达机器学习
课程,第六周编程作业。编程语言是Matlab。学习算法分两部分进行理解,第一部分是根据code对算法进行综述,第二部分是代码。
帅金毛
·
2018-10-01 20:39
Machine
learning
吴恩达机器学习
--学习笔记:单变量线性回归
第二章:单变量线性回归本章主要通过单变量线性回归算法的例子,阐述了机器学习的原理了,以及算法实现过程;其中涉及的概念有:假设函数、代价函数、目标函数、梯度下降等概念;本章以房屋价格问题为案例,进行学习;再次明确下我们的算法目的:找到一个函数,能够很好的计算出房价与面积的关系;按照机器学习的定义:这里的任务T是根据面积计算房价,经验E是已知的样本数据-房价与面积,性能测定P是计算结果与真实价格的差值
Ysp_0316
·
2018-10-01 16:03
学习笔记
机器学习
吴恩达机器学习
个人笔记(一)-线性回归
1单变量线性回归(LinearRegressionwithOneVariable)1.1假设方程(Hypothesis)线性回归属于监督学习,大致是根据给定的数据集训练出一个线性模型,构造成功后,输入一个新的数据后,会输出一个确却的值。比如预测一个地区的房价,给定一个数据集包含房子的大小和房价,当需要预测一个房子的价格时,模型就会预测出一个确却的值。回归一词指的是,我们根据之前的数据预测出一个准确
XiaoQQin1
·
2018-09-29 10:08
机器学习笔记
Coursera-吴恩达-机器学习-第五周-编程作业: Neural Networks Learning
本次文章内容:Coursera
吴恩达机器学习
课程,第五周编程作业。编程语言是Matlab。学习算法分两部分进行理解,第一部分是根据code对算法进行综述,第二部分是代码。
帅金毛
·
2018-09-27 23:13
Machine
learning
吴恩达机器学习
--学习笔记:初识机器学习
第一章:初识机器学习本章包含了四个视频课程,主要介绍了什么是机器学习,当今生活中那些场景已经用到了机器学习,机器学习适合解决哪些问题;以及机器学习、深度学习、监督学习、无监督学习,回归问题、分类问题等概念关于学习算法:使用浏览器搜索新闻、手机中的相册自动对照片分类、邮箱的垃圾邮件拦截等,这些功能都在使用学习算法。为什么学习算法会这么重要?你会发现,当你想让一个物体从A点移动到B点时,可以很容易的通
Ysp_0316
·
2018-09-27 23:35
机器学习
吴恩达
人工智能
学习笔记
机器学习
吴恩达机器学习
(七)神经网络(反向传播)
目录0.前言1.代价函数(CostFunction)2.反向传播(backpropagation)3.前向传播和反向传播的结合4.梯度检测(gradientchecking)5.随机初始化学习完吴恩达老师机器学习课程的神经网络,简单的做个笔记。文中部分描述属于个人消化后的理解,仅供参考。如果这篇文章对你有一点小小的帮助,请给个关注喔~我会非常开心的~0.前言上一篇文章中,介绍了神经网络的前向传播(
zhq9695
·
2018-09-27 15:51
机器学习
吴恩达机器学习
笔记-机器学习系统设计
确定执行的优先级我们已经学习过一些机器学习的算法,那么如何设计一个机器学习系统呢,课程中举了一个垃圾邮件分类器的例子,例子比较简单这里就不再赘述:那么如何来提升这个分类器的准确度呢?有下面几个建议:收集更多的数据增加更复杂的特征(比如邮件头)开发更复杂的算法来鉴定错误拼写误差分析如果你准备研发一个机器学习应用,下面有一些关于开发的一些建议:其中误差分析不一定会对改善算法的表现有帮助,唯一的办法是尝
CareyWYR
·
2018-09-27 00:00
机器学习
机器学习概览2
---
吴恩达机器学习
是一项能帮助计算机从现有数据中学习,以便预测未来的行为,结果和趋势的数据科学技术。---微软-机器学习利用历史数据进行预测-机器学习是如何工作的-机器学习
菜鸟-朋子
·
2018-09-26 19:40
机器学习
python
机器学习流程
机器学习任务
线性回归
吴恩达机器学习
笔记-应用机器学习的建议
评估假设我们之前已经学习过一些机器学习的算法,现在我们来谈谈如何评估算法学习得到的假设。当发现预测的结果和实际的数据有误差的时候,我们需要进行一些调整来保证预测的准确性,大部分情况下,有以下几种办法来调整假设函数:获取更多的训练集减少特征的数量尝试使用更多的特征尝试使用多项式特征增大或减小lambda假设函数相对于训练集可能得到的误差很小,比如在过拟合的情况下,这时候就不能肯定假设函数是准确的。因
CareyWYR
·
2018-09-26 00:00
机器学习
吴恩达神经网络和深度学习——第二周笔记
Week2
目录Week22-1二分分类2.2logisticregression2.3logistic回归的成本函数2.4梯度下降2.5、2.6均是高等数学中求导数的方法2.7、2.8计算图及其导数计算
LLyj_
·
2018-09-25 20:36
机器学习
机器学习笔记(参考
吴恩达机器学习
视频笔记)11_支持向量机
11支持向量机11.1支持向量机的优化目标从逻辑回归开始展示我们如何一点一点修改来得到本质上的支持向量机。如图,一个y=1的样本,希望趋近于1,意味着当趋近于1时,应当远大于0。一个y=0的样本,希望趋近于0,意味着当趋近于0时,应当远小于0。表示一个训练样本所对应的表达式。y=1时,(1-y)为0,此时得到,在这个前提下命名一个新的代价函数,记为,它与曲线非常相似,先是一条斜线,当z大于1后变为
Gary.fu
·
2018-09-25 10:07
机器学习
支持向量机
吴恩达机器学习
笔记-反向传播算法练习
直观感受反向传播的概念上篇文章讲述了神经网络的反向传播算法的基本概念,现在来详细的对此算法进行一些讲解。回忆一下神经网络的代价函数:如果我们只考虑一个简单的只有一个输出单元的情况,即k=1,那么代价函数则变成:直观的说,$\delta_j^(l)$项表示在第l层中第j个单元的误差。更正式的说,$\delta$的值实际上是代价函数的导数。$$\delta_j^(l)=\frac{\partial}{
CareyWYR
·
2018-09-25 00:00
机器学习
吴恩达机器学习
13--支持向量机(Support Vector Machines)
第13章支持向量机(SupportVectorMachines)一,优化目标(Optimizationobjective)SVM也是广泛的应用于工业界和学术界的监督学习算法。类似于logistic的代价函数,SVM的代价函数如图是斜直线加上平直线。所以是类似的,在之后的优化问题中,这会变得更坚定,并且为支持向量机,带来计算上的优势。例如,更容易计算股票交易的问题等等。二,直观上对大间距的理解人们有
Margo_Zhang
·
2018-09-20 20:28
吴恩达机器学习
机器学习 吴恩达 课程笔记(自用,持续更新)
机器学习吴恩达简介课程地址:
吴恩达机器学习
--网易云课堂本笔记为自用笔记,因此只记录了自己觉得重要的部分,所以不建议想要系统学习的人阅读此笔记。
Dvvvvva
·
2018-09-18 21:36
机器学习
笔记
机器学习 吴恩达 课程笔记(自用,持续更新)
机器学习吴恩达简介课程地址:
吴恩达机器学习
--网易云课堂本笔记为自用笔记,因此只记录了自己觉得重要的部分,所以不建议想要系统学习的人阅读此笔记。
Dvvvvva
·
2018-09-18 21:36
机器学习
笔记
吴恩达机器学习
1.3 监督学习----详细笔记及心得
在给出正式的监督学习的定义之前,吴先讲解了一个例子,房价预测,具体如图所示:其中横轴表示的是不同平方英尺数的房子,纵轴是不同房子的价格假如朋友有一套750平方英尺的房子,他想卖掉,能卖多少钱。学习算法可以帮我们模拟一条直线,然后估计750时,房价大约是150k,但是如果我们模拟的是二次曲线,那么房价可以卖到200k,那应该选择直线模拟还是二次函数拟合数据,哪种方式都不会让房子卖得好,这就是监督学习
小鱼儿-电子科技大学
·
2018-09-16 22:01
人工智能--深度学习
吴恩达--机器学习
吴恩达机器学习
1.2机器学习的定义-----详细笔记及心得
机器学习没有明确定义,ArthurSamuel给出的定义是:fieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed.(在没有明确编程下,让计算机具有学习能力的研究领域;之后tom给的定义:awell-posedlearningproblemisdefinedasfollows,(一个适当的学习问
小鱼儿-电子科技大学
·
2018-09-16 22:53
人工智能--深度学习
吴恩达机器学习
知识1.1机器学习的例子----详细笔记及心得
(其实自己研究生摸索一年了,也很心塞,自己在搞自然语言处理,想把这些基础知识重新过一遍,和大家一起学习)第一章的课时1主要涉及到一下内容主要涉及的是机器学习在生活中的一些例子:在用google或者bing搜索的时候,能够得出自己想要的答案,就是用了学习算法,苹果手机相册和facebook能识别出朋友的图片,这也是机器学习;在收到邮件的时候,能够过滤点很多垃圾邮件,也是机器学习;这门课,我们会学习机
小鱼儿-电子科技大学
·
2018-09-15 21:35
人工智能--深度学习
吴恩达--机器学习
Coursera-吴恩达-机器学习-第二周-编程作业: Linear Regression
ProgrammingExercise1:LinearRegression.0Introduction本片文章内容:Coursera
吴恩达机器学习
课程,第二周编程作业。语言是Matlab。
帅金毛
·
2018-09-13 17:57
Machine
learning
吴恩达机器学习
笔记8——正则化Regularization
第8章正则化Regularization1,过拟合(theproblemofoverfitting)欠拟合,过拟合过多的特征变量,很少的训练样本,会引起正则化。有两种方法处理过拟合的问题,一个是减少特征的数量,人为选择去除部分特征或者模型选择算法,用算法来选择特征;另一个是正则化,保留所有的特征,但是可以减小某个特征的幅度或者值。2,代价函数加入惩罚项,从1到100,一般不用对theta_0加惩罚
Margo_Zhang
·
2018-09-04 22:05
吴恩达机器学习
上一页
37
38
39
40
41
42
43
44
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他