E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习编程课后作业
吴恩达
机器学习笔记week11——机器学习系统设计 Machine learning system design
吴恩达
机器学习笔记week11——机器学习系统设计Machinelearningsystemdesign11-1.确定执行的优先级Prioritizingwhattoworkon:Spamclassificationexample11
Saulty
·
2023-01-20 17:52
机器学习
吴恩达
机器学习(十六)—— 聚类
吴恩达
机器学习系列内容的学习目录→\rightarrow→
吴恩达
机器学习系列内容汇总。
大彤小忆
·
2023-01-20 17:50
机器学习
聚类
机器学习
吴恩达
机器学习笔记:(三)梯度下降法
梯度下降法知识点:偏导数、微积分、局部最优解概念介绍梯度下降法目的是为了“下降”,下降的方法是按照“梯度”。比如你在一座山上,当前你只能迈出一步,如何走才能使你的高度下降的最多呢,根据梯度的理论,我们沿着当前梯度的反方向走,会让我们的下降幅度最大。上述例子中,山就是一个函数,在山上的你就是函数中待优化的变量,人的坐标表示变量初始值,我们要求的是函数最小值即到达山底,人该如何走即如何迭代变量。所以我
时间之里
·
2023-01-20 15:56
机器视觉
Deep
learning
机器学习
吴恩达
机器学习笔记 多元梯度下降法
之前介绍的梯度下降中只有两个变量,现在考虑有0~n共n+1个变量的时候。与单变量线性回归类似,在多变量线性回归中,我们也构建一个代价函数,则这个代价函数是所有建模误差的平方和,多变量线性回归的批量梯度下降算法为注意多个变量的变化也是要同时计算更新。参数的范围会对梯度下降的算法产生影响,因此常用的梯度下降处理方法有特征缩放和选择合适大小的学习率特征缩放:要保证这些特征都具有相近的尺度,这将帮助梯度下
桃木————
·
2023-01-20 15:23
吴恩达
机器学习MATLAB代码笔记(1)梯度下降
吴恩达
机器学习MATLAB代码笔记(1)梯度下降单变量线性回归1.标记数据点(PlottingtheDate)fprintf(‘PlottingData’)data=load(‘D:\代码笔记\
吴恩达
机器学习
Groot3
·
2023-01-20 15:52
MATLAB
matlab
机器学习
qiuzitao机器学习(一):
吴恩达
机器学习梯度下降
(一)qiuzitao3.25-3.30学习报告3.25(周一)机器学习的第一篇博客,接下来也会坚持更新,谢谢我的导师和CSDN这个平台!#吐槽一下这学期课很多,学费值了;开的语言也多(Python,Java,C++,汇编),不过我钟爱Python和Java,更有兴趣的还是机器学习,人工智能。晚上回顾了Python的文件语法,现在的Python算基础掌握了吧,也是入了这个门,还需要多练习提升,打打
qiuzitao
·
2023-01-20 15:19
机器学习系列
Python
机器学习
笔记
吴恩达
机器学习课程笔记1-2
19.5小时,112个视频先学定理再学概念1-3监督学习例子:预测房价--回归问题判断肿瘤是否良性—分类问题2.2代价函数找到Q0Q1的值,使得假设曲线与真实数据点尽可能的拟合如何得到Q0Q1–差的平方和最小,最小化问题代价函数J(Q0,Q1),也被称为平方误差函数。目标:最小化代价函数还有其他形式的代价函数,但是平方误差代价函数是解决回归问题最常用的手段2.3代价函数一让假设函数更加简单----
海星?海欣!
·
2023-01-20 14:12
机器学习
机器学习
逻辑回归
人工智能
1.
吴恩达
机器学习课程笔记:多元梯度下降法
1.
吴恩达
机器学习课程笔记:多元梯度下降法笔记来源:
吴恩达
机器学习课程笔记:多元梯度下降法仅作为个人学习笔记,若各位大佬发现错误请指正1.1多元特征(变量)每一列代表一个特征,例如:房屋大小、卧室数量、
Uncertainty!!
·
2023-01-20 14:39
机器学习基础
多元梯度下降
特征缩放
归一化
均值归一化
高精度小数
来源:MOOC翁凯老师
课后作业
详情:题目内容:由于计算机内部表达方式的限制,浮点运算都有精度问题,为了得到高精度的计算结果,就需要自己设计实现方法。
emmm_windy
·
2023-01-20 08:24
杂七杂八的编程题
c语言
【节选】
吴恩达
给出的AI职业生涯规划
吴恩达
给出的AI职业生涯规划基础的机器学习技能深度学习与机器学习相关的数学软件开发如何获得这些技能?看到AI大神
吴恩达
给大家的技术学习以及职业规划的意见,受益匪浅。
hongxu000
·
2023-01-19 14:12
机器学习的一些想法和笔记
编辑器
前端
吴恩达
机器学习Day1
1.什么是机器学习:让计算机在没有明确编程的情况下学习的研究领域。2.机器学习的两种主要类型是监督学习和无监督学习。3监督学习:监督学习算法从正确答案中学习,给出固定的x按要求输出y;监督学习的两种主要类型是回归和分类;4.无监督学习:让算法自己找出什么是有趣的,或者什么模式或结构可能在这个数据集中与这个特定的数据集.无监督学习算法可能决定数据可以分配给两个不同的组或两个不同的集群,所以你可能会决
Tezzz
·
2023-01-19 12:43
人工智能
吴恩达
机器学习Day2
1.梯度下降:最小化代价函数;这个表达式的意思是通过获取w的当前值并对它进行少量调整来更新参数w;α:学习率,通常是0-1之间的一个小正数,基本上控制你下坡时的步幅。代价函数的导数项,决定下坡的方向;重复这两个式子,直到收敛(达到了一个局部最小值,在这个最小值下,参数w和b不再随着你采取的每一个额外步骤而改变很多)。w和b要求同时更新的情况:w和b没有同时更新(非正确方法):学习率α:过小:下降速
Tezzz
·
2023-01-19 12:43
人工智能
吴恩达
机器学习Day3
特征缩放(归一化):将范围缩小到0-1内;特征缩放会使梯度下降更快。学习曲线:帮助你看到你的成本J在每次大下降迭代后的变化;通过这学习曲线可以发现梯度下降是否收敛;成本函数J有时上升有时下降,表明梯度下降不能正常工作;可能是学习率α过大;可以适当调小学习率;学习率:按比例慢慢调;特征工程:通过转换或结合原有特征,利用直觉去构造一个新的特征;此例子中的x3。多项式回归:
Tezzz
·
2023-01-19 12:12
人工智能
【
吴恩达
深度学习
课后作业
】编程作业遇到的问题及解决办法(课程1)第二周
参考编程作业的学习地址:【
吴恩达
课后编程作业】Course1-神经网络和深度学习-第二周作业-具有神经网络思维的Logistic回归原文链接:https://blog.csdn.net/u013733326
五十赫兹小透明
·
2023-01-19 10:48
吴恩达的课后作业
神经网络学习
深度学习
人工智能
吴恩达
深度学习第一课第三周单隐层神经网络实现,相关文件、数据集下载以及bug修改心得
最近在学习
吴恩达
老师深度学习的课程,实现了单隐藏层神经网络的实现,现在将自己在编程过程中遇到的问题记录下。
你猜不到我是谁~
·
2023-01-19 09:12
深度学习第三周
数据集分享
BUG调试
深度学习 |
吴恩达
深度学习课程2 Week1
Course2Week1编程作业1任务2初始化参数2.1数据2.2神经网络模型2.3初始化为零2.3.1代码2.3.2训练2.3.3预测2.4随机初始化2.4.1代码2.4.2训练2.4.3预测2.5抑梯度异常初始化2.5.1代码2.5.2训练2.5.3预测2.6总结3正则化3.1数据3.2代码3.3训练+预测4dropout4.1代码4.1.1前向4.1.2反向4.1.3主代码4.2训练+预测5
写代码的阿呆
·
2023-01-19 09:41
Python
深度学习
深度学习
初始化参数
dropout
正则化
梯度检验
吴恩达
深度学习笔记-Logistic Regression(第1课)
深度学习笔记第一课深度学习介绍1、什么是神经网络?2、用神经网络进行监督学习3、深度学习为什么会兴起?第二课神经网络基础知识1、二分分类2、LogisticRegression3、LogisticRegression损失函数4、LogisticRegression梯度下降5、向量化LogisticRegression6、向量化LogisticRegression的梯度输出7、Python中的广播8
快乐活在当下
·
2023-01-19 09:35
吴恩达深度学习
深度学习
python
机器学习
怎样看pytorch源码最有效?
1.基础知识首先,需要保证有一定的深度学习基础知识,
吴恩达
的深度学习课还有斯坦福大学的CS231n都是不错的入门教程,只需要有大学数学的基础就可以看懂。然后,需要对Linux系统使用有一定的
Tom Hardy
·
2023-01-19 06:13
编程语言
人工智能
深度学习
python
java
22张深度学习精炼图笔记总结
吴恩达
在推特上展示了一份由TessFerrandez完成的深度学习专项课程信息图,这套信息图优美地记录了深度学习课程的知识与亮点。
小白学视觉
·
2023-01-18 23:25
神经网络
算法
python
计算机视觉
机器学习
吴恩达
Deeplearning.ai.course1笔记
目录什么是神经网络单一神经网络多元神经网络用神经网络进行监督学习神经网络的类型示例结构化数据与非结构化数据为什么深度学习会兴起1)一张图表明深度学习/神经网络兴起的原因--规模推动深度学习发展2)规模推动深度学习发展的具体原因3)训练神经网络的过程什么是神经网络单一神经网络以预测房价来举例,在一个x轴表示房子面积,y轴表示房价的坐标图中,标示出6所房屋的信息(如图红×所示),然后通过线性拟合的方式
Jerry学编程
·
2023-01-18 22:41
深度学习
人工智能
深度学习
图像增强(image augmentation)
21年9月28日——
吴恩达
课程图像增强在课程的第一周,我们选择用2000个subset来训练dogvescat的模型,得出的结果出现了过拟合,即训练的acc很高,但是在验证集上的acc不高,就说明数据量不够
Crossguo
·
2023-01-18 20:26
python
深度学习
机器学习
吴恩达
机器学习打卡day7
本系列文档按课程视频的章节(P+第几集)进行分类,记录了学习时的一些知识点,方便自己复习。课程视频P64图1,2表示通过对特征向量的进一步细分,是一种提升邮件分类效率的方法。图1 图2 课程视频P65**在实践项目中,应该先简单粗暴的做出一个简单的算法,运行出学习曲线,然后根据曲线的特点对应查找当前模型存在的问题,是数据量不够还是特征向量太少等等…然后对症下药去把时间花在这些值得花的地方上,而不是
学吧 学无止境
·
2023-01-18 14:16
机器学习
人工智能
python
机器学习小白学习笔记---day1
机器学习小白学习笔记之scikit-learn最近刚把西瓜书啃完,一大堆理论让脑子真的是一团浆糊,说实话看的基本只有一个概念哈哈哈,效果不高,但是让我对与机器学习真的是整体有了一个大的了解,但是并没能将每个
课后作业
都完成
godleisen
·
2023-01-18 14:42
机器学习小白学习笔记
机器学习
人工智能
python
数据分析
吴恩达
机器学习笔记:(二)代价函数
代价函数本例中如下图所示:代价函数实际目的是为了通过寻找θ1,θ2两个参数实现拟合的直线最接近数据点。本例中代价函数的定义θ1,θ2寻找θ1,θ2参数最优值寻找θ1的最优解当θ1=1时当θ1=0.5时当θ1=0时如上图右侧所示,寻当θ1的最优解相当于寻找曲线偏导数等于零的点上图为两个参数同时作用时候生成的数据三维图下图为数据对应的等高线:通过实际数据测试发现当在等高线最中央时拟合的直线最接近数据集
时间之里
·
2023-01-18 12:04
机器视觉
Deep
learning
机器学习
吴恩达
机器学习课程笔记(英文授课) Lv.1 新手村(回归)
目录1-1机器学习的相关名词1-2什么是机器学习?1.definition定义2.主要的机器学习算法的分类1-3有监督学习及常用算法1.定义2.两种数据类型补充:categoricaldata离散(分类型)数据与numericaldata连续(数值型)数据3.有监督学习与回归问题、分类问题的关系1-4无监督学习1.定义2.无监督学习之聚类算法的现实应用2-1第一个学习算法—线性回归算法1.课程中符
玉一
·
2023-01-18 12:01
机器学习
机器学习
吴恩达
机器学习课程笔记
吴恩达
机器学习课程笔记学习视频第1章1-2什么是机器学习1-3监督学习(supervisedlearningalgorithm)1-4无监督学习(unsupervisedlearningalgorithm
那胖手在星球表面缓慢移动
·
2023-01-18 11:24
机器学习
python
吴恩达
机器学习笔记(七):代价函数
吴恩达
机器学习笔记(七):代价函数Regularizedlinearregression如前言所述,正则化为了让模型更好地切合数据,同时降低过拟合的可能。
BANKA1_
·
2023-01-18 11:53
吴恩达机器学习笔记
python
机器学习
人工智能
线性代数
吴恩达
机器学习课程笔记:模型描述、假设函数、代价函数
1.
吴恩达
机器学习课程笔记:模型描述、假设函数、代价函数
吴恩达
机器学习课程笔记:模型描述
吴恩达
机器学习课程笔记:代价函数仅作为个人学习笔记,若各位大佬发现错误请指正什么是模型?
Uncertainty!!
·
2023-01-18 11:19
机器学习基础
模型
假设函数
代价函数
深度学习(十四):数据增强Data Augmentation
编程语言:Python参考资料:
吴恩达
老师的深度学习系列视频
吴恩达
老师深度学习笔记整理深度学习500问唐宇迪深度学习入门视频课程笔记下载:深度学习个人笔记完整版为什么要使用数据增强数据增强,也称数据扩充
打不死的小黑
·
2023-01-18 10:10
深度学习
计算机视觉
深度学习
计算机视觉
数据增强
图像处理
【学习周报】深度学习笔记第二周
学习目标:
吴恩达
深度学习课程week2学习内容:梯度下降法(GradientDescent)计算图(ComputationGraph)逻辑回归中的梯度下降(LogisticRegressionGradientDescent
不要卷我啊
·
2023-01-18 08:54
学习
【
吴恩达
机器学习笔记】第1周 - 线性回归与代价/成本函数
机器学习的模式用训练集的数据,匹配一种算法,生成一个函数(h),这个函数可以输入x,产出y所以机器学习的关键在于:1、选择正确的算法,选择算法之后,函数h的形态就确定了,但是参数未知2、确定函数h的参数值:监督学习:通过训练集的x和y,共同确定参数值无监督学习:通过训练集的x,确定参数值(还没搞懂)最简单的算法:一元线性回归(LinearRegression)相同的算法,不同的参数值:代价/成本函
Sun_Weiss
·
2023-01-17 09:01
机器学习
学习
机器学习
人工智能
吴恩达
《数字货币与人民币国际化》读书笔记2
《数字货币与人民币国际化》读书笔记2(本文为
课后作业
,阅读《数字货币与人民币国际化》(主编:郑润祥电子工业出版社),并根据书的内容进行学习、整理和总结,在此记录;第二部分针对本书数字货币的内容)第六章数字货币概述数字货币是货币电子化形式的替代货币
SmartLychee
·
2023-01-17 07:48
作业记录
如何在B站读一个深度学习的研究生?
越来越多人涌入这个领域,同时市面上的资料也是百花齐放,但是真正有价值的资料其实并不多,并且出品于大佬们的手这篇blog将会带领你在b站读一个深度学习的研究生保姆级清单,喜欢的话请点个赞~机器学习入门:
吴恩达
机器学习
爱睡觉的Raki
·
2023-01-16 21:59
NLP
深度学习
人工智能
机器学习
自然语言处理
1-
吴恩达
机器学习Deeplearning.ai课程,监督学习
(强推|双字)2022
吴恩达
机器学习Deeplearning.ai课程【公开课】最新斯坦福李飞飞cs231n计算机视觉课程【附中文字幕】AI应用搜索引擎社交图片分享,分类电影推荐语音识别垃圾邮件识别气候变化优化风力发电医疗诊断工业质检自动驾驶通用
愚昧之山绝望之谷开悟之坡
·
2023-01-16 17:33
AI-快车道
人工智能
机器学习
计算机视觉
吴恩达
机器学习课程笔记:监督学习、无监督学习
1.
吴恩达
机器学习课程笔记:监督学习、无监督学习
吴恩达
机器学习系列课程:监督学习
吴恩达
机器学习系列课程:无监督学习仅作为个人学习笔记,若各位大佬发现错误请指正机器学习的学习算法:监督学习、无监督学习、半监督学习
Uncertainty!!
·
2023-01-16 17:31
机器学习基础
监督学习
无监督学习
过拟合问题及正则化
机器学习一、过拟合问题二、代价函数三、线性回归的正则化四、logistic回归的正则化提示:本文是基于
吴恩达
老师机器学习视频总结一、过拟合问题过拟合问题比较容易理解,我们采用房屋价格这个案例来进行说明:
only demo
·
2023-01-16 15:52
机器学习
机器学习
人工智能
正则表达式
机器学习正则化:为什么减小参数大小能防止过拟合
这篇帖子写一些关于为什么参数变小能简化模型而防止过拟合的思考首先贴一张
吴恩达
老师机器学习课程里的图:这张图里,可以看出第三张图千方百计去拟合已有数据,但这会在遇到新数据时导致泛化能力很差。
Glacier1031
·
2023-01-16 15:21
机器学习
神经网络
吴恩达
深度学习deeplearning.ai——第一门课:神经网络与深度学习——第二节:神经网络基础(上)
2.1二元分类(BinaryClassification)这周我们将学习神经网络的基础知识,其中需要注意的是,当实现一个神经网络的时候,我们需要知道一些非常重要的技术和技巧。例如有一个包含mmm个样本的训练集,你很可能习惯于用一个for循环来遍历训练集中的每个样本,但是当实现一个神经网络的时候,我们通常不直接使用for循环来遍历整个训练集,所以在这周的课程中你将学会如何处理训练集。另外在神经网络的
Lishier99
·
2023-01-16 13:21
深度学习
深度学习
人工智能
神经网络
逻辑回归
回归算法
Python
吴恩达
深度学习作业8 -- 深度神经网络的梯度检验
梯度检验假设你是致力于在全球范围内提供移动支付的团队的一员,被上级要求建立深度学习模型来检测欺诈行为–每当有人进行支付时,你都应该确认该支付是否可能是欺诈性的,例如用户的账户已被黑客入侵。但是模型的反向传播很难实现,有时还会有错误。因为这是关键的应用任务,所以你公司的CEO要反复确定反向传播的实现是正确的。CEO要求你证明你的反向传播实际上是有效的!为了保证这一点,你将应用到"梯度检验"。impo
Puzzle harvester
·
2023-01-16 13:51
深度学习
python
深度学习
dnn
吴恩达
《深度学习专项》笔记+代码实战(四):深度神经网络(全连接网络)
体验完了“浅度”神经网络后,我们终于等到了这门课的正题——深度神经网络了。其实这节课并没有引入太多新的知识,只是把上节课的2层网络拓展成了L层网络。对于编程能力强的同学(或者认真研究了我上节课的编程实战代码的同学,嘿嘿嘿),学完了上节课的内容后,就已经有能力完成这节课的作业了。课堂笔记深度神经网络概述与符号标记所谓深度神经网络,只是神经网络的隐藏层数量比较多而已,它的本质结构和前两课中的神经网络是
大局观选手周弈帆
·
2023-01-16 13:21
吴恩达深度学习
深度学习
dnn
神经网络
机器学习
python
误差反向传播法小练习(鱼书)
这是我用百度网盘分享的内容~复制这段内容打开「百度网盘」APP即可获取链接:https://pan.baidu.com/s/1RKigRDqzmh4GAK1WEnA3gQ提取码:xp8t推荐视频:【【全中文字幕】深度学习_
吴恩达
跟着宇哥爱数学的Camila
·
2023-01-16 10:48
深度学习
人工智能
深度学习
神经网络
吴恩达
神经网络-数字识别 正向传播和反向传播整合 python实现
主函数不懂的同学可以直接cv尝试理解哦importtimefromFour_Week.Regularizedimportregularized_cost,regularized_gradientfromFour_Week.Toolimportrandom_init,serialize,deserialize,accuracyfromThree_Week.dispaly_Dataimportdisp
vince1998
·
2023-01-16 10:01
python
神经网络
机器学习
吴恩达
第二课笔记第一周-偏差和方差、正则化、归一化输入、梯度消失与梯度爆炸、梯度检验
1.偏差和方差通过查看训练集和验证集的错误率来判断方差和偏差情况高偏差、和高方差的解决办法不同:2、正则化(用来解决过度拟合问题,减小方差)L2正则化的过程dropout(随机失活)方法进行正则化:不同层的keep-prob可以不同(保留节点的概率)(w矩阵越大,越可能过拟合,因此权重可设置更低)(上图来自于同济子豪兄)其他正则化方法:数据扩增其他正则化方法:earlystopping(在w的值适
奇迹皇皇
·
2023-01-16 10:00
机器学习
深度学习
机器学习
计算机视觉
吴恩达
机器学习课程个人笔记(一)
课程传送门:List机器学习的定义:对于跳棋游戏来说,经验E就是电脑与自己下了数万次的跳棋游戏,任务T则是玩跳棋,那么性能度量P就是与新手下跳棋时赢的概率。下面是一个小问题:监督学习在例子中,给出了实际真实的、正确的数据样本,即房子卖价,而算法目的就是给出更多的正确答案,即为卖家估出750大小的房间价格;同时,这也是一个回归问题,给出连续数值的输出。在例子中,这属于一个分类问题,即离散值的输出,只
Dawning_2l
·
2023-01-16 08:08
学习
人工智能
超详细解析——
吴恩达
机器学习第三周作业Logistic Regression(逻辑回归)(Python实现)
文章目录一、LogisticRegression1.1Visualizingthedata1.2Implementation1.2.1SigmoidFunction1.2.2Costfunctionandgradient1.2.3Learningparametersusingfminunc1.2.4Evaluatinglogisticregression二、Regularizedlogisticr
Lucien Anderson
·
2023-01-16 08:40
机器学习
python
逻辑回归
吴恩达
deeplearning.ai - 神经网络和深度学习 - 第四周代码
开始之前在正式开始之前,我们先来了解一下我们要做什么。在本次教程中,我们要构建两个神经网络,一个是构建两层的神经网络,一个是构建多层的神经网络,多层神经网络的层数可以自己定义。本次的教程的难度有所提升,但是我会力求深入简出。在这里,我们简单的讲一下难点,本文会提到**[LINEAR->ACTIVATION]转发函数,比如我有一个多层的神经网络,结构是输入层->隐藏层->隐藏层->···->隐藏层-
醉一心
·
2023-01-16 06:31
机器学习
Python
神经网络
深度学习
pytorch
深度学习笔记第一门课第四周:深层神经网络
本文是
吴恩达
老师的深度学习课程[1]笔记部分。
湾区人工智能
·
2023-01-16 06:58
吴恩达
卷积神经网络学习笔记(一)
一.卷积神经网络(一)1.1计算机视觉图片分类和图片识别,目标检测,图片风格迁移特征向量的维度卷积神经网络一般应用于计算机视觉领域,由于有的时候图片的像素点很多,导致神经网络输入特征值的维数很多。1.2边缘检测示例弄清一张照片中的物体,利用电脑进行去识别,垂直边缘检测,水平边缘检测。如下图所示,原图是一个661的矩阵,卷积核是一个331的矩阵,经过卷积后得到一个441的矩阵。(为了检测图像中的垂直
星_阳
·
2023-01-16 00:46
深度学习
cnn
计算机视觉
吴恩达
深度学习课程笔记
1.逻辑回归、梯度下降法、向量化2.广播、关于numpy向量的说明3.神经网络、激活函数、随机初始化4.超参数、划分数据集、偏差与方差、正则化5.
劳埃德·福杰
·
2023-01-15 16:17
Deep
Learning
深度学习
【
吴恩达
机器学习】第五章 多变量线性回归
多功能多变量线性回归就是多特征量的情况下的假设形式,也就是用多个变量来预测Y值。下图为多变量线性回归的假设形式,即hθ(x)=θTx=θ0x0+θ1x1+θ2x2+...+θnxnh_θ(x)=θ^Tx=θ_0x_0+θ_1x_1+θ_2x_2+...+θ_nx_nhθ(x)=θTx=θ0x0+θ1x1+θ2x2+...+θnxn(其中x_0=1)多元梯度下降法上一课时我们知道了多变量线性回归的假
zxfhahaha
·
2023-01-15 12:28
机器学习
多变量线性回归
吴恩达
特征缩放
上一页
34
35
36
37
38
39
40
41
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他