E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达-深度学习笔记
【
深度学习笔记
】过拟合与欠拟合
过拟合简答来说即模型在训练集上错误率较低,但在未知数据(包括测试集)上错误率很高。欠拟合简单来说是模型不能很好的拟合训练集,在训练集上就已经错误率较高。模型复杂度是影响拟合的一个因素。模型复杂度较低就会出现欠拟合的现象。模型复杂度较高,导致与训练集拟合非常好,模型参数训练出来是十分适合训练集的,可能出现过拟合的现象。影响欠拟合和过拟合的另⼀个重要因素是训练数据集的大小。⼀般来说,如果训练数据集中样
RealWeakCoder
·
2023-10-08 10:32
深度学习
机器学习
深度学习
神经网络
过拟合
欠拟合
吴恩达
深度学习<笔记>优化算法
吴恩达
深度学习优化算法一、1.Mini-batchgradientdescent二、GradientdescentwithmomentumRMSpropAdam优化算法学习率衰减一、1.Mini-batchgradientdescent
不自知的天才
·
2023-10-07 20:58
深度学习
python
人工智能
吴恩达
深度学习笔记
优化算法
一、Mini-batchgradientdescent(小批量梯度下降法)Mini-batch:把整个训练数据集分成若干个小的训练集,即为Mini-batch。为什么要分?梯度下降法必须处理整个训练数据集,才能进行下一次迭代。当训练数据集很大时,对整个训练集进行一次处理,处理速度较慢。但是如果每次迭代只使用一部分训练数据进行梯度下降法,处理速度就会变慢。而处理的这些一小部分训练子集即称为Mini-
uponwyz
·
2023-10-07 20:27
深度学习
算法
cnn
【深度学习】
吴恩达
-学习笔记 优化算法(动量梯度,RMSprop,Adam)、参数初始化、Batch Norm
目录动量梯度下降法:让梯度下降的过程中纵向波动减小RMSprop:消除梯度下降中的摆动Adam优化算法:神经网络参数初始化学习率衰减BatchNorm关于Batch_norm:Batch_norm在测试时:动量梯度下降法:让梯度下降的过程中纵向波动减小动量梯度下降法采用累积梯度来代替当前时刻的梯度。直观来讲,动量方法类似把球推下山,球在下坡时积累动力,在途中速度越来越快,如果某些参数在连续时间内梯
—Xi—
·
2023-10-07 20:55
深度学习
深度学习
python
人工智能
batch
机器学习
2.2
吴恩达
深度学习笔记
之优化算法
1.Mini_batchgradientdescent小批量梯度下降法思想:batchgd是一次性处理所有数据,在数据集较大时比如500万个样本,一次迭代的时间会很长,而mini_batchgd是把数据集分为多个子数据集,每个eopch中对子集进行一次处理实现:实现mini_batch分为两步,第一步shuffle,将原集打乱,乱序步骤确保将样本被随机分成不同的小批次。第二步partition分割
Traviscxy
·
2023-10-07 20:25
深度学习
深度学习
深度学习笔记
:优化算法
1、minibatch梯度下降传统的batch梯度下降是把所有样本向量化成一个矩阵,每一次iteration遍历所有样本,进行一次参数更新,这样做每一次迭代的计算量大,要计算所有样本,速度慢,但是收敛可以比较直接地收敛到costfunction的最小值。随机梯度下降(stochasticgradientdescent)是每次迭代以一个样本为输入,这种方法每次迭代更新参数时,参数不一定是朝着cost
a251844314
·
2023-10-07 20:23
笔记
深度学习
minibatch
指数加权平均
动量梯度下降
深度学习笔记
之优化算法(三)动量法的简单认识
机器学习笔记之优化算法——动量法的简单认识引言回顾:条件数与随机梯度下降的相应缺陷动量法简单认识动量法的算法过程描述附:动量法示例代码引言上一节介绍了随机梯度下降(StochasticGradientDescent,SGD)(\text{StochasticGradientDescent,SGD})(StochasticGradientDescent,SGD),本节将介绍动量法。回顾:条件数与随机
静静的喝酒
·
2023-10-07 20:20
深度学习
python
最优化理论与方法
深度学习
条件数与梯度下降法的缺陷
动量法
深度学习笔记
(二十一)—— CNN可视化
IntroductionOneofthemostdebatedtopicsindeeplearningishowtointerpretandunderstandatrainedmodel–particularlyinthecontextofhighriskindustrieslikehealthcare.Theterm“blackbox”hasoftenbeenassociatedwithdeep
Nino_Lau
·
2023-10-07 19:53
【无标题】
【机器学习】机器学习笔记(
吴恩达
)-CSDN博客1.误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。2.梯度下降会自动采取更小的步骤,所以不需要随时间减小学习率a。
FlyingAnt_
·
2023-10-06 20:53
人工智能
机器学习
吴恩达
机器学习(八)
异常检测第一百二十三课:问题动机什么是异常检测?判断xtext,即新的飞机引擎是否能像一个正常的引擎一样工作?更正式的定义:建立模型p(x),将xtest与p(x)进行比较:欺诈检测:寻找网站中操作异常的用户工业生产领域计算机机群管理第一百二十四课:高斯分布正态分布两个参数,均值u;方差σ^2u控制钟形曲线的中心位置,σ控制钟形曲线的宽度例子:阴影面积的积分都是1!参数估计问题:参数估计问题就是给
带刺的小花_ea97
·
2023-10-06 10:31
深度学习笔记
-工具使用Anaconda, jupyter
关于在Anaconda3中配置环境,打开AnacondaPrompt通过输入命令:1.activategluon2.jupyternotebook如若打开指定的文件目录如学习的课件:1.activategluon进入环境gluon,然后选择文件目录-进入D:cdd:\d2l-zh2.jupyternotebookjupyternotebook几个常用的快捷键H查看本次使用jupyternotebo
古镇风雨
·
2023-10-06 07:24
深度学习入门
深度学习
mxnet
python
深度学习笔记
7:模型选择+过拟合和欠拟合
模型选择例子:预测谁会偿还贷款银行雇你来调查谁会偿还贷款你得到了100个申请人的信息其中五个人在3年内违约了发现:5个人在面试的时候都穿模型也发现了这个强信号这会有什么问题?训练误差和泛化误差训练误差:模型在训练数据上的误差泛化误差:模型在新数据上的误差(主要关注)例子:根据模考成绩来预测未来考试分数在过去的考试中表现很好(训练误差)不代表未来考试一定会好(泛化误差)学生A通过背书在模考中拿到好成
燏羡
·
2023-10-05 18:17
深度学习(pytorch)笔记
深度学习
人工智能
机器学习
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 1 - 神经网络和深度学习 - 第三周测验
课程1_第3周_测验题目录:目录第一题1.以下哪一项是正确的?A.【 】a[2](12)a^{[2](12)}a[2](12)是第12层,第2个训练数据的激活向量。B.【 】X是一个矩阵,其中每个列都是一个训练示例。C.【 】a4[2]a^{[2]}_4a4[2]是第2层,第4个训练数据的激活输出。D.【 】a4[2]a^{[2]}_4a4[2]是第2层,第4个神经元的激活输出。E.【 】a[2]
coldstarry
·
2023-10-05 09:54
吴恩达作业-深度学习
深度学习
python
深度学习笔记
_4、CNN卷积神经网络+全连接神经网络解决MNIST数据
1、首先,导入所需的库和模块,包括NumPy、PyTorch、MNIST数据集、数据处理工具、模型层、优化器、损失函数、混淆矩阵、绘图工具以及数据处理工具。importnumpyasnpimporttorchfromtorchvision.datasetsimportmnistimporttorchvision.transformsastransformsfromtorch.utils.datai
Element_南笙
·
2023-10-05 00:18
深度学习
深度学习
神经网络
笔记
sheng的学习笔记-【中英】【
吴恩达
课后测验】Course 1 - 神经网络和深度学习 - 第四周测验
课程1_第4周_测验题目录:目录第一题1.在我们的前向传播和后向传播实现中使用的“缓存”是什么?A.【 】它用于在训练期间缓存成本函数的中间值。B.【 】我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传播计算导数的有用值。C.【 】它用于跟踪我们正在搜索的超参数,以加快计算速度。D.【 】我们用它将反向传播过程中计算的变量传递到相应的正向传播步骤。它包含用于计算正向传播
coldstarry
·
2023-10-04 21:56
吴恩达作业-深度学习
深度学习
python
ubuntu之路——day10.4 什么是人的表现
结合
吴恩达
老师前面的讲解,可以得出一个结论:在机器学习的早期阶段,传统的机器学习算法在没有赶超人类能力的时候,很难比较这些经典算法的好坏。也许在不同的数据场景下,不同的ML算法有着不同的表现。
初仔仔
·
2023-10-04 20:31
人工智能
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 2 - 改善深层神经网络 - 第二周测验
课程2_第2周_测验题目录:目录第一题1.当输入从第8个mini-batch的第7个的例子的时候,你会用哪种符号表示第3层的激活?A.【 】a[3]{8}(7)a^{[3]\{8\}(7)}a[3]{8}(7)B.【 】a[8]{7}(3)a^{[8]\{7\}(3)}a[8]{7}(3)C.【 】a[8]{3}(7)a^{[8]\{3\}(7)}a[8]{3}(7)D.【 】a[3]{7}(8)
coldstarry
·
2023-10-04 19:46
吴恩达作业-深度学习
神经网络
深度学习
python
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 2 - 改善深层神经网络 - 第三周测验
课程2_第3周_测验题目录:目录第一题1.如果在大量的超参数中搜索最佳的参数值,那么应该尝试在网格中搜索而不是使用随机值,以便更系统的搜索,而不是依靠运气,请问这句话是正确的吗?A.【 】对B.【 】不对答案:B.【√】不对第二题2.每个超参数如果设置得不好,都会对训练产生巨大的负面影响,因此所有的超参数都要调整好,请问这是正确的吗?A.【 】对B.【 】不对答案:B.【√】不对第三题3.在超参数
coldstarry
·
2023-10-04 19:46
吴恩达作业-深度学习
神经网络
深度学习
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 2 - 改善深层神经网络 - 第一周测验
课程2_第1周_测验题目录:目录第一题1.如果你有10,000,000个例子,你会如何划分训练/验证/测试集?A.【 】33%训练,33%验证,33%测试B.【 】60%训练,20%验证,20%测试C.【 】98%训练,1%验证,20%测试答案:C.【√】98%训练,1%验证,20%测试第二题2.验证集和测试集应该:A.【 】来自同一分布B.【 】来自不同分布C.【 】完全相同(一样的(x,y)对
coldstarry
·
2023-10-04 19:45
吴恩达作业-深度学习
神经网络
深度学习
sheng的学习笔记-【目录】【中文】【deplearning.ai】【
吴恩达
课后作业目录】
学习
吴恩达
的深度学习,用于记录笔记知识目录和引用文章原文见下面,但已经变为收费的:【目录】【中文】【deplearning.ai】【
吴恩达
课后作业目录】_
吴恩达
深度学习何宽-CSDN博客免费的用于学习的
coldstarry
·
2023-10-04 19:15
吴恩达作业-深度学习
人工智能
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 1 - 神经网络和深度学习 - 第一周测验
课程1_第1周_测验题目录:目录第一题1.“人工智能是新电力”这个比喻指的是什么?A.【 】人工智能为我们的家庭和办公室的个人设备供电,类似于电力。B.【 】通过“智能电网”,人工智能正在传递新一波的电力。C.【 】人工智能在计算机上运行,因此由电力驱动,但它让计算机做以前不可能做的事情。D.【 】与100年前开始的电力类似,人工智能正在改变多个行业。答案:D.【√】与100年前开始的电力类似,人
coldstarry
·
2023-10-04 19:13
吴恩达作业-深度学习
深度学习
学习
笔记
sheng的学习笔记-【中文】【
吴恩达
课后测验】Course 1 - 神经网络和深度学习 - 第二周测验
课程1_第2周_测验题目录:目录第一题1.神经元计算什么?A.【 】神经元计算激活函数后,再计算线性函数(z=Wx+b)B.【 】神经元计算一个线性函数(z=Wx+b),然后接一个激活函数C.【 】神经元计算一个函数g,它线性地缩放输入x(Wx+b)D.【 】神经元先计算所有特征的平均值,然后将激活函数应用于输出答案:B.【√】神经元计算一个线性函数(z=Wx+b),然后接一个激活函数第二题2.以
coldstarry
·
2023-10-04 19:13
吴恩达作业-深度学习
python
深度学习
深度学习笔记
之微积分及绘图
深度学习笔记
之微积分及绘图学习资料来源:微积分%matplotlibinlinefrommatplotlib_inlineimportbackend_inlinefrommxnetimportnp,npxfromd2limportmxnetasd2lnpx.set_np
白芷加茯苓
·
2023-10-03 20:02
Python学习记录
机器学习
深度学习
笔记
WED笔记
神经网络与
深度学习笔记
要点在numpy中矩阵乘法与点乘:1.1矩阵乘法np.dot(a,b)=a@b其中矩阵a的列和b的行数相等看一下下面的这两个随机数组“a”和“b”:a=np.random.randn
挥手致何意
·
2023-10-03 04:58
神经网络与深度学习
深度学习笔记
之线性代数
深度学习笔记
之线性代数一、向量在数学表示法中,向量通常记为粗体小写的符号(例如,x,y,z)当向量表示数据集中的样本时,它们的值具有一定的现实意义。
白芷加茯苓
·
2023-10-02 20:02
Python学习记录
机器学习
深度学习
笔记
线性代数
深度学习笔记
_3、全连接神经网络解决MNIST数据
1、导入包importnumpyasnpimporttorch#导入pytorch内置的mnist数据fromtorchvision.datasetsimportmnist#importtorchvision#导入预处理模块importtorchvision.transformsastransformsfromtorch.utils.dataimportDataLoader#导入nn及优化器imp
Element_南笙
·
2023-10-02 20:53
深度学习
深度学习
笔记
神经网络
吴恩达
机器学习——无监督学习
1.k-means的步骤:先随机选择K个簇中心,1)划分样本:每个样本分配到距离最近的簇。2)更新簇中心位置:计算分配之后每个簇的中心位置,更新簇中心位置。迭代上述过程,直到簇中心位置不变。2.代价函数迭代完成后,每个样本距离所属簇中心的距离的均方和。稍微说明了下,上述迭代过程就是最小化代价函数的过程(分别从样本相对于簇中心的距离,和簇的位置,两个维度的最小化)3.随机初始化建议的做法,随机选择K
睡不好觉的梨
·
2023-10-01 15:44
深度学习笔记
:一些理解上的问题
1、特征映射什么意思指在卷积神经网络(ConvolutionalNeuralNetwork,CNN)中的卷积层中,通过对输入数据进行卷积操作得到的输出数据。特征映射可以看作是输入数据在卷积神经网络中的“抽象”,它可以提取输入数据中的不同特征,例如边缘、纹理、形状等信息。随着网络深度的增加,特征映射也变得越来越抽象,可以提取更高级别的特征,例如物体的部分、整体、类别等信息。这些特征映射最终会通过池化
愿你酷得像风
·
2023-10-01 05:21
深度学习
深度学习
深度学习笔记
(四)—— 前馈神经网络的 PyTorch 实现
1AUTOGRADAUTOMATICDIFFERENTIATIONCentraltoallneuralnetworksinPyTorchistheautogradpackage.Let’sfirstbrieflyvisitthis,andwewillthengototrainingourfirstneuralnetwork.Theautogradpackageprovidesautomaticdi
Nino_Lau
·
2023-10-01 01:52
深度学习笔记
_1、定义神经网络
1、使用了PyTorch的nn.Module类来定义神经网络模型;使用nn.Linear来创建全连接层。(CPU)importtorch.nnasnnimporttorch.nn.functionalasFfromtorchsummaryimportsummary#定义神经网络模型classNet(nn.Module):def__init__(self):super(Net,self).__ini
Element_南笙
·
2023-09-30 22:17
深度学习
深度学习
笔记
神经网络
深度学习笔记
_2、多种方法定义神经网络
1、nn.Moduleimporttorchfromtorchimportnnimporttorch.nn.functionalasFclassModel_Seq(nn.Module):""def__init__(self,in_dim,n_hidden_1,n_hidden_2,n_hidden_3,out_dim):super(Model_Seq,self).__init__()self.fl
Element_南笙
·
2023-09-30 22:45
深度学习
深度学习
笔记
神经网络
【李沐
深度学习笔记
】Softmax回归
课程地址和说明Softmax回归p1本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。Softmax回归虽然它名字叫作回归,但是它其实是分类问题本节课的基础想要学会本节课得需要一点基础,我真没看懂这节课讲的是什么,查了一些资料补了补基础此处参考视频信息量|熵|交叉熵|KL散度(相对熵)|交叉熵损失函数信息量(AmountofInformation)定义事件
魔理沙偷走了BUG
·
2023-09-30 13:39
李沐深度学习
深度学习
笔记
回归
吴恩达
《Machine Learning Yearning》学习笔记-1
第一部分:数据准备-建立合适的开发集和测试集1.从相同的分布中选择开发集和测试集,且开发集和测试集数据需要与你预期的算法使用场景保持一致。这样开发集能够更好的指导团队的改进优化方向,测试集能真正衡量算法在实际场景中的性能。开发集和测试集的分布可以与训练数据不同。2.选定一个数值型的评估标准作为团队的优化方向。如果存在多个目标,那么可以考虑:1.合并成一个(如求平均误差)标准;或者,定义一个优化目标
城市守望者
·
2023-09-29 20:20
深度学习笔记
之优化算法(二)随机梯度下降
深度学习笔记
之优化算法——随机梯度下降引言回顾:梯度下降法梯度下降法在机器学习中的问题随机梯度下降随机梯度下降方法的思想随机梯度下降方法的步骤描述关于学习率引言本节将介绍随机梯度下降(StochasticGradientDescent
静静的喝酒
·
2023-09-28 13:05
深度学习
机器学习
随机梯度下降与Bagging
梯度下降法的问题
计算机基础每日学习笔记 | 20210116
寒假刷完课~后面还想刷一下
吴恩达
老师的机器学习(CrashCourse到P4C
不热爱技术的设计不是好产品
·
2023-09-27 20:10
线性回归&逻辑回归&正则化
本文为《
吴恩达
机器学习》课程笔记线性回归代价函数CostFuction它的目标是:选择出可以使得建模误差的平方和能够最小的模型参数批量梯度下降BatchGradientDescent是学习率(learningrate
susion哒哒
·
2023-09-27 20:50
【李沐
深度学习笔记
】线性回归的简洁实现
课程地址和说明线性回归的简洁实现p4本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。线性回归的简洁实现通过使用深度学习框架来简洁地实现线性回归模型生成数据集importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2l#真实w和btrue_w=torch.tensor(
魔理沙偷走了BUG
·
2023-09-27 20:58
李沐深度学习
深度学习
笔记
线性回归
动手
深度学习笔记
(三十三)6.3. 填充和步幅
动手
深度学习笔记
(三十三)6.3.填充和步幅题6.卷积神经网络6.3.填充和步幅6.3.1.填充6.3.2.步幅6.3.3.小结6.3.4.练习6.卷积神经网络6.3.填充和步幅在前面的例子图6.2.1
落花逐流水
·
2023-09-27 06:07
pytorch实践
pytorch
pytorch
打开深度学习的锁:(2)单隐藏层的神经网络
需要导入的包二、构建神经网络的架构三、初始化函数四、激活函数4.1tanh(双曲正切函数)函数五,前向传播六、损失函数七、后向传播八、梯度下降九、构建预测十、聚合和主函数完整代码:总结导言本篇知识背景来源于
吴恩达
教授的
Jiashun Hao
·
2023-09-26 04:51
深度学习
神经网络
人工智能
李沐
深度学习笔记
(利用pytorch的深度学习框架实现线性回归)
1.主要代码:#线性回归的简单实现importtorchfromtorch.utilsimportdatafromd2limporttorchasd2l#获取数据集true_w=torch.tensor([2,-3.4])true_b=4.2features,labels=d2l.synthetic_data(true_w,true_b,1000)#调用d2l库中的synthetic_data构造
小蔡是小菜
·
2023-09-25 17:25
python
深度学习
pytorch
线性回归
【ML/DL】深层神经网络模型python实现
实现文章目录深层神经网络模型python实现注:1.准备工作导入必要的包导入数据集2.创建模型(1)初始化参数(2)前向传播(3)计算cost(4)反向传播(5)更新参数(6)合成模型3.训练模型注:数据集及详细讲解请查找
吴恩达
深度学习第一课第四周
落叶阳光
·
2023-09-25 04:18
算法篇
【李沐
深度学习笔记
】自动求导实现
课程地址和说明自动求导实现p2本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。自动求导#创建变量importtorchx=torch.arange(4,dtype=torch.float32)#只有浮点数才能求导#计算y关于x的梯度之前,需要一个地方存储梯度x.requires_grad_(True)print("x为:",x)#计算yy=2*torch
魔理沙偷走了BUG
·
2023-09-24 16:47
李沐深度学习
深度学习
笔记
人工智能
2020年6月3日
今天没什么硬性任务,于是主要精力都用来复习
吴恩达
的deeplearning网课笔记,果然有些知识点还是需要学而时习之的。
真昼之月
·
2023-09-24 10:21
第五章 多变量线性回归
该系列文章为,观看“
吴恩达
机器学习”系列视频的学习笔记。虽然每个视频都很简单,但不得不说每一句都非常的简洁扼要,浅显易懂。非常适合我这样的小白入门。
tomas家的小拨浪鼓
·
2023-09-24 05:59
吴恩达
深度学习笔记
-搭建多层神经网络
吴恩达
作业-搭建多层神经网络。
一技破万法
·
2023-09-23 13:40
吴恩达
+Open AI 《面向开发者的ChatGPT Prompt 工程》课程学习2——prompt指导原则1
《面向开发者的ChatGPTPrompt工程》课程学习索引
吴恩达
+OpenAI《面向开发者的ChatGPTPrompt工程》课程学习1——课程介绍
吴恩达
+OpenAI《面向开发者的ChatGPTPrompt
会写代码的孙悟空
·
2023-09-23 08:53
chatGPT
人工智能
chatgpt
学习
吴恩达
+Open AI 《面向开发者的ChatGPT Prompt 工程》课程学习1——课程介绍
许多人都体验过ChatGPT的Web用户界面来完成特定而且通常是一次性的任务。但是从开发者的角度来说,通过API调用LLM(largelanguagemodel大语言模型)来快速构建应用程序这个强大的功能被严重低估了。通过这个课程系列,你将会收获学习到一些软件开发提示词的最佳实践;学习到一些常见的用例、总结、推理、转化、扩展;使用LLM建立一个聊天机器人。两种大语言模型介绍基础大语言模型(Base
会写代码的孙悟空
·
2023-09-23 08:23
chatGPT
人工智能
chatgpt
学习
机器学习-
吴恩达
笔记10
本周主要是介绍了两个方面的内容,一个是如何进行大规模的机器学习,另一个是关于图片文字识别OCR的案例大规模机器学习(LargeScaleMachineLearning)在低方差的模型中,增加数据集的规模可以帮助我们获取更好的结果。但是当数据集增加到100万条的大规模的时候,我们需要考虑:大规模的训练集是否真的有必要。获取1000个训练集也可以获得更好的效果,通过绘制学习曲线来进行判断。image随
皮皮大
·
2023-09-23 06:38
神经网络与深度学习-Stanford
吴恩达
教授-Week2(神经网络基础)
逻辑回归是一个用于二分类(binaryclassification)的算法。符号定义:逻辑回归的HypothesisFunction(假设函数)[参考:https://blog.csdn.net/weixin_36815313/article/details/105309095(非常详细)]Logistic回归损失函数(LogisticRegressionCostFunction)为了训练逻辑回归
LAANever
·
2023-09-23 06:09
【李沐
深度学习笔记
】矩阵计算(2)
课程地址和说明线性代数实现p4本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。本节是第二篇矩阵计算矩阵的导数运算此处参考了视频:矩阵的导数运算为了方便看出区别,我将所有的向量都不按印刷体加粗,而是按手写体在向量对应字母上加箭头的方式展现。标量方程对向量的导数在一元函数中,求一个函数的极值点,一般令导数为0(该点切线斜率为0),求得驻点,最后通过极值点定义
魔理沙偷走了BUG
·
2023-09-22 22:34
李沐深度学习
深度学习
笔记
矩阵
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他