E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
反向传播梯度下降
深度学习Pytorch中计算图的概念及理解
反向传播
Backpr
广东工商职业技术大学人工智能实验室
·
2024-01-21 14:17
深度学习
pytorch
人工智能
大模型多卡训练原理
数据并行每张卡加载不同的数据,将计算结果合并存在问题:每个显卡都加载了模型,浪费了一定空间二、模型并行:适合模型特别大的情况1、串行计算先用卡1计算结果1,然后卡2计算结果2,……卡n计算结果n,然后计算损失
反向传播
串行计算
南宫凝忆
·
2024-01-21 13:32
大模型
人工智能
大模型
多卡训练
pytorch(二)
梯度下降
算法
文章目录优化问题
梯度下降
随机
梯度下降
在线性模型训练的时候,一开始并不知道w的最优值是什么,可以使用一个随机值来作为w的初始值,使用一定的算法来对w进行更新优化问题寻找使得目标函数最优的权重组合的问题就是优化问题
梯度下降
通俗的讲
@@老胡
·
2024-01-21 08:02
python
pytorch
算法
人工智能
机器学习_通过
梯度下降
找到最佳参数
文章目录训练机器要有正确的方向凸函数确保有最小损失点
梯度下降
的实现学习速率也很重要训练机器要有正确的方向所谓训练机器,也称拟合的过程,也就是确定模型内部参数的过程。
you_are_my_sunshine*
·
2024-01-21 06:17
机器学习
机器学习
人工智能
cs231n assignment1——SVM
CIFAR-10数据集并展示部分数据数据图像归一化,减去均值(也可以再除以方差)svm_loss_naive和svm_loss_vectorized计算hinge损失,用拉格朗日法列hinge损失函数利用随机
梯度下降
法优化
柠檬山楂荷叶茶
·
2024-01-21 06:15
cs231n
支持向量机
python
机器学习
【机器学习300问】13、学习率曲线有什么作用?
学习率是优化算法中的一个重要超参数,它决定了模型在
梯度下降
过程中权重更新的步伐大小。如果学习率设置得过高,可能会导致训练过程跳过最优解,甚至发散
小oo呆
·
2024-01-21 06:45
【机器学习】
学习
机器学习
Pytorch自动微分计算笔记
Pytorch官方文档AutomaticDifferentiation的链接AutomaticDifferentiation
反向传播
(backpropa
竹底蜉蝣
·
2024-01-21 00:52
杂项
pytorch
笔记
人工智能
3D点云深度学习处理的基本概念
4.
反向传播
:利用误差更新权重矩阵。通过链式法则(ChainRule)计算损失函数相对于权重矩阵的
长安海
·
2024-01-20 23:24
深度学习
人工智能
三维点云
图卷积
KNN
机器学习第十八周周报
机器学习第十八周周报摘要Abstract一、导数二、计算图三、使用计算图求导数四、逻辑回归中的
梯度下降
五、m个样本的
梯度下降
六、总结摘要本周开始学习吴恩达的
梯度下降
法,
梯度下降
法在机器学习中常常用来优化损失函数
JerryC1999
·
2024-01-20 22:17
机器学习
人工智能
Datawhale 强化学习笔记(二)马尔可夫过程,DQN 算法
文章目录参考马尔可夫过程DQN算法(DeepQ-Network)如何用神经网络来近似Q函数如何用
梯度下降
的方式更新网络参数强化学习vs深度学习提高训练稳定性的技巧经验回放目标网络代码实战DQN算法进阶DoubleDQNDuelingDQN
RessCris
·
2024-01-20 17:54
强化学习
笔记
算法
大模型学习笔记06——模型训练
计算单向上下文embedding,一次生成一个tokenencoder-only(BERT):计算双向上下文embeddingencoder-decoder(T5):编码输入,解码输出2、优化算法随机
梯度下降
等风来随风飘
·
2024-01-20 11:34
大模型读书笔记
学习
笔记
Pytorch学习 第二周Day 10-11: 损失函数和优化器
优化器探讨了随机
梯度下降
(SGD)、Adam、R
M.D
·
2024-01-20 06:56
pytorch
学习
人工智能
tensorflow2
python
动手学深度学习6 自动求导
2.非标量变量的
反向传播
3.分离计算4.Python控制流的梯度计算QA1.ppt上隐式构造和显示构造为什么看起来差不多?
陌上阳光
·
2024-01-20 04:47
动手学深度学习
深度学习
人工智能
pytorch
深度学习记录--mini-batch gradient descent
batchvsmini-batchgradientdescentbatch:段,块与传统的batch
梯度下降
不同,mini-batchgradientdescent将数据分成多个子集,分别进行处理,在数据量非常巨大的情况下
蹲家宅宅
·
2024-01-19 22:14
深度学习记录
深度学习
batch
人工智能
IMDB电影评论的情感分析——paddle
项目地址:IMDB电影评论的情感分析-飞桨AIStudio星河社区(baidu.com)1.实验介绍1.1实验目的理解并掌握循环神经网络的基础知识点,包括模型的时序结构、模型的前向传播、
反向传播
等掌握长短时记忆网络
伪_装
·
2024-01-19 11:23
深度学习
自然语言处理
情感分析
paddle
人工智能
深度学习
自然语言处理
情感分析
学习率调整策略之Warmup以及代码实现
介绍在深度学习中,我们通常使用
梯度下降
等优化算法来训练模型,其中学习率是一个非常重要的超参数。
Wilson_Hank
·
2024-01-19 05:33
人工智能
机器学习
自然语言处理
深度学习
人工智能
深度学习 | 三个概念:Epoch, Batch, Iteration
(也就是说,所有训练样本在神经网络中都进行了一次正向传播和一次
反向传播
)再通俗一点,一个Epoch就是将所有训练样本训练一次的过程。然而,当一个Epoch的样本(也就是所有的训练样本)数量可
柠檬先生在搬砖
·
2024-01-19 04:36
隐马尔可夫模型【维特比算法】
第一章机器学习简介第二章感知机第三章支持向量机第四章朴素贝叶斯分类器第五章Logistic回归第六章线性回归和岭回归第七章多层感知机与
反向传播
【Python实例】第八章主成分分析【PCA降维】第九章隐马尔可夫模型文章目录机器学习笔记一
格兰芬多_未名
·
2024-01-19 03:21
机器学习
算法
人工智能
机器学习
奇异值分解(SVD)【详细推导证明】
第一章机器学习简介第二章感知机第三章支持向量机第四章朴素贝叶斯分类器第五章Logistic回归第六章线性回归和岭回归第七章多层感知机与
反向传播
【Python实例】第八章主成分分析【PCA降维】第九章隐马尔可夫模型第十章奇异值分解文章目录机器学习笔记一
格兰芬多_未名
·
2024-01-19 03:20
机器学习
机器学习
矩阵分解
Kaggle知识点:训练神经网络的7个技巧
来源:Coggle数据科学神经网络模型使用随机
梯度下降
进行训练,模型权重使用
反向传播
算法进行更新。
Imagination官方博客
·
2024-01-19 00:56
神经网络
人工智能
深度学习
机器学习
零基础"机器学习"自学笔记|Note3:
梯度下降
法
03
梯度下降
3.1梯度下
木舟笔记
·
2024-01-18 20:40
吴恩达机器学习笔记-Logistic回归模型
如果这里使用
梯度下降
法,不能保证能得到全局收敛的值,这个函数就是所谓的
Carey_Wu
·
2024-01-18 16:26
线性回归+小批量
梯度下降
算法
目录1.线性模型计算预测值:2.使用均方损失作为损失函数:3.基础优化算法:
梯度下降
4.训练数据:5.线性回归实现:6.线性回归总结:1.线性模型计算预测值:线性模型可以看做单层神经网络。
姓蔡小朋友
·
2024-01-18 15:44
机器学习
算法
线性回归
回归
深度学习记录--归—化输入特征
normalizinginputs),对特征值进行一定的处理,可以加速神经网络训练速度步骤零均值化通过x值更新让均值稳定在零附近,即为零均值化归化方差适当减小变量方差解释归化可以让原本狭长的数据图像变得规整,
梯度下降
的迭代次数减少
蹲家宅宅
·
2024-01-18 09:49
深度学习记录
深度学习
人工智能
【机器学习300问】9、
梯度下降
是用来干嘛的?
其实我首先得知道
梯度下降
是什么,也就它的定义。其次我得了解它具体用在什么地方,也就是使用场景。最后才是这个问题,
梯度下降
有什么用?怎么用?所以我按照这个思路给大家讲讲我自己是怎么理解
梯度下降
的。
小oo呆
·
2024-01-18 08:37
【机器学习】
机器学习
人工智能
【机器学习300问】10、学习率设置过大或过小对训练有何影响?
先来复习一下
梯度下降
算法,在每次迭代过程中,算法计算目标函数关于当前参数值的梯度(即函数在该点的斜率或方向导数向量),然后沿着梯度的反方向移动一定的步长。更新规则可以表示为:其中:θ表示模型参数。
小oo呆
·
2024-01-18 07:12
【机器学习】
学习
机器学习
批量归一化和层归一化
如果将输入序列的每一维数值进行归一化,使其在一定范围之内,比如000和111之间,可以加快基于
梯度下降
的学习的收敛速度原因:
梯度下降
以相同的学习率对每一维进行最小化,如果取值范围差异很大,学习就很难在各个维度上同时收敛
bulingg
·
2024-01-18 04:51
算法工程师
人工智能
深度学习
神经网络
优化算法,理解指数加权平均
在做mini-batch
梯度下降
的时候,梯度的表现是这样的,image.png。如果通过指数加权平均使得梯度计算的时候更加平滑,但是整体趋势还是往函数收敛的方向走。运行效率就会增加。
lanughing
·
2024-01-18 03:55
CMA-ES 算法初探
1进化算法在学习最优模型参数的时候,
梯度下降
并不是唯一的选择。在我们不知道目标函数的精确解析或者不能直接计算梯度的情况下,进化算法是有效的。
UQI-LIUWJ
·
2024-01-18 02:47
演化学习
机器学习
算法
人工智能
矩阵
最优化 | 一维搜索与方程求根 | C++实现
文章目录参考资料前言1.二分法求根1.1[a,b]区间二分法求根1.1.1原理1.1.2C++实现1.2区间右侧无穷的二分法求根1.3求含根区间2.牛顿法求根2.1原理2.2c++实现3.
梯度下降
法求根
CHH3213
·
2024-01-17 19:47
数学
c++
最优化
一维搜索
牛顿法
最优化 | 无约束优化方法 | C++实现
文章目录参考资料1.前言2.
梯度下降
法2.1原理2.2c++实现2.3共轭梯度法3.牛顿法3.1原理3.2c++实现4.模拟退火算法4.1原理4.2c++实现5.遗传算法参考资料https://blog.csdn.net
CHH3213
·
2024-01-17 19:17
数学
c++
数学
数值分析
最优化
自适应动量因子
梯度下降
BP神经网络的人口预测
目录摘要BP神经网络参数设置及各种函数选择参数设置训练函数传递函数学习函数性能函数显示函数前向网络创建函数BP神经网络训练窗口详解训练窗口例样训练窗口四部详解基于BP神经网络的租金预测代码下载:bp数据人口预测.rar,(代码完整,数据齐全)资源-CSDN文库https://download.csdn.net/download/abc991835105/88746563效果图结果分析摘要本文总结B
神经网络机器学习智能算法画图绘图
·
2024-01-17 19:15
BP神经网络
神经网络
人工智能
深度学习
人口预测
反向传播
(Back Propagation)
目录回顾简单模型的梯度计算
反向传播
计算图链式求导链式法则定理:Forward前馈计算
反向传播
BackPropagation例子线性模型的计算图计算前馈过程
反向传播
过程(逆向求导)练习Pytorch中的前馈过程和
反向传播
过程
chairon
·
2024-01-17 14:56
PyTorch深度学习实践
pytorch
深度学习
人工智能
梯度下降
算法
目录回顾优化问题
梯度下降
算法梯度计算代码损失曲线图随机
梯度下降
(StochasticGradientDescent)代码比较思考:回顾对于一个学习系统来说,我们需要找到最适合数据的模型,模型有很多,需要不断尝试
chairon
·
2024-01-17 14:25
PyTorch深度学习实践
算法
python
开发语言
深度学习
pytorch
数学建模常见算法的通俗理解(更新中)
1.2.5求解C.R.值1.2.6判断一致性1.2.7计算总得分2神经网络(正向流通反向反馈,调整系数,预测结果)2.1粗浅理解2.2算法过程2.2.1划分数据集2.2.2前向传播及反向调整系数(利用
梯度下降
法
菜只因C
·
2024-01-17 09:19
数学建模
算法
实现特征缩放/归一化和标准化
什么是特征缩放特征缩放是用来标准化数据特征的范围机器学习为什么需要特征缩放在处理多维特征问题的时候,需要保证特征具有相近的尺度,这有助于
梯度下降
算法更快的收敛。
泛酸的桂花酒
·
2024-01-17 09:31
深度学习基础知识整理
这可以通过
反向传播
算法和
梯度下降
等优化
Do1phln
·
2024-01-17 07:01
ML
深度学习
人工智能
参数优化器
前置知识:机器学习概念,线性回归,
梯度下降
待优化参数w,损失函数loss,学习率lr,每次迭代一个batch计算t时刻损失函数关于当前参数的梯度:计算t时刻一阶动量mt和二阶动量Vt计算t时刻下降梯度:
惊雲浅谈天
·
2024-01-17 03:54
机器学习
机器学习
人工智能
深度学习——第7章 项目实战:自己动手写一个神经网络模型
第7章项目实战:自己动手写一个神经网络模型目录7.1导入数据集7.2定义神经网络输入层、隐藏层、输出层神经元个数7.3网络参数W和b初始化7.4正向传播过程7.5损失函数7.6
反向传播
过程7.7网络参数更新
曲入冥
·
2024-01-16 21:01
深度学习
深度学习
神经网络
人工智能
机器学习
python
cnn
运筹说 第103期 | 非线性规划经典例题讲解
在实际工作中,我们能发现非线性规划在经济管理中有着许多应用,本期小编选择了其中一些典型例子,包括一维搜索的两种求解方法、
梯度下降
法以及库恩塔克条件,进行详细讲解。一、一维搜索求
运筹说
·
2024-01-16 15:45
运筹学
非线性规划
经典例题
为什么CNN
反向传播
计算梯度时需要将权重旋转180度
参考博客https://manutdzou.github.io/2016/05/17/Why-computing-the-gradients-CNN,-the-weights-need-to-be-rotated.html该博客中介绍的较为详细,需要有基本的机器学习知识可以看懂,本菜对自己其推导的过程中做少量的注解。首先是其中关于卷积核翻转180°和误差δ卷积这一部分,刚开始看的一脸懵逼,为什么2
spectre_hola
·
2024-01-16 15:29
【MATLAB随笔】遗传算法优化的BP神经网络(随笔,不是很详细)
遗传算法1.3遗传算法优化的BP神经网络二、代码解读2.1数据预处理2.2GABP2.3部分函数说明一、算法思想1.1BP神经网络BP神经网络(BackpropagationNeuralNetwork,
反向传播
神经网络
感谢地心引力
·
2024-01-16 15:49
MATLAB
神经网络
人工智能
深度学习
matlab
深度学习面试100题(1-10)
梯度下降
算法的正确步骤是什么a.用随机值初始化权重和偏差b.把输入传入网络,得到输出值c.计算预测值和真实值之间的误差d.对每一个产生误差的神经元,调整相应的权重值以减少误差e.重复迭代,直至得到网络权重的最佳值已知
xiaoshun007~
·
2024-01-16 10:36
机器学习
深度学习
人工智能
机器学习_
梯度下降
文章目录什么是梯度
梯度下降
梯度下降
有什么用什么是梯度计算梯度向量其几何意义,就是函数变化的方向,而且是变化最快的方向。对于函数f(x),在点(xo,yo),梯度向量的方向也就是y值增加最快的方向。
you_are_my_sunshine*
·
2024-01-16 10:05
机器学习
机器学习
人工智能
从零开始训练神经网络
训练(随机
梯度下降
)我已经定义了向前和向后传递,但如何开始使用它们?我必须创建一个训练循环,并使用随机
梯度下降
(SGD)作为优化器来更新神经网络的参数。训练函数中有两个主要循环。
AI-智能
·
2024-01-16 10:42
神经网络
python
人工智能
机器学习
深度学习
YOLOv8目标检测中数据集各部分的作用
这三个数据集在训练和评估过程中具有不同的作用:训练集(TrainingSet):用于模型的训练,即通过
反向传播
和
梯度下降
等优化算法来调整模型的权重,使其能够从数据中学到有用的特征和模式。
Asus.Blogs
·
2024-01-16 06:09
目标识别
YOLO
目标检测
人工智能
逻辑回归(解决分类问题)
逻辑回归可以通过最大似然估计或
梯度下降
等方法来进行参数估计,从而得到一个可以用于分类的模型。一、逻辑回归入门在分类肿瘤的例子中,我们将肿瘤分为恶性肿瘤
Visual code AlCv
·
2024-01-15 13:51
人工智能入门
逻辑回归
回归
分类
深度学习笔记(六)——网络优化(2):参数更新优化器SGD、SGDM、AdaGrad、RMSProp、Adam
并且了解了激活函数和损失函数在神经网络中发挥的重要用途,其中,激活函数优化了神经元的输出能力,损失函数优化了
反向传播
时参数更新的趋势。我们知道在简单的反
絮沫
·
2024-01-15 10:49
深度学习
深度学习
笔记
人工智能
【数据预处理】什么时候需要数据归一化?
数据标准化作用:模型求解需要,归一化可以加快
梯度下降
的速度,即模型收敛速度。无量纲化避免数值问题,避免因过大或过小的异常值引发的数值问题,去除奇异样本数据导致的不良影响。
dataloading
·
2024-01-15 07:13
深度学习
对简单
梯度下降
方法的分析总结,有关步长,梯度精度和迭代次数
对简单
梯度下降
方法的分析总结,有关步长,梯度精度和迭代次数我们对一组数据进行简单函数拟合时,会用到一种基础方法即
梯度下降
法基本原理现在我们有一组数据xi,yi,zix_i,y_i,z_ixi,yi,zi
_int_me
·
2024-01-14 20:13
机器学习
机器学习
算法
python
人工智能
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他