E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Optimizer
有关
optimizer
.param_groups用法的示例分析
Optimizer
optimizer
.param_groups用法的示例分析日期:2022年7月25日pytorch版本:1.11.0对于param_groups的探索
optimizer
.param_groups
xxmy7
·
2022-11-29 01:46
pytorch
深度学习
pytorch
人工智能
机器学习中交叉熵cross entropy是什么,怎么计算?
计算loss的意义在于为接下来的
optimizer
提供优化的指标,即
optimizer
优化的目的为最小化loss。在使用softmax层进行分类时,loss一般使用交叉熵cross_entropy:
Kenn7
·
2022-11-28 22:12
机器学习
Tensorflow
【Pytorch学习】-- 补充 -- 使用Pytorch自带的Loss和
Optimizer
修改损失函数更新参数用
Optimizer
代替代码importtorchimporttorch.nnasnn#已知公式形式:f=w*x,未知参数w的数值#目标w=2#初始化数据#数据集XX=torch.tensor
丶Dylan
·
2022-11-28 21:26
pytorch
深度学习
python
报错:using a `tf.Tensor` as a Python `bool` is not allowed in Graph execution
原因:iftf.equal(self.
optimizer
.iterations%log_freq,0):passtensorflow版本:1.15.0由于python的if语句是通过bool类型判断的,
Love绘梨衣的Mr.lu
·
2022-11-28 21:53
tensorflow
算法
深度学习
keras
tensorflow2.x中英文翻译
importmatplotlib.pyplotaspltimportnumpyasnpimporttensorflowastffromtensorflow.kerasimportmodels,layers,
optimizer
s
小杨变老杨
·
2022-11-28 21:41
tensorflow
深度学习
python
pytorch 神经网络套路 实现多维输入特征的二分类
loss:BCELoss
optimizer
:SG
Newjet666
·
2022-11-28 21:37
笔记
Python
Pytorch
神经网络
pytorch
分类
地心的PyTorch学习(四)
(DownloadandVisualizetheData)2.定义网络(DefinetheNetworkArchitecture)3.定义损失函数和优化器(SpecifyLossFunctionand
Optimizer
cdxSunny
·
2022-11-28 19:34
Pytorch
pytorch
学习
深度学习
TensorFlowX.Y核心基础与AI模型设计05:完美将模型版本从tf1.x转移至tf2.x上、global_steps与train_step的使用、动态学习率、梯度优化器
tf.saved_model.load、tf.feature目录1、tf1.x模型测试代码2、运行升级成功的代码3、解决报错问题,优化代码4、补充说明4.1、动态学习率4.2、梯度优化train.GradientDescent
Optimizer
源代码杀手
·
2022-11-28 16:17
算法核心基础与AI模型设计
人工智能
tensorflow
深度学习
Optimizer
(一)Adagrad 矩阵形式公式理解
学习记录,如有错误请指出,感谢大家指导谢大家指导建议。本篇记录来自medium原网址Adagrad的特点在于对于每一个参数的学习率是不同的,除了公共学习率之外,每一个参数的学习率还有一个额外的系数。其中代表极小数防止分母为0,I为单位矩阵。是当前轮次和下一轮的参数向量,维度等于参数个数。是当前轮次每一个参数的导数。是一个矩阵,定义如下可以看到Gt就是每一轮导数向量和自身的外积,取对角线元素后加上一
黑野桥
·
2022-11-28 14:45
深度学习
`loss` passed to
Optimizer
.compute_gradients should be a function when eager execution is enabl
losspassedto
Optimizer
.compute_gradientsshouldbeafunctionwheneagerexecutionisenabl1、错误原因:这是因为tensorflow
张炳远
·
2022-11-28 08:24
tensorflow
python
tensorflow
python
错误处理-`loss` passed to
Optimizer
.compute_gradients should be a function when eager execution is enabl
错误解释:`loss'传递给
Optimizer
.compute_gradients应该是一个启用了立即执行的函数。
monissa.J
·
2022-11-28 08:50
python
tensorflow
python
tensorflow学习笔记(一)——《案例:自实现线性回归》代码校正调整
`GradientDescent
Optimizer
`No3`.会话开启方式`No.4`
optimizer
报错3.总结4.完整代码5.其他学习资料1.环境说明环境名称我自己的环境视频教程环境系统环境windows10macOSIDE
诡途
·
2022-11-28 08:19
Python
算法和机器学习
tensorflow
深度学习
python
神经网络
机器学习
【问题记录】RuntimeError: `loss` passed to
Optimizer
.compute_gradients should be a function when eager exe
目录一、问题描述二、问题解决(尚未解决)三、问题解决(解决了.)一、问题描述报错截图如下:定位到源代码:#四、传播误差
optimizer
=tf.train.GradientDescent
Optimizer
追光者♂
·
2022-11-28 07:41
【工具
技巧
解决办法】
【小小的项目
(实战+案例)】
python
tensorflow
深度学习
RuntimeError
Optimizer
mmlab中学习率优化参数整理
mmlab中学习率优化参数整理
optimizer
=dict(type='SGD',lr=0.01,momentum=0.9,weight_decay=0.0001)lr_config=dict(policy
灰太狼241
·
2022-11-28 06:54
MMLab学习
学习
人工智能
AttributeError: module ‘tensorflow.keras.losses‘ has no attribute ‘SparseCatgoricalCrossentropy的解决方案
报错:解决方案:将model.compile里面的loss参数修改如下即可:model.compile(
optimizer
='adam',loss=tf.keras.SparseCaticalCrossentropy
小k同学!
·
2022-11-28 01:53
Tensorflow
tensorflow
python
AttributeError: module ‘tensorflow._api.v1.keras.losses‘ has no attribute ‘SparseCategoricalCrossent
_api.v1.keras.losses'hasnoattribute'SparseCategoricalCrossent报错如下解决方法报错如下解决方法将model.compile(
optimizer
FriendshipT
·
2022-11-28 01:15
BUG
tensorflow
bug
深度学习
Python绘制训练过程的loss和accuracy曲线
model.compile(
optimizer
='adam',loss='categorical_crossentropy',metrics=['accuracy'])history=model.fit
宋yongchao
·
2022-11-27 23:35
python
pycharm
matplotlib
数据可视化
卷积神经网络
在恒源云做深度学习时运行train.py到第1个epoch就自动终止了
StartTrainEpoch1/81:35%|█████████████████████████▉|131/373[01:15fit_one_epoch(model_train,model,loss,loss_history,
optimizer
碱化钾
·
2022-11-27 19:11
深度学习报错
linux
运维
服务器
深度学习优化器演化史
KeyWords:Momentum、AdaGrad、Adam…Beijing,2020AgilePioneer
Optimizer
on-line:onepairof(x,y)atatimestep,a
Mr.RottenPeach
·
2022-11-27 15:16
数学基础知识
深度学习
pytorch手动加入正则
1.Pytorch自带的加正则化方法Pytorch的优化器都自带正则化,比如
optimizer
=optim.Adam(model.parameters(),lr=learning_rate,weight_decay
YANG_0_0_YANG
·
2022-11-27 09:01
深度学习技巧
【PyTorch】PyTorch中的model.zero_grad()和
optimizer
.zero_grad()使用
在训练Pytorch的时候,我们会使用model.zero_grad()
optimizer
.zero_grad()首先,这两种方式都是把模型中参数的梯度设为0当
optimizer
=optim.
Optimizer
Xhfei1224
·
2022-11-27 06:00
Pytorch
PyTorch中的model.zero_grad() 与
optimizer
.zero_grad()
在PyTorch中,对模型参数的梯度置0时通常使用两种方式:model.zero_grad()和
optimizer
.zero_grad()。二者在训练代码都很常见,那么二者的区别在哪里呢?
u013250861
·
2022-11-27 06:58
#
Pytorch
AI/模型调优
pytorch
深度学习
python
pytorch 搭建网络步骤
pytorch搭建网络步骤准备数据定义网络结构model定义损失函数定义优化算法
optimizer
(有是还要定义更新学习率:scheduler=StepLR())训练5.1准备好tensor形式的输入数据和标签
冲上云霄!
·
2022-11-27 02:55
python
PyTorch基础-搭建网络
pytorch基础-搭建网络搭建网络的步骤大致为以下:1.准备数据2.定义网络结构model3.定义损失函数4.定义优化算法
optimizer
5.训练5.1准备好tensor形式的输入数据和标签(可选)
维杰太保齐肯
·
2022-11-27 02:25
CNN
深度学习
pytorch
深度学习
神经网络
李宏毅2021《机器学习/深度学习》——学习笔记(3)
Backpropagation(反向传播)参考资料DNNTrainingProcedure上图所示是Pytorch中训练DNN的概述,首先是DefineNeuralNetwork、LossFunction、
Optimizer
dotJunz
·
2022-11-27 02:34
深度学习
深度学习
机器学习
Ubuntu18.04,两块GPU,踩坑记录。
的警告pytorch,设置多GPU关于batch_size的设置报UserWarning:Detectedcalloflr_scheduler.step()before
optimizer
.step().
小菊花0.0
·
2022-11-27 01:27
pytorch
深度学习
人工智能
【Pytorch教程】:卷积神经网络 CNN
Pytorch教程目录TorchandNumpy变量(Variable)激励函数关系拟合(回归)区分类型(分类)快速搭建法批训练加速神经网络训练
Optimizer
优化器卷积神经网络CNN卷积神经网络(RNN
_APTX4869
·
2022-11-26 20:01
Pytorch
tensorflow2.0学习笔记:自定义求导
tensorflow2.0建立神经网络模型,tensorflow近似求导与keras.
optimizer
s结合使用,实现自定义求导,使得模型训练更加灵活。
凿井而饮
·
2022-11-26 07:06
tensorflow2
神经网络
深度学习
tensorflow
python
机器学习
mnist手写数字识别
1、训练模型importtensorflowastffromtensorflow.kerasimportmodels,layers,
optimizer
simportmatplotlib.pyplotaspltmnist
fmingzh
·
2022-11-26 05:34
机器学习
python
tensorflow
深度学习
【学习率】torch.optim.lr_scheduler学习率10种调整方法整理
学习率调整在网络中的位置以及当前学习率查看方法importtorchimporttorch.nnasnnimporttorch.optim
optimizer
=torch.optim.SGD(model.parameters
风巽·剑染春水
·
2022-11-26 01:04
pytorch
深度学习
神经网络
Tensorflow2.0 model.compile详细介绍
Tensorflow2.0model.compile详细介绍语法结构:model.compile(loss=‘目标函数’,
optimizer
=
optimizer
,metrics=[‘accuracy’]
生活明朗,万物可爱,人间值得,未来可期
·
2022-11-25 22:26
tensorflow
深度学习
Keras框架,MLP网络训练MNIST数据集
importkerasfromkeras.datasetsimportmnistfromkeras.modelsimportSequentialfromkeras.layersimportDense,Dropoutfromkeras.
optimizer
simportRMSprop
.云哲.
·
2022-11-25 17:42
keras
【深度学习】分布式常见问题汇总(踩坑指南)
为什么还要手动管理数据集切分、分布式
optimizer
、参数更新这些脏活累活?难道没有一种框架屏蔽掉单机和分布式代码的差异,让我们愉快地写代码?答案是:
OneFlow深度学习框架
·
2022-11-25 16:40
分布式
java
编程语言
深度学习
大数据
pytorch之常用函数整理
之常用函数整理一、图像预处理函数1.1torchvision.datasets.ImageFolder()函数二、参数优化函数2.1torch.optim.lr_scheduler.StepLR()函数2.2
optimizer
.param_groups
西西先生666
·
2022-11-25 15:13
pytorch
pytorch
python
深度学习
【pytorch笔记】损失函数nll_loss
#训练forbatch_idx,(data,target)inenumerate(train_loader):data,target=data.to(device),target.to(device)
optimizer
.zero_grad
GentleCP
·
2022-11-25 14:12
机器学习(深度学习)
python
pytorch
pytorch
nll_loss
损失函数
坑中坑之Pytorch断点重新训练/恢复训练scheduler设置/last_epoch研究
问题描述去网上搜索了很多恢复训练的教程,大家都提到了保存模型/
optimizer
/epoch,但是有一个非常关键的点。你的更新模型策略设置的scheduler,是不能跟着一起保存的!
Mr.July
·
2022-11-25 13:48
深度学习
python
pytorch
Rep
Optimizer
学习笔记
Rep
Optimizer
学习笔记Re-parameterizingYour
Optimizer
sratherthanArchitecturesAbstract神经网络中设计良好的结构反映了纳入模型的先验知识
麻花地
·
2022-11-25 08:35
经典论文阅读
深度学习环境
深度学习
学习
自然语言处理
深度学习
adam优化_Keras的Adam优化器参数理解及自适应学习率
optimizer
--adam_小笨熊~~走向程序猿的~~历程~~专栏-CSDN博客blog.csdn.net在训练的过程中我们有时会让学习率随着训练过程自动修改,以便加快训练,提高模型性能。
weixin_39758229
·
2022-11-25 05:14
adam优化
Keras的Adam优化器decay理解及自适应学习率
AdaminKeras在Keras的Adam优化器中各参数如下:keras.
optimizer
s.Adam(lr=0.001,beta_1=0.9,
Haru,
·
2022-11-25 05:42
python
Adam优化器还需要加入学习率衰减吗?
在StackOverflow上有一个问题Shouldwedolearningratedecayforadam
optimizer
-StackOverflow,我也想过这个问题,对Adam这些自适应学习率的方法
不太冷的莱昂
·
2022-11-25 05:06
TensorFlow
深度学习
机器学习
人工智能
paddledetection在window使用cpu快速上手 & 在cpu端训练自己的VOC类型数据集
/runtime.yml','_base_/
optimizer
_40e.yml','_base_/yolov3_mobilenet_v1.yml','_
weixin_50862344
·
2022-11-24 22:16
#
paddle
目标检测
深度学习
人工智能
Pytoch各个组件
importosimportnumpyasnpimporttorchimporttorch.nnasnnfromtorch.utils.dataimportDataset,DataLoaderimporttorch.optimas
optimizer
tear藏
·
2022-11-24 22:02
python
深度学习
人工智能
pytorch Cosine Annealing LR
CosineAnnealingLRtorch.optim.lr_scheduler.CosineAnnealingLR(
optimizer
,T_max,eta_min=0,last_epoch=-1)这个学习率策略就是说
康康同学97
·
2022-11-24 19:13
pytorh学习记录
pytorch
深度学习
人工智能
torch.optim.lr_scheduler.CosineAnnealingWarmRestarts、OneCycleLR定义与使用
CosineAnnealingWarmRestarts(带预热的余弦退火)学习率方法定义torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(
optimizer
there2belief
·
2022-11-24 19:37
AI/ML/DL
python
pytorch
开发语言
CosineAnnealingLR学习率更新与热重启SGDR的关系
CosineAnnealingLRtorch.optim.lr_scheduler.CosineAnnealingLR(
optimizer
,T_max,eta_min=0,last_epoch=-1,verbose
ゞωáиɡホ辛鴻ゾ
·
2022-11-24 19:36
pytorch
深度学习
JavaScript玩转机器学习:训练模型
将CoreAPI与结合使用
Optimizer
.minimize()。首先,我们将研究LayersAPI,这是用于构建和训练模型的高级API。然后,
星河_赵梓宇
·
2022-11-24 14:16
JavaScript
模型转换技术要点解读
模型转换技术,是通过OpenVINO™工具套件中的模型优化器(Model
Optimizer
,简称MO,以下提到的MO均指代模型优化器)将预训练好的模型进行格式转换以及拓扑优化的技术。
英特尔边缘计算社区
·
2022-11-24 09:05
OpenVINO
神经网络
pytorch
深度学习
Pytorch中调用cuda的方法及可以使用cuda的对象
1.网络模型(module)2.数据(输入imgs、标注target/label)3.损失函数(
optimizer
)一、Pytorch中怎么调用cuda?
natsuiroginga
·
2022-11-24 07:59
Deep
Learning
python
计算机视觉
机器学习
深度学习
pytorch
pytorch快速上手(8)-----pytorch优化器简介
文章目录一、简介二、
optimizer
属性方法1.zero_grad()2.step()3.add_param_group()4.state_dict()5.load_state_dict()学习率动量三
All_In_gzx_cc
·
2022-11-24 07:25
【pytorch】
【AI模型训练与部署】
【CV论文及数学原理】
pytorch
深度学习
pytorch 设置学习率逐层递减
'params':p,'lr':(1e-3)*0.8**i}fori,(n,p)inenumerate(list(reversed(list(model.named_parameters())))))
optimizer
防搞活机
·
2022-11-24 02:58
pytorch
学习
深度学习
上一页
19
20
21
22
23
24
25
26
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他