E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
learning_rate
FLAGS = tf.app.flags.FLAGS
flags=tf.app.flagsFLAGS=flags.FLAGSflags.DEFINE_float('
learning_rate
',0.01,'Initiall
朝花偏不夕拾W
·
2020-08-22 23:17
从零开始:白话sklearn.ensemble.GradientBoostingRegressor
问题源:sklearn.ensemble.GradientBoostingRegressor(loss=’ls’,
learning_rate
=0.1,n_estimators=100,subsample
小白菜_scc
·
2020-08-22 15:48
rnn-nlp-单词预测
simple-examples/data/'#数据存放路径VOCAB_SIZE=10000#单词数量#神经网络参数HIDDEN_SIZE=200#LSTM隐藏层规模NUM_LAYERS=2#LSTM结构层数
LEARNING_RATE
weixin_30347009
·
2020-08-22 14:42
【TensorFlow】TensorFlow函数精讲之tf.train.exponential_decay()
tf.train.exponential_decay格式:tf.train.exponential_decay(
learning_rate
,global_,decay_steps,decay_rate,
SophiaCV
·
2020-08-22 12:05
TensorFlow函数精讲
【Tensorflow】1.x版本中的各种学习率策略
tf.train.cosine_decay余弦衰减tf.train.cosine_decay(
learning_rate
,global_step,decay_steps,alpha=0.0,name=None
heiheiya
·
2020-08-22 01:49
tensorflow
(二)tensorflow入门之使用tensorflow预测一元一次函数的参数(梯度下降法)
GradientDescentOptimizer的初始化函数如下:__init__(
learning_rate
,use_locking=False,name='GradientDescent')其中
learning_rate
xuzkbd
·
2020-08-21 23:17
TensorFlow
NameError: name 'XXX' is not defined
出现问题可能是在在上面函数中定义了
learning_rate
,而下面是是顶格。python和C/C++不同的地方是python的缩行代表了变量作用的范围。
于小勇
·
2020-08-21 22:43
异常处理
Training注意事项
1.lr_rate=tf.train.exponential_decay(
learning_rate
,global_step,4000,0.96,staircase=True)optimizer=tf.train.MomentumOptimizer
yalesaleng
·
2020-08-20 12:41
PyTorch项目应用实例(四)设置
learning_rate
的decay
背景:训练的过程之中,需要对learningrate设置decay。我们现在设置learningrate,然后将它进行衰减,从而获得更好的效果。目录一、标准做法二、learningrate用于训练2.1我们的程序的嵌套2.2adjustlearningrate2.3我们的方案一、标准做法很容易看懂,直接用lr_scheduler.StepLR(optimizer_ft,step_size=5,ga
祥瑞Coding
·
2020-08-19 05:58
机器学习
PyTorch
TensorFlow 学习率的设置
tensorflow.train.exponential_decay(learing_rate,global_step,decay_steps,decay_rate,staircase=False,name=None)Args:
learning_rate
rongruosong
·
2020-08-19 03:49
TensorFlow
Tensorflow 神经网络优化 关于损失函数 loss
learning_rate
softmax
TableofContents损失函数(loss)一、激活函数activationfunction二、NN复杂度:多用NN层数和N参数的个数表示NN优化目标:loss最小交叉熵cesoftmax函数学习率
learning_rate
CASTANEA
·
2020-08-19 00:39
机器学习
Tensorflow
作业六:三层神经网络调参_刘强
获得一定的项目经验,提高编程能力这个作业在哪个具体方面帮助我实现目标尝试三层神经网络调参,理解参数的意义我的GitHub链接https://github.com/QiangLiu404正文1.参数列表:
learning_rate
weixin_30627341
·
2020-08-18 17:36
梯度下降法详解
对于最简单的线性回归问题,我们假设其损失函数那么梯度下降的基本形式就是其中,为学习率(
learning_rate
)。下一步便是要将损失函数最小化,需要对J(θ)求导:我们来看看是什么样子的。
深度技术宅
·
2020-08-18 13:02
梯度下降法
最优化
机器学习
基于LSTM的Chatbot实例(4) — 基于SGD的模型参数训练及优化
模型使用均方误差作为损失函数,使用SGD算法(随机梯度下降)算法来训练模型参数,实例中代码如下:net=tflearn.regression(real_output_sequence,optimizer='sgd',
learning_rate
晨丢丢
·
2020-08-18 12:29
tensorflow
ML
退化学习率——在训练速度和精度之间找到平衡
每一个优化器的第一个参数
learning_rate
代表学习率。设置学习率的大小,是在精度和速度之间找到一个平衡点。如果学习率比较大,则训练速度会提升,但结果的精度不够。
cakincheng
·
2020-08-18 10:56
人工智能
item2vec model 参考word2vec 【tensorflow】有点慢
absolute_importimportioimportcollectionsimportrandomimportnumpyasnpimportpandasaspdimporttensorflowastffrompast.builtinsimportxrange#训练参数
learning_rate
超哥_cn
·
2020-08-18 03:41
XGBClassifier 参数解释
fromxgboostimportXGBClassifierXGBClassifier(base_score=0.5,booster='gbtree',colsample_bylevel=1,colsample_bynode=1,colsample_bytree=1,gamma=0,
learning_rate
DemonHunter211
·
2020-08-17 23:35
深度学习
自动机器学习AutoML(二)——自动网络结构搜索算法
进行训练神经网络训练完后得到准确率计算控制器梯度梯度回传把所有参数都存在一组服务器上,把所有的模型训练放在一组工作节点上同步和异步两种方式一般会采用异步的实现细节两层LSTM,每层长度为35Adam优化器,
learning_rate
hxxjxw
·
2020-08-17 22:05
AutoML
argparse解析命令
argparse.ArgumentParser()#然后增加命令行#对于函数add_argumen()第一个是选项,第二个是数据类型,第三个默认值,第四个是help命令时的说明parse.add_argument("--
learning_rate
Frankie_He
·
2020-08-17 22:50
Python
lgbm输出特征重要性
lgb_clf=lgb.LGBMClassifier(objective='binary',num_leaves=35,max_depth=6,
learning_rate
=0.05,seed=2018,
Jellyqin
·
2020-08-17 19:20
【百度飞桨强化学习7日打卡营】DQN解决MountainCar 不同 超参数“学习率”调参
DQN解决MountainCar不同超参数“学习率”情况下的比较【百度飞桨强化学习7日打卡营】作业3DQN解决MountainCar针对作业里面的超参数“
LEARNING_RATE
”选择进行了实际测试。
babalvlv
·
2020-08-17 12:19
the general framework of RL_DQN
RL.git)importtensorflowastfimportnumpyasnpclassDeepQNetwork:#initializeparameterdef__init__(self,gamme,
learning_rate
i_CHeshire_cat
·
2020-08-17 00:40
学习笔记
强化学习-DQN
Sess.run()解释下
tf.nn.softmax_cross_entropy_with_logits(logits=pred,labels=labels_placeholder))#交叉熵比较计算值与labeloptimizer=tf.train.AdamOptimizer(
learning_rate
BobKings
·
2020-08-16 23:19
小tip
【持续更新】tensorflow学习中的一些笔记
指数衰减函数的参数和计算方程:tensorflow提供了一个灵活的学习率设置方法,指数衰减函数tf.train.exponential_decay(),它的计算实现如下:decayed_learning_rate=
learning_rate
Sengo_1993
·
2020-08-16 11:41
Machine
Learning
pytorch入门(1)
torch.randn(N,D_out)w1=torch.randn(D_in,H,requires_grad=True)w2=torch.randn(H,D_out,requires_grad=True)
learning_rate
zjy2015302395
·
2020-08-14 00:38
phd
pytorch
从零使用强化学习训练AI玩儿游戏(6)——使用DQN(TensorFlow)
我们来继续讲讲神经网络DQN的搭建下面是初始化神经网络的函数def__init__(self,n_actions,#需要输出多少个action的值,就是控制的动作如左右n_features,#要接受多少个观测状态
learning_rate
蛋烘糕
·
2020-08-13 19:34
机器学习
神经网络优化之学习率的设置(tensorflow)
学习率
learning_rate
:每次参数更新的幅度学习率设置多少合适学习率大了震荡不收敛,学习率小了收敛速度慢。
菜鸟的梦幻日记
·
2020-08-13 17:38
深度学习
学习率
Python
optimizer--adam
1、tensorflowtf.train.AdamOptimizer()只需要调整学习率就可以了def__init__(self,
learning_rate
=0.001,beta1=0.9,beta2=
驿无边
·
2020-08-13 12:11
AI学习
TensorFlow中优化DNN模型tips
TensorFlow中优化DNN模型tips一、学习率的设置指数衰减法–tf.train.exponential_decayexponential_decay(
learning_rate
,global_step
大树先生的博客
·
2020-08-13 11:11
TensorFlow
TensorFlow
深度学习
机器学习
芝麻HTTP:TensorFlow LSTM MNIST分类
初始化首先我们可以先初始化一些变量,如学习率、节点单元数、RNN层数等:
learning_rate
=1e-3num_units=256num_layer=3input_size=28time_step=
weixin_34387284
·
2020-08-11 19:00
反向传播之梯度下降法
使用tensorflow的函数可以表示为:train_step=tf.train.GradientDescentOptimizer(
learning_rate
).minimiz
niewzh
·
2020-08-10 09:04
Python科学计算
莫烦python强化学习系列-DQN学习(代码)
tf.set_random_seed(1)#DeepQNetworkoff-policyclassDeepQNetwork:def__init__(self,n_actions,n_features,
learning_rate
cy冲鸭
·
2020-08-09 15:12
强化学习
深度学习模型中的学习率调整
学习率越小,损失梯度下降的速度越慢,收敛的时间更长,如公式所示:new_weight=existing_weight—
learning_rate
*gradient(新权值=当前权值–
大笨熊。。。
·
2020-08-08 17:59
TensorFlow
图神经网络
深度学习
Tensorflow2.x 模型保存和加载(ValueError: No model found in config file.)
在自定义模型时遇到了一个问题:Traceback(mostrecentcalllast):File"/data/projects/sysml/resNetAll/main.py",line100,in'
learning_rate
Hubinbin2018
·
2020-08-08 14:54
tensorflow
python
生存预测 : kaggle titanic 泰坦尼克号 逻辑回归(Logistic回归) tensorflow版
titanic/datatitanic.pyimporttensorflowastfimportpandasaspdTRAIN_PATH="train.csv"TEST_PATH="test.csv"
LEARNING_RATE
scpy
·
2020-08-06 13:51
tf.estimator.Estimator解析
以及如何对这个模型进行训练和评估,classEstimator(builtins.object)可以按照下面方式创建一个Edefresnet_v1_10_1(features,labels,mode,params):
learning_rate
wanghua609
·
2020-08-06 13:00
线性回归的代码实现
8-*-importnumpyasnpimportpylabdefLoss(b,m,x,y):L1=(y-m*x-b)**2L2=np.sum(L1,axis=0)returnL2defGD(m,b,
learning_rate
CTTACM
·
2020-08-05 04:46
机器学习
强化学习 Sarsa算法学习笔记
对比Sarsa和Q-learning算法案例对比importnumpyasnpimportpandasaspdclassRL(object):def__init__(self,action_space,
learning_rate
猫十一.
·
2020-08-04 21:38
pytorch训练神经网络loss刚开始下降后来停止下降的原因
问题提出:用pytorch训练VGG16分类,loss从0.69下降到0.24就开始小幅度震荡,不管如何调整batch_size和
learning_rate
都无法解决。
yjyn1
·
2020-08-04 02:25
YOLOv3学习率
YOLOv3官方版本的学习率配置信息在模型配置文件*.cfgfile中:
learning_rate
:标准学习率burn_in:学习率从0上升到
learning_rate
的batch数目max_batches
松菇
·
2020-08-04 01:19
YOLOv3学习
TensorFlow入门基础知识(七)tf.train.exponential_decay的用法
tf.train.exponential_decay(
learning_rate
,global_step,decay_steps,decay_rate,staircase=False,name=None
Hollake
·
2020-07-29 15:43
TensorFlow
lgb参数
中文文档参数params={#default=0.1,type=double,alias=shrinkage_rate'
learning_rate
':0.2,#default=regression,任务类型
安于此生_
·
2020-07-28 05:03
python数据分析
决策树参数调优建议
建议参数调整策略为:–采用默认参数配置试试–如果系统过拟合了,降低学习率–如果系统欠拟合,加大学习率建议二:–n_estimators和
learning_rate
:固定n_estimators为100(
二月鳥
·
2020-07-27 21:50
人工智能
机器学习理论
Tensorflow在linux中运行的时候进入的一些坑及自己找到的一些办法
入坑1:Linux的批处理文件.sh文件命令的连接符问题2:objectdection测试代码中,测试出来的图像不显示3:在进行对Google官方代码修改的时候,如果进行对学习率
learning_rate
possble
·
2020-07-16 07:38
tensorflow
利用tensorflow模拟线性回归
importtensorflowastfimportnumpyasnpimportmatplotlib.pyplotaspltimportosos.environ['TF_CPP_MIN_LOG_LEVEL']='2'#指定参数
learning_rate
cyj5201314
·
2020-07-15 22:48
tensorflow
ValueError: Shape must be rank 0 but is rank 1 for ‘Adam/update_weight/ApplyAdam‘ (op: ‘ApplyAdam‘)
原代码:self.lr=tf.placeholder(shape=[1],dtype=tf.float32,name="
learning_rate
")。。。。。。
gyl2016
·
2020-07-15 18:33
tensorflow
RMSProp/Momentum/Adam/AdamW,多种优化器详解及伪代码实现
多种梯度更新方法——都是对GradientDescent的优化传统GDx=x-lr*grad_xAdaGrad——不同方向的梯度应该可以不同为了解决不同方向上梯度涨落速度不一致的情况,所以相当于给每个方向不同的
learning_rate
illusion_小驴
·
2020-07-13 19:27
bert
调参
NLP
随机梯度下降法实例
学习率
learning_rate
:表示了每次参数更新的幅度大小。学习率过大,会导致待优化的参数在最小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢。
weixin_33881753
·
2020-07-13 18:42
PyTorch1.0学习 之 手把手实现梯度下降和线性回归
PyTorch1.0###############################不使用PyTorch做一个简单的梯度下降##############################importtorchx=0#学习率
learning_rate
Line_Walker
·
2020-07-13 10:23
PyTorch
深度学习
PyTorch专栏
PyTorch官方教程 - Getting Started - 60分钟快速入门 - 神经网络
forward(input)方法返回输出训练神经网络一般步骤:定义神经网络、可学习参数(权值)遍历输入数据集前向传播计算损失(输出与真实值距离)反向传播梯度更新网络权值,weight=weight−
learning_rate
K5niper
·
2020-07-12 19:42
PyTorch官方教程
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他