E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
learning_rate
推荐算法—FM算法实现
Model:importtensorflowastfclassFMModel:def__init__(self,
learning_rate
,lambda_w,lambda_v,regular,k,p):
kang_james
·
2020-02-27 12:33
TensorFlow实现指数衰减学习率的方法
tf.train.exponential_decay(
learning_rate
,global_step,decay_steps,decay_rate,staircase,
stepondust
·
2020-02-05 10:45
有关Tensorflow梯度下降常用的优化方法分享
1.tf.train.exponential_decay()指数衰减学习率:#tf.train.exponential_decay(
learning_rate
,global_steps,decay_steps
数学改变世界
·
2020-02-04 12:02
XGBoost模型保存与读取(多分类问题)
importpicklefromxgboostimportXGBClassifier#trainmodel_xg=XGBClassifier(n_estimators=20,
learning_rate
=
再见OrG
·
2020-01-12 03:57
机器学习
XGBoost
基于Tensorflow的神经网络解决用户流失概率问题
注意,已经很多很多人和我说最后的loss不变,大家的数据都不一样,如果发现loss不变请降低
learning_rate
=1e-6,就可以解决,还有问题的话,公众号里面联系我,帮助大家搞定。
slade_sal
·
2020-01-07 01:19
Tensorflow 可变学习率 learning rate
Exponentialdecay#decayed_learning_rate=
learning_rate
*#decay_rate^(global_step/decay_steps)#ucanusehelp
lucientlau
·
2019-12-24 03:11
Tensorflow 梯度裁剪--防止梯度爆炸
设置优化器:optim=tf.train.AdamOptimizer(
learning_rate
=self.learning_rate)计算梯度:gradients=optim.compute_gradients
Johann_Liang
·
2019-11-08 15:18
20170829
tensorflowlogisticregressionimporttensorflowastffromtensorflow.examples.tutorials.mnistimportinput_datamnist=input_data.read_data_sets("mnist/",one_hot=True)
learning_rate
Do_More
·
2019-11-03 21:07
Tensorflow:Adam Optimizer使用
tf.train.AdamOptimizer官网接口文档def__init__(self,
learning_rate
=0.001,beta1=0.9,beta2=0.999,epsilon=1e-8,use_locking
LoveSkye
·
2019-10-23 20:59
GBDT--回归篇
sklearn源码解读sklearn.ensemble.GradientBoostingRegressorsklearn.ensemble.GradientBoostingRegressor(loss=’ls’,
learning_rate
_ReLU_
·
2019-10-22 11:12
机器学习
#
回归任务
使用TensorFlow v2库实现线性回归
future__importabsolute_import,division,print_functionimporttensorflowastfimportnumpyasnprng=np.random#参数
learning_rate
磐创 AI
·
2019-10-21 11:24
机器学习
BP神经网络python代码实现
首先直接上代码,后面有时间再把代码里面的详解写出来,importnumpyasnpimportrandomclassneru_bp():def__init__(self,
learning_rate
=.2
心中藏着一个猛兽
·
2019-10-17 15:51
神经网络
深度学习
04-04 AdaBoost算法代码(鸢尾花分类)
目录AdaBoost算法代码(鸢尾花分类)一、导入模块二、导入数据三、构造决策边界四、训练模型4.1训练模型(n_e=10,l_r=0.8)4.2可视化4.3训练模型(n_estimators=300,
learning_rate
十七岁的有德
·
2019-10-16 17:00
利用TensorFlow实现CNN解决手写数字识别问题
importtensorflowastffromtensorflow.examples.tutorials.mnistimportinput_datamnist=input_data.read_data_sets("data/",one_hot=True)
learning_rate
SSVV
·
2019-10-06 18:27
深度学习
darknet分类,迁移学习,还没有达到预期,学习率降为0了,怎么破?
网络更新所用的学习率为:
learning_rate
/batch_size,所以学习率不能太小,比如如果学习率设置为0.01,batch=128,那么实际计算的学习率就是0.000078,非
haimianjie2012
·
2019-09-16 11:35
深度学习
BERT 打印loss
google-research/bertifmode==tf.estimator.ModeKeys.TRAIN:train_op=optimization.create_optimizer(total_loss,
learning_rate
guotong1988
·
2019-09-05 10:10
TensorFlow
自然语言处理NLP
sklearn 中的 GBDT 回归
sklearn的gbdt回归GradientBoostingRegressor类构造方法def__init__(self,loss='ls',
learning_rate
=0.1,n_estimators
张筱竼
·
2019-09-04 16:46
sklearn
GBDT
python
机器学习
sklearn.ensemble.AdaBoostClassifier()函数解析(最清晰的解释)
classsklearn.ensemble.AdaBoostClassifier(base_estimator=None,n_estimators=50,
learning_rate
=1.0,algorithm
我是管小亮 :)
·
2019-09-02 00:00
#
Sklearn
关于warm_up学习率
warmup:Runa5epochwarmuptotheinitiallr.1warm_up核心代码
learning_rate
=cfg.learning_rate boundaries=cfg.lr_steps
云net
·
2019-07-25 15:03
ML&DL
pytorch学习笔记(3) 动态调整学习率和hook函数的使用
pytorch学习笔记(3)动态调整学习率和hook函数的使用.动态调整学习率defadjust_learning_rate(optimizer,epoch,params):lr=params["
LEARNING_RATE
wanglei_1996
·
2019-07-23 00:53
深度学习
Python学习
Pytorch
梯度下降例子——python代码
代码示例如下:if__name__=="__main__":
learning_rate
=0.01#步长#原始函数为y=4x^2-2x+3利用梯度下降求解其当x为多少时其有最小值,且最小值为多少x=5#初始值
WilliamCHW
·
2019-07-10 10:27
梯度下降例子
python
Machine
Learning
TensorFlow优化算法 tf.train.AdamOptimizer 简介
一、算法流程初始化:更新规则:二、参数定义__init__(
learning_rate
=0.001,beta1=0.9,beta
polyhedronx
·
2019-06-23 20:15
python
TensorFlow
【tf.keras】Resource exhausted: OOM when allocating tensor with shape [9216,4096] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc
model=tf.keras.Model(inputs=inputs,outputs=outputs)model.summary()adam_opt=tf.keras.optimizers.Adam(
learning_rate
wuliytTaotao
·
2019-06-04 14:00
PyTorch中正则化设置相关
这几天训练CNN模型,发现自己模型严重过拟合,因为用的是PyTorch框架,就查了一下相关代码PyTorch中优化器部分:optimizer=optim.Adam(model.parameters(),lr=
learning_rate
诗忘花落
·
2019-05-30 13:44
PyTorch
基于RNN的MNIST数据集分类实现
1.超参数定义#超参数定义(hyperparameters)
LEARNING_RATE
=0.001TRAINING_ITER=10000BATCH_SIZE=128INPUT_DIMS=28HIDDEN_DIMS
juicetech
·
2019-05-22 18:45
深度学习参数更新
几种常见的参数更新方式1)SGDx+=-
learning_rate
*dx2)Momentumupdate#Momentumupdatev=mu*v-learning_rate*dx#integratevelocityx
Teng1996
·
2019-05-19 13:05
机器学习
深度学习
GBDT梯度提升树算法及官方案例
GBDT梯度提升树算法及官方案例GBDT分类实战总结loss:选择损失函数,默认值为ls(leastsqures)
learning_rate
:学习率,模型是0.1n_estimators:弱学习器的数目
Kyrie_Irving
·
2019-05-06 16:07
我的第一个感知机!!!(哭了
importnumpyasnpimportioclassPerceptron(object):#输入节点初始化权重和偏置常数b(假设与偏置常数相乘的输入值一直为0)def__init__(self,inode_num,
learning_rate
Liiipseoroinis
·
2019-04-25 17:46
ML
polynomial_decay多项式学习率迭代策略详解
tf.train.polynomial_decay(
learning_rate
,global_step,decay_steps,end_learning_rate=0.0001,power=1.0,cycle
raincchio
·
2019-04-24 12:51
人工智能实战第6次作业_许骏鹏
作业要求项目内容这个作业属于哪个课程人工智能实战这个作业的要求在哪里第六次作业要求我在这个课程的目标是获得实战经验这个作业在哪个具体方面帮助我实现目标学习调整参数增加模型准确度二、作业正文主要参数列表:learning_raten_hidden1n_hidden2m_epochbatch_size(一)、epoch次数其他参数
learning_rate
到下面玩跑步
·
2019-04-22 13:00
PyTorch实现一个简单的神经网络
numpy实现线性回归PyTorch实现线性回归3.PyTorch实现一个简单的神经网络1.numpy和pytorch实现梯度下降法设定初始值求取梯度在梯度方向上进行参数的更新numpyx=0#学习率
learning_rate
devcy
·
2019-04-09 01:49
PyTorch
minimize()的详细讲解笔记
optimizer.minimize(loss,var_list)loss=...opt=tf.tf.train.GradientDescentOptimizer(
learning_rate
=0.1)train_op
loveEconomics
·
2019-04-03 18:35
tensorflow随笔-正则化与指数衰减率
decayed_learning_rate=
learning_rate
*decay_rate^(global_step/decay_steps)decay_rate衰减系数decay_steps衰减速度当
AI_LX
·
2019-04-01 00:00
AI
tf.train.AdamOptimizer()函数解析
__init__(
learning_rate
=0.001,beta1=0.9,beta2=0.999,epsilon=1e-08,use_locking=False,name='Adam')参数:
learning_rate
我是管小亮 :)
·
2019-03-31 19:36
#
TensorFlow
机器学习-线性回归 Linear Regression
#线性回归模型算法importnumpyasnpimportmatplotlib.pyplotaspltdefgradient_descent(X,Y,iteration=200,
learning_rate
BrianLi_
·
2019-03-27 08:42
算法
利用全连接网络将图片进行分类
importtensorflowastf#定义参数
learning_rate
=0.001training_epochs=25batch_size=100display_step=1#设置网络模型参数#第一个隐藏层节点个数
SigelKoo
·
2019-03-25 12:25
机器学习
tensorflow报错:'GradientDescentOptimizer' object has no attribute 'minimizer'
今天用Tensor跑手写数字识别的时候遇见这样一个错误:optimizer=tf.train.GradientDescentOptimizer(
learning_rate
=
learning_rate
).
荒野雄兵
·
2019-02-28 20:08
人工智能
开了batch_norm,训练集acc很高,而测试集acc很低怎么解决
initializer=tf.constant_initializer(0.0),trainable=False)optimizer=tf.train.GradientDescentOptimizer(
learning_rate
china026
·
2019-02-27 20:44
深度学习
tensorflow 梯度下降方法小结
train=tf.train.GradientDescentOptimizer(
learning_rate
=0.1).minimize(cost)以下是除梯度下降之外可选的方法:tf.train.AdadeltaOptimizertf.train.AdagradOptimizertf.train.AdagradDAOptimizertf.train.MomentumOptim
从流域到海域
·
2019-02-15 17:54
tensorflow
第8章 提升方法(AdaBoost)课后习题解答
===============第8章提升方法(AdaBoost)课后习题解答8.1弱分类器为决策树,感觉跟书中例题8.1很像,原来是用[features_min,features_max],step=
learning_rate
breeze_blows
·
2019-02-13 09:40
第8章
提升方法(AdaBoost)
课后习题
决策树
《统计学习方法》
《统计学习方法》
TensorFlow优化器GradientDescentOptimizer
类GradientDescentOptimizer继承自:Optimizer这是一个实现实现梯度下降算法的优化器类,用于构造一个新的梯度下降优化器实例构造器方法__init____init__(
learning_rate
拼命先生A
·
2019-02-12 01:38
TensorFlow
python实现lightgbm以及重要参数解析
lightgbm参数解析max_depth:树的深度num_leaves:树的最大叶子节点数objective:目标函数min_data_in_leaf:一个叶子上最小数据量
learning_rate
:
Adm1rat1on
·
2019-01-04 16:45
机器学习
LVQ 学习向量量化 聚类 python 实现 以及 一些 思考
importnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltdefLVQ(X,y,n_clusters,
learning_rate
=0.1):#
csdn_inside
·
2018-12-25 21:44
机器学习
用python实现LSTM
importnumpyasnp#定义一个LSTM类(input_width是输入数据的张量大小,state_width是状态向量的维度,
learning_rate
是学习率)classLstmLayer(
布衣书生-Python
·
2018-12-20 20:35
LSTM
TF训练相关函数
1.指数衰减学习率目的:一开始较快速度收敛之后快收敛时,更加稳定得收敛至最优解defexponential_decay(
learning_rate
,global_step,decay_steps,decay_rate
Wzz_Liu
·
2018-12-14 20:46
[机器学习算法] 梯度下降 python实现(线性回归)
importmatplotlib.pyplotaspltimportnumpyasnpclassLinear_Regression():def__init__(self,data,theta0,theta1,
learning_rate
GreenTeemo
·
2018-12-13 19:26
Machine
Learning
在mnist数据集上实现卷积神经网络
/datasets",one_hot=True,reshape=False)#参数
learning_rate
=0.00001epochs=10batch_size=128#用来验证和
Adm1rat1on
·
2018-11-30 15:39
机器学习
人工智能
03使用tensorflow实现逻辑回归(mnist数据集)
importtensorflowastfimportnumpyimportmatplotlib.pyplotaspltfromtensorflow.examples.tutorials.mnistimportinput_datarng=numpy.random#设置训练参数
learning_rate
王涛_a3eb
·
2018-11-08 15:53
sklearn:梯度提升正则化
通过收缩的规则化(
learning_rate
<1.0)可以显着提高性能。与收缩相结合,随机梯度增强(子样本<1.0)可以通过减少包装的方差来产生更准确的模型。没有收缩的子采样通常效果不佳。
颠沛的小丸子
·
2018-11-06 20:01
python
sklearn
对于tensorflow学习率的理解:global_step;decay_steps
tf.train.exponential_decay(
learning_rate
,global_step,decay_steps,decay_rate,staircase=False,name=None
Hero_Never_GIVE_UP
·
2018-11-01 23:15
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他