E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
learning_rate
数据竞赛(四)模型及调优
一、模型1.GBDTGBoost=GradientBoostingRegressor(n_estimators=3000,
learning_rate
=0.04,max_depth=6,max_features
雪糕cool
·
2020-07-12 11:51
数据竞赛
python命令行解析argparse
首先导入命令行解析模块importargparseimportsys然后创建对象parse=argparse.ArgumentParser()然后增加命令行parse.add_argument("--
learning_rate
tiankong_hut
·
2020-07-11 17:04
Python学习
TensorFlow神经网络(二)反向传播
loss=tf.reduce_mean(tf.square(y_-y))#反向传播的训练方法/优化器:##梯度下降train_step=tf.train.GradientDescentOptimizer(
learning_rate
petSym
·
2020-07-11 14:41
python
tensorflow
machine
learning
Python中argparse
sys)sys.setdefaultencoding('utf8')#然后创建对象parse=argparse.ArgumentParser()#然后增参数parse.add_argument("--
learning_rate
菜小白—NLP
·
2020-07-10 20:10
Python
tensorflow(2):神经网络优化(loss,
learning_rate
)
案例:预测酸奶的日销量,由此可以准备产量,使得损失小(利润大),假设销量是y,影响销量的有两个因素x1,x2,需要预先采集数据,每日的x1,x2和销量y_,拟造数据集X,Y_,假设y_=x1+x2,为了更真实加一个噪声(-0.05-0.05)batch_size=8#一次喂给神经网络多少数据seed=23455#构造数据集rdm=np.random.RandomState(seed)#基于seed
weixin_30835933
·
2020-07-10 07:23
python argparse模块
argparse是一个python中的命令行解析模块parser=argparse.ArgumentParser();#创建解析实例对象parser.add_argument("--
learning_rate
律动的时间线
·
2020-07-10 04:24
神经网络更新参数的几种方法
梯度下降中,计算完各个参数的导数之后就需要更新参数值了,最常用的更新参数方法就是:【SGD】:x+=-
learning_rate
*dx但是这种方法收敛速度非常慢,其实除了这个更新参数的方法,还有很多的方法可以进行参数更新
luchi007
·
2020-07-10 03:54
深度学习
训练自己的图像分类器的详细过程(Xception,cifar10)
tf.kerasfromtensorflowimportkerasimporttensorflowastfimportmatplotlib.pyplotaspltconfig={'model_path':'my_model.h5','
learning_rate
JK Chen
·
2020-07-09 18:12
python
机器学习
【机器学习】LR(逻辑分类&softmax分类)—— python3 实现方案
importnumpyasnpfromsklearnimportpreprocessingfromsklearnimportdatasetsclassLogisticRegression:def__init__(self,
learning_rate
zhenghaitian
·
2020-07-09 05:01
机器学习
YOLOv3训练过程记录
rsm_strategy":{"
learning_rate
":0.001,"lr_epochs":[40,80,120,160],"lr_decay":[1,0.5,0.25,0.1,0.02],}初始的学习率测试过
阿奴波仔
·
2020-07-06 08:27
paddlepaddle
深度学习
文字检查
tensorflow中的关键字global_step使用
global_step经常在滑动平均,学习速率变化的时候需要用到,这个参数在tf.train.GradientDescentOptimizer(
learning_rate
).minimize(loss,
UESTC_C2_403
·
2020-07-05 18:33
tensorflow用法
tensorflow中的关键字global_step使用
global_step经常在滑动平均,学习速率变化的时候需要用到,这个参数在tf.train.GradientDescentOptimizer(
learning_rate
).minimize(loss,
牛腩面
·
2020-07-05 12:14
tensorflow
深度学习
对比XGBoost.cv和sklearn中的交叉验证
xgboost.cvsklearn接口,比如xgboost.XGBClassifier,xgboost.XGBRegressor两种接口有些许不同,比如原生接口的学习率参数是eta,sklearn接口的是
learning_rate
schdut
·
2020-07-05 11:30
机器学习
tf.train.AdamOptimizer()函数解析
__init__(
learning_rate
=0.001,beta1=0.9,beta2=0.999,epsilon=1e-08,use_locking=False,name='Adam')参数:
learning_rate
燕山-赵凯月
·
2020-07-05 07:09
tensorflow
tensorflow优化器
Tensorflow提供了多种方式实现反向传播和梯度下降过程,通用的方式为:tf.train.GradientDescentOptimizer(
learning_rate
=0.1).minimize(loss
Realmhang
·
2020-07-05 03:22
tensorflow
TensorFlow 中关于 gloable_step 的理解
另外在指数衰减中,实现了decayed_learning_rate=
learning_rate
*decay_rate^(gloable_step/decay_step)其他几个参数很好理解,分别是初始学习率
你不是叶秋
·
2020-07-05 03:04
深度学习
TensorFlow
gloable_step
学习率
指数衰减法
机器学习
tensorflow函数中minimize()函数
使用方法opt=tf.tf.train.GradientDescentOptimizer(
learning_rate
=0.1)train_op=opt.minimize(loss)minimize的内部存在两个操作
中小学生
·
2020-07-05 03:43
深度学习
sklearn.neural_network.MLPRegressor参数介绍
sklearn.neural_network.MLPRegressor(hidden_layer_sizes=(100,),activation=‘relu’,solver=‘adam’,alpha=0.0001,batch_size=‘auto’,
learning_rate
一个在成长的程序猿
·
2020-07-04 23:38
深度学习
【ML从入门到入土系列07】AdaBoost
2代码classAdaBoost:def__init__(self,n_estimators=50,
learning_rate
=1.0):self.clf_num=n_estimatorsself.learning_rate
小陈说CV
·
2020-07-04 13:46
ML
基础
机器学习
AdaBoost
tensorflow中的关键字global_step使用
global_step经常在滑动平均,学习速率变化的时候需要用到,这个参数在tf.train.GradientDescentOptimizer(
learning_rate
).minimize(loss,
UESTC_C2_403
·
2020-07-04 08:52
tensorflow用法
训练笔记 Fine tune my first semantic segmentation model using mxnet [3] 如何实现每n个epoch调整
learning_rate
正如Deeplab-v2所做的一样,每经过一定的iteration对learningrate进行调整,无论是使用steppolicy还是polypolicy,都需要由当前迭代次数来决定。翻了各种文档和issue,总结出在mxnet中,目前有两种方式可以实现。参考:https://github.com/dmlc/mxnet/issues/540https://github.com/dmlc/mxne
麦兜胖胖次
·
2020-07-02 10:03
TensorFlow 学习率 learning rate 指数衰减法。
decayed_learning_rate=
learning_rate
*(decay_rate^(global_steps/decay_steps)其中:decay_steps为衰减速度,可以理解为完整
gangeqian2
·
2020-07-02 00:22
tensorflow
【机器学习】CNN(简化模型)—— python3 实现方案
importnumpyasnpfromscipy.ioimportloadmatclassCNN:def__init__(self,layer1=2,
learning_rate
=0.1,iters=10000
zhenghaitian
·
2020-06-30 15:43
机器学习
AdaGrad(自适应梯度算法),Adaptive
AdaGrad会为参数的每个元素适当的体哦阿正学习率#coding:utf-8importnumpyasnpclassAdaGrad:def__init__(self,
learning_rate
=0.01
我是小杨我就这样
·
2020-06-29 13:00
深度学习入门
batch normalization代码实现
importtensorflowastffromtensorflow.python.trainingimportmoving_averagesclassModel:def__init__(self,is_train,
learning_rate
染出芬芳。
·
2020-06-29 06:21
学习笔记(04):轻松入门Tensorflow-LeNet模型训练与预测
utm_source=blogtoedu超参数设置epoch:训练轮数batch_size:批大小
learning_rate
:学习率深度学习中,主要调整以上参数优化器:优化算法adam_optimizer
小白菜mr_z
·
2020-06-29 01:06
研发管理
sklearn 神经网络MLPclassifier参数详解
classsklearn.neural_network.MLPClassifier(hidden_layer_sizes=(100,),activation=’relu’,solver=’adam’,alpha=0.0001,batch_size=’auto’,
learning_rate
堂姐在这儿。
·
2020-06-28 20:21
机器学习
sklearn
详解代码
神经网络优化算法如何选择Adam,SGD
用来做视频处理,在学习tensorflow例子的时候代码里面给的优化方案默认很多情况下都是直接用的AdamOptimizer优化算法,如下:optimizer=tf.train.AdamOptimizer(
learning_rate
Camaro_XL
·
2020-06-27 09:59
caffe
Machine
Learning
Python&&Linux
ML
papers
reading
adam 策略参数设置 torch tensorflow keras
TensorFlow:
learning_rate
=0.001,beta1=0.9,beta2=0.999,epsilon=1e-08.Keras:lr=0.001,beta_1=0.9,beta_2=0.999
TinaO-O
·
2020-06-27 06:24
关于XGB.booster()报错TypeError: 'str' object is not callable的解决方法
当使用XGB想得到特征重要性时报错,代码及报错如下,model=XGBRegressor(
learning_rate
=0.1,n_estimators=300,max_depth=7,min_child_weight
浅笑古今
·
2020-06-27 04:06
自学
Tensorflow 学习速率的设置|学习速率的指数下降
下面介绍学习速率指数下降公式:公式中,
learning_rate
:当前的学习速率start_rate:最初的学习速率decay_
hiptonese
·
2020-06-27 04:02
tensorflow学习笔记(三十六):learning rate decay
接口tf.train.exponential_decay(
learning_rate
,global_step
ke1th
·
2020-06-27 03:11
tensorflow
tensorflow学习笔记
《统计学习方法》第8章_提升方法
importnumpyasnpimportpandasaspdfromsklearn.datasetsimportload_irisfromsklearn.model_selectionimporttrain_test_split#参考《统计学习方法》P138classAdaBoost:def__init__(self,n_estimators=50,
learning_rate
Vanish-KENAN
·
2020-06-26 18:03
统计学习方法
深度学习之参数优化方法
给定目标函数f(x),我们需要找到一组参数x,使得f(x)的值最小1.Vanillaupdatetensorflow实现optimizer=tf.train.GradientDescentOptimizer(
learning_rate
LZXandTM
·
2020-06-26 11:19
机器学习面试题准备
tensorflwo2.0 (tf.GradientTape() )自定义模型的保存和提取
原文链接:https://blog.csdn.net/hjxu2016/article/details/105222369total_num=25000#参数设置
learning_rate
=0.001test_step
water_MLing
·
2020-06-26 06:17
pandas的使用
深度学习
tensorflow
深度学习——学习率衰减(learning rate decay)
学习率衰减可以用以下代码实现decayed_learning_rate=
learning_rate
*np.power(decay_rate,(global_step/decay_steps))decay_rate
TianHongZXY
·
2020-06-25 17:18
深度学习笔记
LightGBM参数的贝叶斯搜索
首先定义要优化的目标:#定义要优化的目标defLGB_L1_bayesian(num_leaves,
learning_rate
,feature_fraction,lambda_l1,lambda_l2,
i_chase
·
2020-06-25 16:44
tensorflow学习率设置方式
importtensorflowastflearning_rate=tf.train.exponential_decay(
learning_rate
,#初始学习率global_step,#当前迭代的stepdecay_step
林楚海
·
2020-06-24 05:57
Tensorflow
[tf]学习率指数衰减
global_step=tf.Variable(0)
learning_rate
=tf.train.exponential_decay(0.1,global_step,100,0.96,staircase
VanJordan
·
2020-06-24 01:12
吴恩达作业7:梯度下降优化算法
,故引入Mini-batchGD,选取部分样本进行训练得出损失值,普通梯度下降算法如下:""""一般梯度下降算法"""defupdate_parameters_gd(parameters,grads,
learning_rate
DL_fan
·
2020-06-23 07:06
吴恩达老师作业
tensorflow笔记三:神经网络优化(损失函数:自定义损失函数、交叉熵、softmax())...
层数=隐藏层的层数+1个输出层总参数=总W+总b神经网络的优化四个方面:损失函数loss、学习率
learning_rate
、滑动平均ema、正则化regularization(1)损失函数(loss):
chq37777
·
2020-06-22 22:48
Keras迁移学习
":"data/train.txt","test_data_filename":"data/test.txt","train_batch_size":32,"test_batch_size":32,"
learning_rate
扎手的苍耳
·
2020-06-22 09:29
深度学习-算法
梯度下降法实例
#用于学习的数据xx=np.array(range(10))y0=np.random.rand(10)*5y1=np.array(range(10,59,5))#用于学习的数据yy=y0+y1#学习率
LEARNING_RATE
一粒马豆
·
2020-06-22 01:30
python
automl-超参数优化(HPO)-综述
那么要想模型效果好,手动调参少不了,机器学习算法如SVM就有gamma、kernel、ceof等超参数要调,而神经网络模型有
learning_rate
、optimizer、L1/L2normalization
xys430381_1
·
2020-06-21 14:54
automl
Python:批量梯度下降实现一元线性回归
importnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltclassLinearRegression(object):def__init__(self,
learning_rate
DeniuHe
·
2020-06-20 22:12
线性回归
Python学习
MLPRegressor多层感知机
sklearn.neural_network.MLPRegressor(hidden_layer_sizes=(100,),activation='relu',solver='adam',alpha=0.0001,batch_size='auto',
learning_rate
Jasmine晴天和我
·
2020-04-13 11:49
tensorflow2学习笔记 8参数优化器
参数优化器在网络结构确定的情况下可以改进参数学习的速率参数优化器的实现主要用过更改一阶动量和二阶动量的形式实现在工程中有以下常见的优化器sgdw1.assign_sub(
learning_rate
*grads
发光mcu
·
2020-04-13 04:13
darknet源码之学习率调整
下面将描述的是基于yolov2.cfg文件,对于学习率的调整方法缩写lr=learningratebn=batchsize主要文件读取cfg配置参数的主要文件为src/parser.cyolov2.cfg中相关部分
learning_rate
beingod0
·
2020-04-02 17:37
神经网络学习
机器学习
Object Detection API Faster R-CNN学习
超参数设置学习率:0-900000step:
learning_rate
=0.0002900000-1200000step:
learning_rate
=0.000021200000step~:
learning_rate
赵小闹闹
·
2020-03-09 20:38
'Model' object has no attribute 'metrics_tensors' 问题解决!!!
mostrecentcalllast):File"D:/PycharmProjects/安全帽目标检测/model.py",line257,inmodel.train(train_set,test_set,
learning_rate
qq_643582002
·
2020-02-28 09:06
python学习
python
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他