E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Gradient
CS231n lecture 3 损失函数和优化
lecture3损失函数和优化MulticlassSVMloss多分类SVM损失函数正则项RegularizationSoftmaxClassifier优化Optimization随机梯度下降法Stochastic
Gradient
Descent
QingYuAn_Wayne
·
2022-12-08 11:26
CS231n
学习笔记
LR判断垃圾邮件spark代码
Spark-MLlib中的两个函数:1)HashingTF:从文本数据构建词频(termfrequency)特征向量2)LogisticRegressionWithSGD:使用随机梯度下降法(Stochastic
Gradient
Descent
MONKEYMOMO
·
2022-12-08 09:46
机器学习
优化方法:SGD,Momentum,AdaGrad,RMSProp,Adam
参考:https://blog.csdn.net/u010089444/article/details/767258431.SGDBatch
Gradient
Descent在每一轮的训练过程中,Batch
Gradient
Descent
weixin_34133829
·
2022-12-08 08:04
Loss优化方法:SGD,Momentum,AdaGrad,RMSProp,Adam
1.SGDBatch
Gradient
Descent在每一轮的训练过程中,Batch
Gradient
Descent算法用整个训练集的数据计算costfuction的梯度,并用该梯度对模型参数进行更新:Θ=
daisyyyyyyyy
·
2022-12-08 08:32
机器学习
辨析梯度下降
完整代码已上传至:github完整代码一、梯度下降(
Gradient
Descent,GD)1.1梯度下降的本质梯度下降法是一种参数优化方法。
草莓酱土司
·
2022-12-08 08:57
深度学习基础知识
机器学习
深度学习
人工智能
深度学习optimizer:SGD,Momentum,AdaGrad,RMSProp,Adam源代码自编写及pytorch.optimizer介绍
随着深度学习的兴起,其算法的核心:梯度下降算法正不断发展,本文将简要介绍几种主流的optimizer:SGD(Stochastic
Gradient
Descent),Momentum,AdaGrad(Adaptive
Gradient
Algorithm
Rekoj_G
·
2022-12-08 08:51
深度学习
机器学习
神经网络
python
pytorch
神经网络的优化器
本文是参考论文《Anoverviewof
gradient
descentoptimizationalgorithms》做出的讨论。
电器爆破专家
·
2022-12-08 08:47
#
神经网络
神经网络
机器学习
深度学习
Generative Modeling by Estimating
Gradient
s of the Data Distribution论文阅读
论文链接:GenerativeModelingbyEstimating
Gradient
softheDataDistribution文章目录摘要引文基于分数的生成建模/Score-basedgenerativemodeling
zzfive
·
2022-12-08 04:49
生成模型
论文阅读
论文阅读
深度学习
人工智能
Deep Reinforcement Learning
题目是CS294-112DeepReinforcementLearningHW2:Policy
Gradient
sWin10+Anaconda3+Python3.6零基础目前用一个礼拜看了吴恩达的机器学习课程
马里奥奥利奥
·
2022-12-08 00:04
强化学习
python
数据挖掘学习笔记-第四章 神经网络
第四章神经网络NetralNetworksBiologicalMotivation例子Perceprons感知积PowerofPerceprons实现一些逻辑上的功能
Gradient
Descent根据误差来调整权重
weixin_30929011
·
2022-12-07 20:50
人工智能
数据挖掘学习笔记4-神经网络
一、感知机(单层神经网络)采用梯度下降(
gradient
descend)方法进行训练,wi=wi-ηΣ(t-o)xi单层神经网络无法处理线性不可分问题(如异或)二、多层感知机(带隐含层神经网络)通过将输入映射到隐含层
irony_202
·
2022-12-07 20:12
神经网络
数据挖掘
深度学习
pytorch基础操作(二) 自动微分
1、标量的自动微分2、非标量的自动微分'''自动微分___非标量的自动微分'''#对⾮标量调⽤backward需要传⼊⼀个
gradient
参数,该参数指定微分函数关于self的梯度。
undo_try
·
2022-12-07 19:07
#
机器学习
pytorch
python
深度学习
用MATLAB实现简单的线性回归
目录一、损失函数CostFunction二、梯度下降算法
gradient
Descent三、直线回归四、绘图效果致歉:公示的推导要用到LATEX,但我不太会,所以.......一、损失函数CostFunctionfunctionJ
WHS-_-2022
·
2022-12-07 16:45
matlab
线性回归
算法
吴恩达机器学习week6 ex5课后编程作业代码答案
EX5linearRegCostFunctionlearningCurvevalidationCurvelinearRegCostFunctionfunction[J,grad]=linearRegCostFunction(X,y,theta,lambda)%LINEARREGCOSTFUNCTIONComputecostand
gradient
forregularizedlinear
来来
·
2022-12-07 15:04
机器学习
梯度下降法求函数最小值(python,numpy)
#用梯度下降法求函数最小值#coding:utf-8importnumpyasnpimportmatplotlib.pylabaspltdef_numerical_
gradient
_no_batch(f
虾米不打烊
·
2022-12-07 15:47
编程
python
numpy
深度学习
神经网络
人工智能
【深度学习原理】如何利用梯度下降法,寻找损失函数最小值?
梯度下降(
Gradient
Descent)是用于寻找函数最小值的一种优化算法。
hennyxu
·
2022-12-07 15:15
深度学习
梯度下降
损失函数
均方误差
梯度下降算法求解一般函数最小值
梯度下降算法python实现梯度下降算法梯度下降算法(
Gradient
DescentOptimization)是一种神经网络模型训练最常用的优化算法。
MainF。
·
2022-12-07 15:13
算法
python
机器学习
强化学习-DDPG算法
二是使用Policy
Gradient
(PG)算法(例如Reinforce)直接求解。但是对于方式一,离散化处理在一定程度上脱离了工程实际;对于方式二,PG算法在求解连续控制问题时效果往往不尽人意。
数据铁人
·
2022-12-07 12:33
强化学习
算法
人工智能
【强化学习】Deep Deterministic Policy
Gradient
(DDPG)算法详解
1DDPG简介DDPG吸收了Actor-Critic让Policy
Gradient
单步更新的精华,而且还吸收让计算机学会玩游戏的DQN的精华,合并成了一种新算法,叫做DeepDeterinisticPolicy
Gradient
谁最温柔最有派
·
2022-12-07 12:31
人工智能算法
python
算法
强化学习
人工智能
【Tensorflow学习一】神经网络计算过程: 搭建第一个神经网络模型
文章目录创建张量Tensor:常用函数理解axistf.Variable变量标记为“可训练”tensorflow中的数学运算函数Tensorflow的数据标签和特征配对函数tf.
Gradient
Tape
Chen的博客
·
2022-12-07 12:46
Tensorflow
tensorflow
python
学习
对抗样本生成算法-FGSM、I-FGSM、ILCM、PGD
对抗样本生成算法一、FGSM(Fast
Gradient
SignMethod)1.FGSM基本思想2.FGSM算法流程3.FGSM扰动有效性分析二、I-FGSM/BIM(IterativeFGSM)1.I-FGSM
东方旅行者
·
2022-12-07 12:05
算法
对抗样本
算法
对抗样本
sklearn中分类器
importnumpyasnpfromsklearn.svmimportSVCfromsklearn.linear_modelimportLogisticRegressionfromsklearn.treeimportDecisionTreeClassifierfromsklearn.ensembleimport
Gradient
BoostingClassifierfromsklearn.ensem
Goodness2020
·
2022-12-07 12:57
python
sklearn
python
Lasso线性回归学习笔记(公式与代码实现)
损失函数图像与正则化之后的图像3.1损失函数图像3.2加了L~1~正则项之后的损失函数图像4L~1~范数正则化的解中有更多零的原因5Lasso线性回归6Lasso线性回归的优化算法(求最优解)6.1梯度下降(
Gradient
Descent
尼古拉卡车斯基
·
2022-12-07 10:48
线性回归
算法
正则化
正则表达式
机器学习
python进行logistic回归_Python实现Logistic回归
使用梯度下降找到最佳参数每个回归系数初始化为1重复R次:计算整个数据集的梯度使用alpha*
gradient
更新回归系数的向量返回回归系数defloadDataSet():dataMat=[];lab
weixin_39666496
·
2022-12-07 06:03
机器学习-有监督学习-集成学习方法(五):Bootstrap->Boosting(提升)方法->eXtreme
Gradient
Boosting算法--+决策树-->XGBoost提升树
人工智能-机器学习-有监督学习-集成学习方法(五):Bootstrap->Boosting(提升)方法->eXtreme
Gradient
Boosting算法--+决策树-->XGBoost提升树一、Bootstrap
u013250861
·
2022-12-07 04:21
#
ML/经典模型
人工智能
机器学习
算法
XGBoost
pytorch学习笔记(七):pytorch hook 和 关于pytorch backward过程的理解
每次
gradient
s被计算的时候,这个hook都被调用。hook应该拥有以下签名:hoo
长夜悠悠
·
2022-12-07 02:56
pytorch
【信息与内容安全】实验一:对抗样本攻击实验
对抗性样本攻击实验摘要:根据PyTorch官网教程中AdversarialExampleGeneration章节内容,完整实现Fast
Gradient
SignAttack(FGSM)算法。
框架主义者
·
2022-12-07 01:06
机器学习
机器学习
欢快畅游的小鱼特效
index.html欢快畅游的小鱼特效html,body{width:100%;height:100%;margin:0;padding:0;}body{background:-webkit-linear-
gradient
amoureux555
·
2022-12-07 00:33
插件
javascript
前端
html
详解pytorch中的自动求导Autograd,彻底理解
gradient
参数
自动求导Autograd1,标量与标量之间的求导函数y=x^2,当x=3.0时,y的导数,,**注意:在机器学习中一般x的导数是多少,如x.grad(),指的是函数在变量x处的导数。pytorch求导是函数对自变量的求导,并不计算函数对中间变量的导数,****如y是x的函数,z是y的函数,f是z的函数,那么在求导的时候,会使用f.backwrad()只会默认求f对于叶子变量x的导数值,而对于中间变
豆豆小朋友小笔记
·
2022-12-06 15:58
计算机视觉
在CV/NLP/DL领域中,有哪些修改一行代码或者几行代码提升性能的算法?
:想起来些非常经典的东西1.relu:用极简的方式实现非线性激活,还缓解了梯度消失x=max(x,0)2.normalization:提高网络训练稳定性x=(x-x.mean())/x.std()3.
gradient
clipping
人工智能与算法学习
·
2022-12-06 15:50
深度学习
计算机视觉
人工智能
算法
神经网络
【机器学习】集成学习 (Ensemble Learning) (一) —— 导引
BootstrapSampling/Bootstrapping)2.1.2随机森林(RandomForest)2.2提升法(Boosting)2.2.1自适应提升(Adaboost)2.2.2梯度提升(
Gradient
Boosting
何处闻韶
·
2022-12-06 14:25
【机器学习与深度学习】
深度学习优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)
SGD此处的SGD指mini-batch
gradient
descent,关于batch
gradient
desc
Tom Hardy
·
2022-12-06 13:08
算法
人工智能
深度学习
java
计算机视觉
gradient
descent和batch normalization,learning rate与更新参数,梯度下降的步长有关; batch size与更新参数,梯度下降的次数有关
这里没有说到更新每个参数时会用到链式求导法则视频:https://www.bilibili.com/video/BV1Ht411g7Ef?p=3由TaylorSeries展开梯度下降做二次展开:使得loss最小,当学习率太大,则loss的泰勒展开的二次项之后的式子不能成立,当redcircle需要很小,半径与学习率成正比,所以理论上learningrate越小越好所以有adagrad针对不同的参数
Mrs.Je
·
2022-12-06 11:11
Notebook
李宏毅机器学习
batch
开发语言
李宏毅机器学习笔记—第二节—When
gradient
is small
1.局部最小值和鞍点(LocalMinimumAndSaddlePoint)这一小节的部分属于Optimization,因此只讨论对于
gradient
descent的情况。
菅田将暉_
·
2022-12-06 11:04
机器学习
机器学习笔记(二)梯度下降法实现对数几率回归(Logistic Regression)
目录前言一、梯度下降法(
Gradient
Descent)1.1Python简单实现二、对数几率回归模型三、梯度下降法实现对数几率回归3.1西瓜数据集展示3.2Python实践3.2.1数据准备3.2.2
Kee77
·
2022-12-06 11:28
机器学习
Python
机器学习
逻辑回归
python
RuntimeError: one of the variables needed for
gradient
computation has been modifiedby an inplace ope
遇到一个报错如下:RuntimeError:oneofthevariablesneededfor
gradient
computationhasbeenmodifiedbyaninplaceoperatijon
YuQiao0303
·
2022-12-06 10:58
个人笔记
AI
Python
深度学习
pytorch
cuda
在Python中使用相似性度量评估对抗样本
攻击:Fast
Gradient
SignMethod(https://arxiv.org/abs/1412.
woshicver
·
2022-12-06 07:36
python
深度学习
机器学习
人工智能
计算机视觉
深度学习-吴恩达-笔记-6-优化算法
目录Mini-batch梯度下降理解mini-batch梯度下降法指数加权平均数理解指数加权平均数指数加权平均的偏差修正动量梯度下降法(
Gradient
descentwithMomentum)RMSpropAdam
Leon.ENV
·
2022-12-06 07:57
深度学习
深度学习
神经网络
tensorflow训练时报错:
Gradient
s do not exist for variables问题解决
今天在使用tensorflow内容的时候,发现训练的过程之中出现相应的报错WARNING:tensorflow:
Gradient
sdonotexistforvariables['bert/transformer
唐僧爱吃唐僧肉
·
2022-12-06 00:59
深度学习函数学习
python分类算法可视化_python实现GBDT算法的回归、二分类以及多分类,算法流程解读并可视化...
向AI转型的程序员都关注了这个号机器学习AI算法工程公众号:datayxGBDT的全称是
Gradient
BoostingDecisionTree,梯度提升树,在传统机器学习算法中,GBDT算的上TOP3
weixin_39939668
·
2022-12-06 00:57
python分类算法可视化
gbdt算法_决策树之 GBDT 算法 - 回归部分
GBDT(
Gradient
BoostingDecisionTree)是被工业界广泛使用的机器学习算法之一,它既可以解决回归问题,又可以应用在分类场景中,该算法由斯坦福统计学教授JeromeH.Friedman
weixin_39760689
·
2022-12-06 00:26
gbdt算法
梯度提升决策树GBDT
1.1
Gradient
Boosting
Gradient
Boosting是一种Boosting的方法,它主要的思想是,每一次建立模型是在之前建立模型损失函数的梯度下降方向。
miya_116
·
2022-12-05 23:21
用通俗易懂的方式讲解: GBDT算法及案例(Python 代码)
5.1.1读取数据5.1.2分类型文本变量的处理5.1.3提取特征变量和目标变量5.1.4划分训练集的测试集5.1.5模型训练及搭建5.2模型预测及评估6模型参数介绍知识拓展1GBDT算法核心思想GBDT是
Gradient
Boo
Python数据挖掘
·
2022-12-05 23:51
python
机器学习
算法
python
机器学习
pytorch利用DDP进行加速的报错问题
Wreducer.cpp:362]Warning:Gradstridesdonotmatchbucketviewstrides.Thismayindicategradwasnotcreatedaccordingtothe
gradient
layoutcontract
我也是炼丹师
·
2022-12-05 23:19
pytorch
( 保证能看懂系列)集成算法之Boosting - GBDT回归算法 手推原理 以及 python 实现
Gradient
boostingAdaboost采用的是通过增加每个错分点的权重,减小对分点的权重,并且为每个弱分类器设置权重来获得最终的分类结果的。
Lee_Yu_Rui
·
2022-12-05 23:47
python
算法
python
机器学习
Warning: Grad strides do not match bucket view strides pytorch利用DDP报错
Wreducer.cpp:362]Warning:Gradstridesdonotmatchbucketviewstrides.Thismayindicategradwasnotcreatedaccordingtothe
gradient
layoutcontract
夏奇火
·
2022-12-05 23:14
神经网络
pytorch
人工智能
python
RuntimeError: one of the variables needed for
gradient
computation has been modified by an inplace
互相利用彼此的输出计算一部分不需要向对方传递的损失,因此,两部分涉及到的对方的变量都需要:X.detach()否则,当更新完成B网络之后,再计算A的损失并更新A时,会报错:oneofthevariablesneededfor
gradient
computationhasbeenmodifiedbyaninplaceoperation
cg_nswdg
·
2022-12-05 20:09
pytorch编程
深度学习
python
人工智能
pytorch
Fast and Scalable Adversarial Training of Kernel SVM via Doubly Stochastic
Gradient
s
基于双重随机梯度的核支持向量机快速可扩展对抗性训练本文针对核支持向量机,提出了adv-SVM,通过对抗训练来提高其对抗鲁棒性。具体而言:首先建立原始空间和核空间之间样本扰动的连接,然后基于该连接给出核支持向量机对抗性训练的简化和等价公式;接下来,基于两个无偏随机近似(即一个在训练点上面,一个在随即特征上)的双随机梯度被应用于更新目标函数的解;最后,我们证明我们的DSG优化算法在恒定步长和递减步长下
你今天论文了吗
·
2022-12-05 18:08
对抗攻击
人工智能
lightgbm原理_LightGBM算法初探
Light
Gradient
BoostingMachine(LightGBM)是一个由微软亚洲研究院分布式机器学习工具包(DMTK)团队开源的基于决策树算法的分布式梯度提升(
Gradient
BoostingDecisionTree
储闻道
·
2022-12-05 18:34
lightgbm原理
lightgbm 原理解析
lightgbm提出GOSS(
Gradient
-basedOne-SideSampling)和EFB(ExclusiveFeatureBundling)进行改进。
weixin_40413183
·
2022-12-05 18:33
上一页
46
47
48
49
50
51
52
53
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他