E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LossFunction
机器学习-正则化+回归与分类辨析
在回归中使用正则化就是岭回归(L2正则化)和Lasso(L1正则化),在分类中使用就是我们常见的
lossfunction
中的正则项了(
别再闹了
·
2019-12-26 22:00
CS231n课程笔记二 SVM softmax
现在我们用一种更加有力的方式来做图像分类,然后我们将进一步展开神经网络和卷积神经网络的介绍,在这个部分我们有两个地方值得介绍,一个scorefunction一个
lossfunction
。
彭岩
·
2019-12-25 20:46
python保存log日志,实现用log日志画图
在神经网络训练中,我们常常需要画出
lossfunction
的变化图,log日志里会显示每一次迭代的
lossfunction
的值,于是我们先把log日志保存为log.txt文档,再利用这个文档来画图。
xiaotao_1
·
2019-12-24 11:51
交叉验证,K折交叉验证的偏差和方差分析
交叉验证犀利的开头在机器学习中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是定义一个
Lossfunction
(误差函数),通过将这个Loss(或者叫error)的最小化过程,来提高模型的性能
听风1996
·
2019-12-19 17:15
深度学习中的损失函数/代价函数
损失函数(
lossfunction
)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y,f(x))来表示,损失函数越小,模型的鲁棒性就越好。
自由调优师_大废废
·
2019-12-12 17:45
目标检测YOLO系列——YOLO v3
一个
lossfunction
搞定训练,只需关注输入端和输出端。从yolov2
有事没事扯扯淡
·
2019-12-09 09:33
损失函数--KL散度与交叉熵
这种函数称为损失函数(
lossfunction
)。损失函数越小,则模型的预测效果越优。所以我们可以把训练模型问题转化为最小化损失函数的问题。
ambrose
·
2019-12-04 01:00
深度学习-常用损失函数详细介绍
从名字上就可以看出,损失函数(
LossFunction
)反应的是模型对数据的拟合程度。一般来说,损失函数越小,说明模型对数据的拟合也越好。
AI研习图书馆
·
2019-11-27 11:52
深度学习
损失函数
softmax
深度学习
线性回归算法的理解-笔记(1)0
输入:一组数据算法:会得到一个估计的函数输入一个没有见过的新数据给出一个新的估计
lossfunction
---损失函数errorfunction---错误函数(来评估函数)http://www.cnblogs.com
铁锤它妹
·
2019-11-06 17:01
训练数据少但特征过多的办法
一人工增加训练集的大小.通过平移,翻转,加噪声等方法从已有数据中创造出一批”新”的数据.Regularization.数据量比较小会导致模型过拟合,使得训练误差很小而测试误差特别大.通过在
LossFunction
Lornatang
·
2019-11-04 07:56
Caffe solver配置
运行代码一般为caffetrain--solver=*_slover.prototxt在DeepLearning中,往往
lossfunction
是非凸的,没有解析解,我们需要通过优化方法来求解。
陈继科
·
2019-11-02 02:37
利用 2 层神经网络理解梯度下降和误差反向传播
在深度神经网络中,输入特征通过从输入层开始前向传播Forwardpropagation来实现模型拟合,由于拟合的结果与给定的标签值通常存在一定的误差,而为了衡量这个误差,可以定义一个误差函数Error/
Lossfunction
拓季
·
2019-11-01 01:25
机器学习算法——线性回归LinearRegression
横轴和纵轴都是样本特征属性(肿瘤大小,肿瘤发现时间)尤尔小屋问题产生image.png求解出拟合的直线根据样本点,求解预测值求解真实值和预测值的差距尽量小,通常用差的平方和最小表示,损失函数为:上面的损失函数
lossfunction
皮皮大
·
2019-10-21 21:50
机器学习中梯度下降法原理及用其解决线性回归问题的C语言实现
本文讲梯度下降(GradientDescent)前先看看利用梯度下降法进行监督学习(例如分类、回归等)的一般步骤:1,定义损失函数(
LossFunction
)2,信息流forwardpropagation
davidtym
·
2019-10-18 08:00
学点基本功:机器学习常用损失函数小结
而损失函数(
LossFunction
)则是这个过程中关键的一个组成部分,用来衡量模型的输出与真实y的之间的差距,给模型的优化指明方
AI科技大本营
·
2019-10-01 11:05
caffe训练模型时solver.prototxt文件中超参数的设置
运行代码一般为:#caffetrain--solver=*_solver.prototxt在DL中,损失函数(
lossfunction
)是非凸的,没有解析解,我们需要通过优化的方法来求解。
心絮
·
2019-09-16 10:39
理解代价函数
损失函数(
LossFunction
)是定义在单个样本上的,算的是一个样本的误差。代价函数(CostFunction)是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数
GeaoZhang
·
2019-09-01 14:00
代理损失函数(surrogate loss function)
当原本的
lossfunction
不便计算的时候,我们就会考虑使用surrogatelossfunction。
selfcs
·
2019-08-16 13:00
机器学习常见面试题与参考答案总结
1、L1范式和L2方式的区别(1)L1范式是对应参数向量绝对值之和(2)L1范式具有稀疏性(3)L1范式可以用来作为特征选择,并且可解释性较强(这里的原理是在实际
Lossfunction
中都需要求最小值
ljy2013
·
2019-08-14 14:48
简单理解梯度下降算法及js实现
看了很多文章,梯度下降算法描述都比较艰涩难懂比如说:目标函数f(θ)关于参数θ的梯度将是损失函数(
lossfunction
)上升最快的方向。然后会推导出下面这个公式。
Obeing
·
2019-08-10 00:00
javascript
VGG16—perceptual loss in keras感知损失【Keras】
前言正常的损失加上感知损失,肯定需要自定义合适的
lossfunction
。
chestnut--
·
2019-08-07 17:13
深度学习笔记
常见的激励函数和损失函数
这一期博主将介绍我们在训练过程中常用的激励函数(activationfunction)和损失函数(
lossfunction
),更进一步帮助小
Chile_Wang
·
2019-07-30 16:28
常见的激励函数和损失函数
这一期博主将介绍我们在训练过程中常用的激励函数(activationfunction)和损失函数(
lossfunction
),更进一步帮助小
Chile_Wang
·
2019-07-30 16:28
FTRL算法详解
一、算法原理二、算法逻辑三、个人理解从
lossfunction
的形式来看:FTRL就是将RDA-L1的“梯度累加”思想应用在FOBOS-L1上,并施加一个L2正则项。
学霸很烦恼
·
2019-07-23 15:17
算法
softmax求导、cross-entropy求导及label smoothing
现在求对的导数,如果j=i,1如果ji,2cross-entropy求导
lossfunction
为对softmax层的输入求导,如下labelsmoothing对于groundtruth为one-hot
Peyton_Li
·
2019-07-08 11:00
开篇记录面试第33天
softmax的
lossfunction
推导,softmax和LR有什么区别?mysql单列索引和多
一路不向西
·
2019-07-02 23:59
【论文学习】人脸识别——FaceNet:超级经典的paper(triplet loss)
又是超级经典的一篇人脸识别paper,提供了一种端到端的处理,提出了新颖的
lossfunction
,好文值得多读!
Lingyun_wu
·
2019-06-25 21:35
深度学习
人脸识别
【论文学习】人脸识别——FaceNet:超级经典的paper(triplet loss)
又是超级经典的一篇人脸识别paper,提供了一种端到端的处理,提出了新颖的
lossfunction
,好文值得多读!
Lingyun_wu
·
2019-06-25 21:35
深度学习
人脸识别
经典损失函数——均方误差(MSE)和交叉熵误差(CEE)的python实现
损失函数(
lossfunction
)用来表示当前的神经网络对训练数据不拟合的程度。这个损失函数有很多,但是一般使用均方误差和交叉熵误差等。
Answerlzd
·
2019-06-19 11:04
深度学习入门
常见的损失函数
1.损失函数、代价函数与目标函数损失函数(
LossFunction
):是定义在单个样本上的,是指一个样本的误差。
Mr_health
·
2019-06-18 23:30
机器学习
损失函数
损失函数,代价函数,风险函数,目标函数
https://blog.csdn.net/qq_28448117/article/details/79199835损失函数(
LossFunction
)==代价函数(CostFunction):是定义在单个样本上的
小幸运Q
·
2019-06-16 23:55
笔试 | 平安银行笔试题
平安银行网申部分题1前言2笔试题2.1混淆矩阵是什么,准确率、精准率、召回率的定义2.2交叉熵是什么,在二分类问题中为什么引入交叉熵作为
Lossfunction
而不是直接优化准确率2.3EarlyStopping
RUC_Lee
·
2019-06-13 22:57
求职
权值初始化 - Xavier和MSRA方法
设计好神经网络结构以及
lossfunction
后,训练神经网络的步骤如下:初始化权值参数选择一个合适的梯度下降算法(例如:Adam,RMSprop等)重复下面的迭代过程:输入的正向传播计算
lossfunction
香菇不相识
·
2019-06-13 00:50
深度学习与计算机视觉
权值初始化 - Xavier和MSRA方法
设计好神经网络结构以及
lossfunction
后,训练神经网络的步骤如下:初始化权值参数选择一个合适的梯度下降算法(例如:Adam,RMSprop等)重复下面的迭代过程:输入的正向传播计算
lossfunction
Brook_icv
·
2019-06-13 00:00
Logistic Regression 逻辑斯谛回归 LR
目录1.定义2.参数的似然函数3.LR的代价函数4.梯度下降的计算5.为什么LR一般不适用均方误差来作为
LossFunction
6.交叉熵损失函数7.逻辑回归是线性模型吗?
Avada__Kedavra
·
2019-06-12 16:38
机器学习
机器学习
逻辑斯谛回归
各种 loss 学习笔记
各种loss学习笔记LargeMarginCosineLossAdditiveAngularMarginLossAdaptiveCosine-basedLoss之间已经介绍过几个比较经典的
lossfunction
DiLLVeRsE
·
2019-06-07 15:58
L1和L2正则化的理解
给
lossfunction
加上正则化项,能使得新得到的优
ustc_lijia
·
2019-05-29 10:21
信息论
机器学习
权重的梯度的计算
Gradientforweight)是以下三个部分的乘积:1,该权重对应的输入节点值(Nodevaluefeedingintothatweight)2,该节点激活函数的斜率(Slopeofactivationfunction3,
Lossfunction
LabVIEW_Python
·
2019-05-27 12:15
过拟合的理解
增加数据量加正则项(L1和L2),把模型的权重作为惩罚项加到
lossfunction
里dropout(在神经网络中),对a操作,a*d,a/prob简化模型结构,如减少树模型的深度,减少fullyconnection
poteman
·
2019-05-24 10:48
deep learning中各种loss function大杂烩
deeplearning中各种
lossfunction
大杂烩SoftmaxLossCenterLossTripletLoss学习深度学习也有一段时间啦,很多论文都会在
lossfunction
上做文章,说明还是非常最重要的呢
DiLLVeRsE
·
2019-05-19 11:37
TensorFlow2.0笔记17:自编码器Auto-Encoders以及实战!
文章目录一.自编码器Auto-Encoders1.1.回顾之前的知识1.2.无监督学习1.3.Auto-Encoders中
lossfunction
如何设计1.4.PCA和Auto-encoder对比二.
炊烟袅袅岁月情
·
2019-05-17 17:20
深度学习
Tensorflow
Deep
Learning
chapter-3-损失函数和优化
有时候我们想了解它的分类性能,为此我们定义了损失函数(
lossfunction
,也称目标函数或代价函数):其中N是输入数据的数量,yi是我们理想的结果向量。
JachinMa
·
2019-05-13 22:36
机器学习基础-梯度下降方法与牛顿法
每一步沿梯度负方向前进的长度特征(feature):样本输入矩阵求导的链式法则:公式一:公式二:假设函数(hypothesisfunction):监督学习中,为拟合输入样本,使用的假设函数,记为损失函数(
lossfunction
田田ww
·
2019-05-11 14:05
TensorFlow教程(九):损失函数
损失函数(
lossfunction
)对机器学习来讲是非常重要的。它度量模型输出值与目标值(target)间的差值。回归算法的损失函数创建预测序列和目标序列作为张量,预测序列是-1和1之间的等差数列。
观月执白
·
2019-04-27 15:09
TensorFlow
PyTorch搭建神经网络的一般步骤
给定输入输出定义一个模型定义损失函数(
lossfunction
)和优化函数(optimizer)训练一个过程一个简单的例子:importtorchimporttorch.nnasnnN,D_in,H,D_out
Answerlzd
·
2019-04-27 14:21
深度学习入门
反向传播(BackPropagation)与梯度下降(Gradient Descent)
损失函数为了量化的表现出模型计算结果与实际的差距,因此引入了损失函数(
Lossfunction
)用以显示模型的准确率,不断修改模型参数使得损失函数的值降到最小输入:模型输出:模型的优劣
CoSineZxc
·
2019-04-20 21:21
机器学习
反向传播(BackPropagation)与梯度下降(Gradient Descent)
损失函数为了量化的表现出模型计算结果与实际的差距,因此引入了损失函数(
Lossfunction
)用以显示模型的准确率,不断修改模型参数使得损失函数的值降到最小输入:模型输出:模型的优劣
CoSineZxc
·
2019-04-20 21:21
机器学习
经典损失函数一览
损失函数(
LossFunction
)用来估量模型的预测值y^=f(x)\haty=f(x)y^=f(x)与真实值yyy的不一致程度。这里做一个简单梳理,以备忘,原文见损失函数清单。
米乐乐果
·
2019-04-09 21:24
机器学习
几种损失函数比较--代价函数,损失函数,目标函数区别
首先给出结论:损失函数和代价函数是同一个东西,目标函数是一个与他们相关但更广的概念,对于目标函数来说在有约束条件下的最小化就是损失函数(
lossfunction
)。
haoji007
·
2019-04-04 12:41
【机器学习
及
论文笔记】
dice loss解析及caffe添加
lossfunction
之用Dice-coefficientlossfunctionorcross-entropyhttps://blog.csdn.net/u014264373/article/details
GL_a_
·
2019-03-28 14:19
深度学习
上一页
11
12
13
14
15
16
17
18
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他