E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LossFunction
【控制理论】神经网络BP算法详解及应用分析
BP神经网络的思想就是考虑如何利用神经网络参数W,使得经过神经网络模型的输出尽可能地接近期望输出.因此有一个损失函数(
lossfunction
)用来描述测量值和
Y-box
·
2020-08-16 04:59
控制理论
loss function
机器学习中的Loss函数转载自:http://www.ics.uci.edu/~dramanan/teaching/ics273a_winter08/lectures/lecture14.pdf,翻译来自转载
LossFunction
raullese_1990
·
2020-08-15 03:56
machine
learning
yolov3深度解析
一个
lossfunction
搞定训练,只需关注输入端和输出端。从yolo_v2开始,yolo就用batchnormalization
ShellCollector
·
2020-08-14 13:55
深度学习
tensorflow常用损失函数(loss function)(一):图像识别、分类
1.图像分类在tensorflow中针对图像分类的
lossfunction
主要三交叉熵函数,主要有这几类:softmax、sigmoid、sparse_softmax、weighted加权交叉熵。
itlilyer
·
2020-08-13 14:51
机器学习
图像分类
机器学习
神经网络
tensorflow
深度学习
Pytorch打卡第8天:18种损失函数
损失函数(
LossFunction
)代价函数(CostFunction)目标函数(ObjectiveFunction)nn.CrossEntropyLoss功能:nn.LogSoftmax()与nn.NLLLoss
雯文闻
·
2020-08-13 14:35
Pytorch打卡学习
xgboost实现蘑菇数据分类预测demo
importxgboostasxgbimportnumpyasnp#自己实现
lossfunction
,softmax函数deflog_reg(y_hat,y):p=1.0/(1.0+np.exp(-y_hat
OliverkingLi
·
2020-08-13 12:20
Machine
Learning
机器学习面试重点知识点笔记
目录AI算法解决安全问题:物联网环境下的网络安全yolov3深度学习中的技巧:卷积神经网络(CNN)中的独有技巧:谈谈如何调参:损失函数(
LossFunction
):是定义在单个样本上的,是指一个样本的误差
QianLingjun
·
2020-08-12 10:09
小白面试
【监督学习】第六课习得理论(learning theory)
其中V函数为
lossfunction
,损失函数,参数为观测y和预测y。而让这个期望误差最小的时候,我们就得到了在给定数据下的最优解,可惜的是,分布是固定但未知的,所以我们无法得到最优解。
机器玄学实践者
·
2020-08-12 00:06
监督学习
李宏毅机器学习:RNN(下)
RNN的LearningRNN在Learning时如何定义
lossfunction
呢?
sinat_32279627
·
2020-08-10 21:30
深度学习
机器学习中的损失函数 (着重比较:hinge loss vs softmax loss)
1.损失函数损失函数(
Lossfunction
)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常用L(Y,f(x))来表示。损失函数越小,模型的鲁棒性就越好。
Vinicier
·
2020-08-10 10:26
机器学习
深度学习
Mask R-CNN
论文:MaskR-CNN目录0.简介1.FasterRCNNResNet-FPN2.MaskRCNN3.ROIAlignROIpooling&缺陷ROIAlign4.Mask解耦(
LossFunction
长颈鹿大侠
·
2020-08-09 17:00
Mask R-CNN
论文:MaskR-CNN目录0.简介1.FasterRCNNResNet-FPN2.MaskRCNN3.ROIAlignROIpooling&缺陷ROIAlign4.Mask解耦(
LossFunction
长颈鹿大侠
·
2020-08-09 17:00
【深度学习】:梯度下降,随机梯度下降(SGD),和mini-batch梯度下降
一.梯度下降梯度下降就是最简单的用于神经网络当中用于更新参数的用法,计算loss的公式如下:有了
lossfunction
之后,我们立马通过这个loss求解出梯度,并将梯度用于参数theta的更新,如下所示
Geeksongs
·
2020-08-09 16:00
【深度学习】:梯度下降,随机梯度下降(SGD),和mini-batch梯度下降
一.梯度下降梯度下降就是最简单的用于神经网络当中用于更新参数的用法,计算loss的公式如下:有了
lossfunction
之后,我们立马通过这个loss求解出梯度,并将梯度用于参数theta的更新,如下所示
Geek Song
·
2020-08-09 16:00
Pytorch——循环神经网络层、损失函数、优化器
文章目录二、循环神经网络层三、损失函数(
LossFunction
)四、优化器关于深度学习的一些理解的参考链接:https://www.cnblogs.com/bamtercelboo/p/7469005
__矮油不错哟
·
2020-08-09 04:06
Pytorch
深度学习
【创新实训】风格迁移功能探索与实现(四) train_model.py 训练代码的编写
最难的还是train_model.py的编写其实读论文理解起来没有那么难但是用代码实现的话就要好多天,还不能保证没有bug...train.py中最难的还是
Lossfunction
模块的编写因为这也是论文的创新点
一鸣鸣
·
2020-08-08 19:57
项目创新实训
CS231-
SVMPretrainingLossFunction多分类SVMLoss正则化Pretraining1.mean-substraction:将所有特征值减去特征均值,使所有像素值处于[-127,127]之间2.标准化:使所有像素值处于[-1,1]之间
LossFunction
erliao0638
·
2020-08-08 15:10
机器学习基础随笔(3)
之前梯度下降用在预测宝可梦cp值θ∗=argminθL(θ)\theta^{*}=\arg\underset{\theta}{\min}L(\theta)\quadθ∗=argθminL(θ)L:
lossfunction
θ
追求大牛的皮蛋
·
2020-08-08 11:58
线性回归liner regression
线性回归linerregression模型描述 回归分析 线性回归部分预备知识假设函数(hypothesis)损失函数/代价函数(cost/
lossfunction
)等高线图(contourfigure
remix_j2
·
2020-08-04 16:28
机器学习
机器学习
kaggle《SIIM-ACR Pneumothorax Segmentation》第一名方案详解
Content1Introduction2OverView3InputData3.1DataAugmentation3.2SlidingSample4Model4.1ModelZoo4.2
LossFunction
4.3LearnRateScheduler4.3.1torch.optim.lr_scheduler.ReduceLROnPlateau4.3.2torch.optim.lr_schedu
KK.J
·
2020-08-04 14:44
Deep
Learning
机器学习系列(4)——梯度下降
梯度下降法在回归问题的第三步中,需要解决下面的最优化问题:θ∗=argminθL(θ)\theta^*=arg\min_\thetaL(\theta)θ∗=argminθL(θ)L:
lossfunction
victor_cs_bit
·
2020-08-03 23:50
机器学习与深度学习
(四)tensorflow2.0 - 实战稀疏自动编码器SAE
前文已经介绍完了tensorflow2.0自定义layer、model、
lossfunction
,本文将结合前述知识,搭建一个稀疏自动编码器SAE。
_吟游诗人
·
2020-08-03 21:29
tensorflow
机器学习
python
python
tensorflow
深度学习
SAE
稀疏自动编码器
pytorch Dropout
减低过拟合,一般可以通过:加大训练集、
lossfunction
加入正则化项、Dropout等途径。
主攻
·
2020-08-03 11:39
Pytorch
python
机器学习
机器学习——SVM
文章目录SVM介绍SVM理论SVM的三个参数核函数gammaC线性可分性(linearseparability)损失函数(
lossfunction
)经验风险(empiricalrisk)与结构风险(structuralrisk
Nani_xiao
·
2020-08-03 08:48
机器学习
SVM和逻辑回归对比!!!完整
2.LR和SVM有什么不同点(1)本质上是其
lossfunction
不同;(手动标红……哈哈哈)区别在于逻辑回归采用的是LogisticalLoss,SVM采
倪浦清
·
2020-08-03 08:43
Support Vector Machine (SVM)
SupportVectorMachine有两个特色:HingeLoss我们常见的BinaryClassification如下图所示,其中的
LossFunction
中的表示g(x)如果与Labely一样则输出
sun_sunnybei
·
2020-08-03 04:17
Machine
Learning
caffe-solver
运行代码一般为#caffetrain--solver=*_slover.prototxt在DeepLearning中,往往
lossfunction
是非凸的,没有解析解,我们需要通过优化方法来求解。
小智rando
·
2020-08-03 03:36
caffe
solver.prototxt文件里面参数含义及其设置
运行代码一般为:#caffetrain--solver=*_solver.prototxt在DL中,损失函数(
lossfunction
)是非凸的,没有解析解,我们需要通过优化的方法来求解。
Cche1
·
2020-08-03 02:48
caffe
cs231n assignment1 --SVM
先来看一看作业要求:重点在于SVM的
lossfunction
、gradientdescent、完成SGD的optimize和W的可视化。话不多说,开始干活!
东海鱼鱼
·
2020-08-02 23:07
cs231n
SVM的损失函数和对偶问题中的Slater条件,KKT条件
折页损失函数(HingeLoss) 在机器学习中,**hingeloss作为损失函数(
lossfunction
),通常被用于最大间隔算法(maximum-margin),而最大间隔算法又是支持向量机
Ioners
·
2020-08-02 20:27
机器学习
Coursera机器学习课程笔记(2) Linear Regression
为了寻找最优的参数\theta,我们可以最小化
lossfunction
即costf
yew1eb
·
2020-08-01 08:31
机器学习
R数据分析
机器学习
线性回归
《LOCALITY-CONSTRAINED SPATIAL TRANSFORMER NETWORKFOR VIDEO CROWD COUNTING》论文笔记
论文地址论文翻译ABSTRACT1.INTRODUCTION2.RELATEDWORK3.OURAPPROACH3.1.Densitymapregressionmodule3.2.LSTmodule3.3.
Lossfunction
3.4
大王子呀
·
2020-07-30 21:42
人群密度
paper
医疗图像:CT微小样本语义分割问题/loss篇
思路:loss上给其加权,使其focus小区域(最简单直接)loss合理优化,使其关注小区域网络结构这有一个篇非常好的
lossfunction
总结。
*小呆
·
2020-07-30 16:26
segmentation
Sklearn中二分类问题的交叉熵计算
二分类问题的交叉熵 在二分类问题中,损失函数(
lossfunction
)为交叉熵(crossentropy)损失函数。
山阴少年
·
2020-07-30 11:47
详细整理几种常见的损失函数|机器学习
损失函数(
LossFunction
)是定义在单个样本上的,算的是一个样本的误差。代价函数(CostFunction)是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。目标函数(
数据山谷
·
2020-07-29 22:37
数据挖掘
机器学习
关于机器学习中的误差、方差、偏差、噪声的一些个人理解。
首先是误差的概念,误差error可以理解为loss,在机器学习中,一般是定义一个误差函数(
LossFunction
),学习的过程就是最小化loss的过程。
yb2381001382
·
2020-07-29 01:15
- UnitBox An Advanced Object Detection Network,arxiv 16.08
-UnitBoxAnAdvancedObjectDetectionNetwork,arxiv16.08(download)该论文提出了一种新的
lossfunction
:IoUloss。
_menglan_Zi
·
2020-07-29 01:21
Deep
Learning
cvpr
深度学习常用损失函数总览:基本形式、原理、特点
而损失函数(
LossFunction
)则是这个过程中关键的一个组成部分,用来衡量模型的输出与真实的之间的差距,给模型的优化指明方向。
人工智能与算法学习
·
2020-07-28 20:37
机器学习
人工智能
深度学习
算法
python
[vins-mono代码阅读]边缘化
classResidualBlockInfostructResidualBlockInfo{ResidualBlockInfo(ceres::CostFunction*_cost_function,ceres::
LossFunction
daojun12138
·
2020-07-28 20:11
VINS 估计器之优化与边缘化
voidEstimator::optimization(){ceres::Problemproblem;ceres::
LossFunction
*loss_function;//loss_function
weixin_34232617
·
2020-07-28 19:08
3D人脸重建:《Joint 3D Face Reconstruction and Dense Alignment with Position Map Regression Network》
》文章目录0前言1概述2相关工作2.13D人脸重建2.2人脸对齐3详细思路3.13DFaceRepresentation3.2NetworkArchitectureandLossFunction3.3
LossFunction
4
Godswisdom
·
2020-07-28 13:00
3D人脸重建
论文阅读
slam中ceres的常见用法总结
ceres::Problemproblem;ceres::
LossFunction
*loss_function;//损失核函数//loss_function=newceres::HuberLoss(1.0
SLAM不dunk
·
2020-07-28 09:25
数学以及编程相关
模型的偏差和方差
一、偏差与方差在机器学习中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是定义一个
Lossfunction
(误差函数),通过将这个Loss(或者叫error)的最小化过程,来提高模型的性能
Taohongfei_huster
·
2020-07-28 09:16
机器学习
人工智能之GAN算法
不管何种模型,其损失函数(
LossFunction
)选择,将影响到训练结果质量,是机器学习模型设计的重要部分。对于判别模型,损失函数是容易定义的,因为输出的目标相对简单。
云淡风清的Coding
·
2020-07-28 07:30
算法
SVD++中implicit feedback权重设置的思考
在SVD++中,
lossfunction
如下所示:其中一个问题是:为什么要将implicitfeedback权重w设置为:我认为原因是:1,据作者Koren言,之前的模型中implicitfeedback
kiding_k
·
2020-07-28 01:17
协同过滤
常用损失函数总览:基本形式、原理、特点
而损失函数(
LossFunction
)则是这个过程中关键的一个组成部分,用来衡量模型的输出与真实的之间的差距,给模型的优化指明方向。本文将介绍机器学习、深度学习中分类与回归
ikeguang
·
2020-07-27 21:39
可视化
机器学习
人工智能
深度学习
算法
边缘化(marginalization )和稀疏化(sparsification)---ceres-solver
VINS中的BA优化来阐述ceres-solver怎么做边缘化和稀疏化.代码如下:voidEstimator::optimization(){ceres::Problemproblem;ceres::
LossFunction
金木炎
·
2020-07-27 12:48
【kaggle案例实战】实战过程笔记_知识点补充
(tips:将评判标准优化为
lossfunction
)2.工业上一些用机器学习的例子:1)互联网用户行为:CTR预测;2)销量预测:比如阿里菜鸟对存货数量的预测;3)图像内容在比赛中一般用DL垄断;
起个名字好难.JPG
·
2020-07-16 01:16
kaggle
cs231n assignment1 SVM 完整代码
svmSVM就是将你当前数据集映射到一个不同维度的支持向量机算法第一步:随机生成一个W矩阵,用这个矩阵将(3072,49000)的training图像集转化成(10,49000),对应的就是十种类别第二步:计算
lossfunction
椰树上的一只猫
·
2020-07-15 22:19
关于梯度下降算法的理解
然后就有一个
lossfunction
,这个拟合的更好,从Lossfunct
liang23333
·
2020-07-14 13:22
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他