E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LossFunction
深度学习:基于pytorch,从零到实现CNN分类器并优化
Pytorch导入包tensor基础操作与Numpy类型相互转化Autograd(自动求微分)前言简述autograd包的使用神经网络前言简述神经网络基本训练过程定义神经网络(注释官网的代码)损失函数(
lossfunction
crabstew
·
2019-03-24 01:18
深度学习
pytorch
梯度下降(gradient descent)原理
梯度下降法的灵感来源3.梯度下降原理使用梯度下降法训练神经网络随机梯度下降法(stochasticgradientdescent)Tricks目标:解决多变量函数的最优化问题例如神经网络中的损失函数(
lossfunction
LilyZJ
·
2019-03-20 23:52
神经网络与深度学习
XGBoost面试级别回顾
GB中使用
LossFunction
对f(x)的一阶导数计算出伪残差用于学习生成fm(x),xgboost不仅使用到了一阶导数
DemonHunter211
·
2019-03-12 12:34
深度学习
过拟合及其对策
1损失函数损失函数(
lossfunction
):是用来度量模型预测值f(x)与样本真实标签值y的不一致程度。
ZingpLiu
·
2019-03-11 16:00
Keras手册记录之loss function,待更新
lossfunction
:https://keras.io/losses/mean_squared_errorkeras.losses.mean_squared_error(y_true,y_pred)
阿喵要当程序员
·
2019-03-08 15:00
dl
keras
XGBoost面试级别回顾
GB中使用
LossFunction
对f(x)的一阶导数计算出伪残差用于学习生成fm(x),xgboost不仅使用到了一阶导数
饥渴的小苹果
·
2019-03-07 20:44
机器学习
从loss处理图像分割中类别极度不均衡的状况---keras
文章目录前言场景
lossfunction
一、Logloss二、WBELoss三、Focalloss四、Diceloss五、IOUloss六、Tverskyloss七、敏感性--特异性loss八、GeneralizedDiceloss
chestnut--
·
2019-02-10 23:35
图像分割
keras
dice
loss
focal
loss
类别不均衡
深度学习笔记
反向传播算法为什么要“反向”
背景在机器学习中,很多算法最后都会转化为求一个目标损失函数(
lossfunction
)的最小值。这个损失函数往往很复杂,难以求出最值的解析表达式。而梯度下降法正是为了解决这类问题。直观地说一
kangheng
·
2019-02-01 15:00
darknet 源码阅读(网络层代码)——yolov3 yolo_layer
lossfunction
:∑i=1
jmujsc
·
2019-01-27 15:29
计算机视觉
深度学习
darknet
darknet
损失函数与鲁棒性
损失函数(
Lossfunction
)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常用L(Y,f(x))来表示。损失函数越小,模型的鲁棒性就越好。
LY豪
·
2019-01-24 20:42
Pytorch模型训练(4) - Loss Function
《
LossFunction
》 本文总结Pytorch中的
LossFunction
LossFunction
是深度学习模型训练中非常重要的一个模块,它评估网络输出与真实目标之间误差,训练中会根据这个误差来更新网络参数
Godswisdom
·
2019-01-24 16:04
Pytorch
Python
源码解析
深度学习2
损失函数损失函数(
lossfunction
)是表示神经网络性能的“恶劣程度”的指标,即当
kobeboa
·
2019-01-11 10:32
123
lossfunction
极大似然最大后验???最大后验后面会加正则项而已多个二分类和用softmax????多分类的crossentropy????前馈神经网络:沿着方向往前算。
ChichiZhou
·
2019-01-04 02:06
123
lossfunction
极大似然最大后验???最大后验后面会加正则项而已多个二分类和用softmax????多分类的crossentropy????前馈神经网络:沿着方向往前算。
ChichiZhou
·
2019-01-04 02:06
几种常见的损失函数
转自:几种常见的损失函数(https://www.cnblogs.com/lliuye/p/9549881.html)1.损失函数、代价函数与目标函数 损失函数(
LossFunction
):是定义在单个样本上的
haozhepeng
·
2018-12-21 16:33
数据挖掘
机器学习
ipdb 使用小记
最近在魔改
lossfunction
,涉及到很多矩阵运算,而矩阵运算中维度的对齐免不了要多次的调试;沿袭着之前的print大法弄了一段时间后,不仅代码凌乱不堪,而且心累:每次importtensorflowastf
·
2018-12-21 12:00
工具使用
python
工具使用
wolfram实现小阿尔法狗(含python版)
但是经过本人一下午的鼓捣,发现还是没有办法查看wolfram损失层定义的标准接口和内部方法,所以我尝试过猜测的接口类型去自己写
lossfunction
,不过
你是天使放纵我的固执
·
2018-12-16 19:00
wolfram
人工智能
cross_entropy = -tf.reduce_mean( y_* tf.log(tf.clip_by_value(y,1e-10,1.0)))#交叉熵含义
转载:https://blog.csdn.net/weixin_38195506/article/details/75302445神经网络模型的效果以及优化目标是通过损失函数(
lossfunction
)
qq_1410888563
·
2018-12-15 23:49
DL笔记:深入理解softmax交叉熵损失函数反向传播求导过程分析
目录一、softmax函数二、损失函数
lossfunction
三、最后的准备工作四、具体的推导过程softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的步骤就是求导,从这个过程也可以更深刻地理解反向传播的过程
炊烟袅袅岁月情
·
2018-12-12 12:36
Machine
Learning
Deep
Learning
深度学习
线性回归基础梳理
一.概念1.损失函数损失函数(
Lossfunction
)是用来估量你模型的预测值f(x)f(x)与真实值YY的不一致程度,它是一个非负实值函数,通常用L(Y,f(x))L(Y,f(x))来表示。
方糖_Sugar
·
2018-12-10 13:00
几种损失函数比较
1.综述损失函数(
LossFunction
)是用来评估模型好坏程度,即预测值f(x)与真实值的不一致程度,通常表示为L(Y,f(x))的一个非负的浮点数。
lawenliu
·
2018-12-08 12:39
YOLO v1一些细节上的理解
由imtrainim_{train}imtrain生成target值得注意啊啊啊
lossfunction
里面的xi,yix_i,y_ixi,yi是bboxes的中心坐标,是相对于当前grid的左上角点的坐标值
冬日and暖阳
·
2018-11-26 16:54
deep
learning
神经网络学习引入-线性分类器 Linear Classification
线性分类器评分函数(scorefunction):计算原始数据到所属分类的得分损失函数(
lossfunction
):量化预测得分和实际情况之间的认可度从图像到标签得分的参数映射定义评分函数f:RD−>
AG9GgG
·
2018-11-26 10:50
CS231n学习笔记
pytorch模型训练之 loss function选择
作者:夏敏编辑:田旭前言在训练一个网络时候,我们会根据不同的任务选择不同的
lossfunction
,我们简单介绍一些
lossfunction
以及他们的应用场景。
l7H9JA4
·
2018-11-16 18:56
pytorch系列 --11 pytorch loss function: MSELoss BCELoss CrossEntropyLoss及one_hot 格式求 cross_entropy
本文主要包括:pytorch实现的损失函数pytorch实现的
lossfunction
神经网络主要实现分类以及回归预测两类问题,对于回归问题,主要讲述均方损失函数,而对于一些回归问题,需要根据特殊情况自定义损失函数
墨氲
·
2018-11-13 22:05
pytorch
记录
python3
pytorch0.4系列教程
cs231n学习笔记-第三课
1.损失函数(
lossfunction
):用于评价分类器表现,变量为预测值和实际值(判断预测结果)multiclasssvmlossfunction:考虑第i张图片,xi为其像素值,yi为其标签,s为其分类结
breato
·
2018-11-02 21:13
cs231n
秋招笔试题
列举几种深度学习的
lossfunction
,并说明意义深度学习是一种方法,神经网络是个模型,深度学习方法呢可以有效解决层数多的神经网络不好学习的问题,为了让层数较多的多层神经网络可以训练,能够起作用并演化出来的一系列的新的结构和新的方法
l7H9JA4
·
2018-11-02 17:47
秋招笔试题
列举几种深度学习的
lossfunction
,并说明意义深度学习是一种方法,神经网络是个模型,深度学习方法呢可以有效解决层数多的神经网络不好学习的问题,为了让层数较多的多层神经网络可以训练,能够起作用并演化出来的一系列的新的结构和新的方法
l7H9JA4
·
2018-11-02 17:47
语义分割网络-BiSenet
SementicSegmentation-BiSenet)介绍思路来源关于感受野关于空间信息网络框架SpatialPathContextPathBackBone网络注意力优化模块(ARM):特征融合模块(FFM):放大与输出
LossFunction
Freeverc
·
2018-10-31 21:53
语义分割
深度学习
Faster R-CNN:关于RPN的loss及实现
FasterR-CNN是用于图像检测的一种算法,本文具体讨论了RPN部分的
lossfunction
数学计算以及Python3.0+TensorFlow1.9条件下的代码实现。
fine_0007
·
2018-10-26 22:05
超参数,判别生成模型,Metrics,梯度消失,正则化,VGG优点,dropout,GD和牛顿法,GD系列
超参数是根据经验设定使得模型具有好的效果的参数,CNN中常见的超参数有:1卷积层层数2全连接层层数3卷积核size4卷积核数目5learningrate6正则化参数λ\lambdaλ7minibatchsize8
lossfunction
9weightinitialization10activationfunc
WeissSama
·
2018-10-19 20:54
Deep
Learning
XGBoost应用于“时间序列预测问题”实战与疑问(包含dump model的booster分析)
文章目录使用源码参考博文(有思考)1.概述(摘录与理解)2.XGBoost建树的过程3.XGBoost目标函数以及
lossfunction
的构建4.XGBoost论文的创新点在构建回归树的解释5.XGBoost
Thomas_Cai
·
2018-10-19 16:54
机器学习(数据分析)
机器学习中常用损失函数
1.损失函数损失函数(
Lossfunction
)是用来估量你模型的预测值f(x)f(x)值。
Missayaa
·
2018-10-18 14:50
机器学习
python机器学习之神经网络实现
因此我们在建立模型的时候,都会有一个
lossfunction
。而在神经网络里也不例外,也有个类似的
lossfunction
。对回归
Yaniesta
·
2018-10-13 15:41
cs231n Lecture 3 线性分类笔记(二)
内容列表线性分类器简介线性评分函数阐明线性分类器损失函数多类SVMSoftmax分类器SVM和Softmax的比较基于Web的可交互线性分类器原型小结注:中文翻译出自知乎专栏“智能单元”,在其基础上增加了个人批注损失函数
Lossfunction
kapoo-pai
·
2018-10-12 15:58
cs231n
数据挖掘工程师必备基础
movielens)8.FMvsSVM面试笔记2018/2019/校招/春招/秋招/算法/NLP/深度学习/机器学习面试笔记算法工程师手册算法工程师手册1.损失函数【深度学习】一文读懂机器学习常用损失函数(
LossFunction
bllddee
·
2018-09-14 17:54
Python机器学习
数据挖掘工程师必备基础
movielens)8.FMvsSVM面试笔记2018/2019/校招/春招/秋招/算法/NLP/深度学习/机器学习面试笔记算法工程师手册算法工程师手册1.损失函数【深度学习】一文读懂机器学习常用损失函数(
LossFunction
bllddee
·
2018-09-14 17:54
Python机器学习
7、【李宏毅机器学习(2017)】Backpropagation(反向传播算法)
GradientDescent链式求导法则Backpropagation反向传播算法介绍前向传播算法和反响传播算法复习GradientDescent在学习反向传播算法之前重新回归一下梯度下降算法,在神经网络求解最优化
Lossfunction
Jimmyzqb
·
2018-08-28 19:15
学习笔记
李宏毅机器学习(2017)
笔记
3、【李宏毅机器学习(2017)】Gradient Descent(梯度下降)
目录梯度下降算法介绍自动调整学习速率学习速率对算法的影响Adagrad随机梯度下降FeatureScaling理论部分梯度下降算法的限制梯度下降算法介绍自动调整学习速率学习速率对算法的影响如果学习速率适合,那么优化
Lossfunction
Jimmyzqb
·
2018-08-28 12:07
学习笔记
李宏毅机器学习(2017)
笔记
sklearn-loss function
我认为各个模型核心就是
lossfunction
,
lossfunction
不同就是不同的模型,具有相同的
lossfunction
大体也就相同,可能只是一个是分类,一个是回归,比如SVC和SVR之类,在参数上也大体相同
ddm2014
·
2018-08-24 11:00
机器学习总结(三)——损失函数
不同的算法常用的损失函数(
LossFunction
)有:一、0-
MonkyK
·
2018-08-21 19:33
机器学习
机器学习中的损失函数(凸函数辨别)
(转)机器学习中的损失函数损失函数(
lossfunction
)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y,f(x))来表示,损失函数越小,模型的鲁棒性就越好
chenXin@Gauss
·
2018-08-15 18:08
人工智能ML
【DL-CV】损失函数,SVM损失与交叉熵损失
我们会引入损失函数
LossFunction
(或叫代价函数CostFunction)定量的衡量该模型(也就是权重W)的好坏,其原理是——输出结果与真实结果之间差异越大,损失函数输出越大,模型越糟糕(需要训练让损失变小
八九寺真宵
·
2018-08-11 00:00
人工智能
python
深度学习
计算机视觉
【问题解决】Keras实现LSTM回归模型预测结果为相同常数解决方式
遇见问题在用keras实现对某数据利用LSTM做时间序列回归的任务时,若loss出现以下情况:注意其loss(此处用meansquareerror作为
lossfunction
)在很大的时候就收敛了,且预测值出现下面的情况
Irene_Loong
·
2018-08-07 17:29
机器学习
机器学习----Xgboost与GBDT
首先理解一下Gradientboosting(GB)2、GBDTXgboost1、理解2、算法GBDT1、首先理解一下Gradientboosting(GB)机器学习中的学习算法的目标是为了优化或者说最小化
lossFunction
sakura小樱
·
2018-08-03 00:00
机器学习
一、目标定位
如下对于有目标的pc为1,后面的值有意义,如果没有目标,则pc值为0,后面的值没有意义,对于
lossfunction
,如果有目标,则可以简单用8项的平方差,当然也可以用
你不来我不老
·
2018-08-01 17:10
yolo
Sklearn中二分类问题的交叉熵计算
二分类问题的交叉熵 在二分类问题中,损失函数(
lossfunction
)为交叉熵(crossentropy)损失函数。
山阴少年
·
2018-07-26 20:34
机器学习
PyTorch学习笔记(4)——自定义Loss Function(自动打印每次的梯度)
在stackoverflow上看到一个名叫Ismail_Elezi的老铁问了个自定义
LossFunction
的问题,它的问题在于:1)反向传播报错2)矩阵算法使用不行3)算法数值稳定性不行。
sooner高
·
2018-07-19 16:02
深度学习
PyTorch
PyTorch框架学习
TensorFlow——Mnist手写数字识别并可视化 实战教程(一)
笔者信息:Next_LegendQQ:1219154092人工智能图像处理神经网络高维信息处理自然语言处理——2018.7.18于云邱山步骤流程准备mnist数据集构建CNN网络结构构建
lossfunction
小亮 Play NLP
·
2018-07-18 10:54
python
tensorflow
Logistic回归算法理解之从模型到损失函数、参数求解、预测
,有以下描述:统计学习方法都是由模型,策略,和算法构成的,即统计学习方法由三要素构成,可以简单表示为:对于logistic回归来说,模型自然就是logistic回归,策略最常用的方法是用一个损失函数(
lossfunction
hahaha_2017
·
2018-07-16 15:11
机器学习
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他