E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LossFunction
机器学习专业英语单词
常用英语词汇-andrewNg课程[1]intensity强度[2]Regression回归[3]
Lossfunction
损失函数[4]non-convex非凸函数[5]neuralnetwork神经网络
勇敢爱
·
2017-12-12 15:40
人工智能
Keras 实现一个简单GAN
Keras实现一个简单GAN代码中需提供:
LossFunction
参见Keras或者Tensorflow文档model_param_matrix反向调整的模型参数/参数矩阵epoch迭代轮数W以及调整的方式
AYE89
·
2017-12-08 14:00
CNN学习笔记(一)——线性分类
2.代价函数(
Lossfunction
/Costfunction/objective)由分数和标签来确定代价值,即在用训练图片的分数和标签得到代价函数值。对于代价函数,我
拖拉机的音响
·
2017-12-03 05:23
Logistic Regression对J(θ)和sigmoid的求导
LogisticRegression中对
lossfunction
的求导的详细推导,之前自己看ng的课程其实不是特别理解这个推导过程,今天自己推了一遍感觉清析很多我们求导到这里可以先放下先对h(x)进行求导求到这里我们把
Peter_ch_26
·
2017-11-18 22:03
机器学习
逻辑回归
PyTorch笔记8-Dropout
PyTorch视频教程笔记github源码概要在训练时loss已经很小,但是把训练的NN放到测试集中跑,loss突然飙升,这很可能出现了过拟合(overfitting)减低过拟合,一般可以通过:加大训练集、
lossfunction
YJH-666
·
2017-11-06 08:26
深度学习
PyTorch
Caffe傻瓜系列(6):solver及其配置
运行代码一般为#caffetrain--solver=*_slover.prototxt在DeepLearning中,往往
lossfunction
是非凸的,没有解析解,我们需要通过优化方法来求解。
伊藤炫
·
2017-11-03 19:36
CS231N学习笔记4 Optimization: Stochastic Gradient Descent
OptimizationistheprocessoffindingthesetofparametersWWthatminimizethelossfunction.Visualizingthelossfunction从上一个chapter,得到
lossfunction
dancinglikelink
·
2017-11-02 20:59
CS231n学习笔记
CS231N学习笔记4 Optimization: Stochastic Gradient Descent
OptimizationistheprocessoffindingthesetofparametersWWthatminimizethelossfunction.Visualizingthelossfunction从上一个chapter,得到
lossfunction
dancinglikelink
·
2017-11-02 20:59
CS231n学习笔记
评估目标之RMSE,MAP,NDCG
MSEMSE(meansquareerror,均方误差)是预测值与真实值差的平方的期望:2.RMSERMSE(rootmeansquareerror,均方根误差)是MSE的算数平方根RMSE在常在回归问题中用作
lossfunction
3
一个人的场域
·
2017-10-19 00:25
机器学习
推荐系统
DQN 以及 DQN的扩展
本文主要记录关于DQN(DeepReinforcementLearning)的相关论文以及
lossfunction
以及近几年在DQN的基础上进行改进的算法。
ckqsars
·
2017-10-17 11:34
算法
目标检测之focal loss
FocalLossforDenseObjectDetectionTsung-YiLinPriyaGoyalRossGirshickKaimingHePiotrDollar´FacebookAIResearch(FAIR),最近出的一篇做目标检测的工作,本质上是个利用
lossfunction
迷途中一个小书童
·
2017-10-09 22:57
谈谈对泛化误差的理解
比如在回归中,我们的
lossfunction
就表示一个误差。而我们需要做的,就是最小化这个误差,也就是对objectfunction的处理。那么什么是泛化误差呢?
Cerisier
·
2017-09-28 13:01
机器学习
面试中遇到过的问题
而sigmoid是最理想的,在预测值=0附近曲线很陡,而且能将预测值转化为一个接近0/1的y值怎么得出
lossfunction
?使用极大似然法MLE来估计w和b,最大化“对
N方琪
·
2017-09-27 00:38
面试
数据挖掘面试
XGBoost模型跟Logistic Regression模型的本质区别
把握机器学习算法关键点有两个1、
lossfunction
的理解(包括:特征X/标签Y配对的建模,X/Y配对建模的
lossfunction
的设计)。2、
lossfunction
的求解过程。
glanose
·
2017-09-24 22:24
机器学习
学习笔记
数据分析
随笔
深度学习
面经笔经
浅析机器学习中各种损失函数及其含义
常见的损失函数1.0-1损失函数(0-1
lossfunction
)L(Y,f(X))={1,Y≠f(X)0,Y=f(X) 可以看出,该损失函数的意义就是,当预测错误时,损失函数值为1,预测正确时,损失函数值为
DASEason
·
2017-09-14 14:15
知识整理
机器学习
DL&ML基础学习一
神经网络中常用的激活函数sigmoid,tanh等,第一次听到sigmoid函数是在逻辑回归的部分,实际从该角度看神经网络是高级的分类模型,而逻辑回归也是为了分类目标,他们可以使用相同的
lossfunction
涯若
·
2017-09-09 11:25
机器学习
RF GBDT XGBOOST的区别与联系
Gradientboosting(GB)机器学习中的学习算法的目标是为了优化或者说最小化
lossFunction
,Gradientboosting的思想是迭代生多个(M个)弱的模型,然后将每个弱模型的预测结果相加
mishidemudong
·
2017-08-23 15:48
机器学习
数据结构与算法
盘点机器学习中常见的损失函数和优化算法
通常来讲,目标函数可以衡量一个模型的好坏,对于模型的优化通常求解模型的最大化或者最小化,当求取最小化时也称
lossfunction
即损失函数,也称为成本函数、代价函数。大多数情况下两者并不做严格区分。
笛在月明
·
2017-08-19 16:10
算法
CS231n课程笔记三 梯度下降
Higher-levelrepresentations,imagefeaturesOptimization,stochasticgradientdescent导语:在上一个部分我们介绍了在图像识别领域的两个重要部分:scorefunction和
lossfunction
彭岩
·
2017-08-18 15:49
机器学习-损失函数详解
损失函数(
lossfunction
)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y,f(x))来表示,损失函数越小,模型的鲁棒性就越好。
文哥的学习日记
·
2017-08-02 23:20
逻辑回归与最大熵模型
需要注意的地方有:1.Logistic函数的表达式:其导数形式为2.logsitc回归方法主要是用最大似然估计来学习的,所以单个样本的后验概率为:到整个样本的后验概率:其中:可通过对数进一步简化:3.其实它的
lossfunction
士多啤梨苹果橙_cc15
·
2017-08-02 17:42
深层神经网络——分类、回归的损失函数
神经网络模型的效果以及优化目标是通过损失函数(
lossfunction
)来定义的。分类问题和回归问题有很多经典的损失函数。分类问题和回归问题是监督学习的两大种类。
魂小猫
·
2017-07-18 14:57
深度学习
Tensorflow
神经网络
深度学习中的Data Augmentation方法(转)
通过平移,翻转,加噪声等方法从已有数据中创造出一批"新"的数据.也就是DataAugmentation2.Regularization.数据量比较小会导致模型过拟合,使得训练误差很小而测试误差特别大.通过在
LossFunction
VickyD1023
·
2017-05-18 22:39
Deep
Learning
Softmax函数与交叉熵
Softmax函数背景与定义导数softmax的计算与数值稳定性
Lossfunction
对数似然函数交叉熵
Lossfunction
求导TensorFlow方法1手动实现不建议使用方法2使用tfnnsoftmax_cross_entropy_with_logits
behamcheung
·
2017-05-13 23:00
deep-learning
损失函数
byMicrosoft损失函数(
lossfunction
)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y,f(x))来表示。
SeanC52111
·
2017-04-16 16:52
几种常见损失函数
损失函数
LossFunction
也可称为代价函数CostFunction,用于衡量预测值与实际值的偏离程度。
futurehau
·
2017-04-14 11:00
深度学习小白——线性分类(SVM)
每一行代表一个分类器若b=0,则所有的分类器都不得不过原点,这样是不好的,所以要加上这个偏差b一般实际操作中,将w和b放到一个矩阵中,所以就要向x中增加一个维度,设为常量1,这就是默认的偏差维度二、损失函数
LossFunction
MargaretWG
·
2017-03-22 13:25
深度学习小白——线性分类(SVM)
每一行代表一个分类器若b=0,则所有的分类器都不得不过原点,这样是不好的,所以要加上这个偏差b一般实际操作中,将w和b放到一个矩阵中,所以就要向x中增加一个维度,设为常量1,这就是默认的偏差维度二、损失函数
LossFunction
MargaretWG
·
2017-03-22 13:25
瞎谈CNN:通过优化求解输入图像
本文同步自我的知乎专栏:FromBeijingwithLove机器学习和优化问题很多机器学习方法可以归结为优化问题,对于一个参数模型,比如神经网络,用来表示的话,训练模型其实就是下面的参数优化问题:其中L是
lossfunction
muzili12a3
·
2017-03-12 17:55
TensorFlow 实战(一)—— 交叉熵(cross entropy)的定义
对多分类问题(multi-class),通常使用cross-entropy作为
lossfunction
。
Inside_Zhang
·
2017-03-11 09:11
caffe层解读系列-softmax_loss
LossFunction
可选参数使用方法扩展使用LossFunctionsoftmax_loss的计算包含2步:(1)计算softmax归一化概率(2)计算损失这里以batchsize=1的2分类为例:
看穿数据之美
·
2017-03-05 01:59
深度学习/机器学习
生成对抗网络(GAN)
最新的文章从根本上论证了原本的
lossfunction
错在哪里,以及如何修改
lossfunction
简单来说,gan包含一个生成器和一个判别器。
Sun7_She
·
2017-02-28 09:30
深度学习
Caffe最优求解过程及I/O模块
GoogleOpenimagesDataset1.Caffe最优求解过程1.1Solver介绍Caffe结构Caffe的重中之重(核心)——Solver负责对模型优化,让损失函数(
lossfunction
sixfold_yuan
·
2017-02-27 14:18
caffe 源码的解读(2)
lossFunction
我们在loss层经常看到的函数:caffe_cpu_axpby(constintN,constfloatalpha,constfloat*X,constfolatbeta,float*Y)//这个函数在caffe的util下面的match-functions.cpp里面//Y=alpha*X+beta*Y//也就是blob里面的data部分减去diff部分/*exampleofcaffe_cpu_
_小马奔腾
·
2017-02-27 10:14
caffe
机器学习问题解决思路
主要包括以下内容:拿到数据后怎么了解数据(可视化)选择最贴切的机器学习算法定位模型状态(过/欠拟合)以及解决方法大量级s的数据的特征分析与可视化各种损失函数(
lossfunction
)的优缺点及如何选择多说一句
Dongdong Bai
·
2017-02-04 11:37
机器学习
adaBoost算法-分类
boosting与adaBoost的区别:boosting是一种将弱分类器转化为强分类器的方法统称,而adaboost是其中的一种,采用了exponentiallossfunction(指数损失函数),根据不同的
lossfunction
jay463261929
·
2017-01-18 15:39
机器学习
论文笔记之Structural Deep Network Embedding
使其变成半监督学习的模式(其实就是对
lossfunction
改了改)输入是一个graph的n*n的邻接矩阵S,其实可以看成有n个数据的训练集,每个数据的fea
BVL10101111
·
2017-01-09 20:43
machine
learning
graph
论文笔记
tensorflow如何自由处理梯度
本文的由来是因为我想使用一个stepfunction作为我的
lossfunction
,但是直接使用会导致gradient不能计算,而之前在看tensorflow相关文档时,发现minimize可看作compute_gradients
hekkoo
·
2016-12-27 16:46
机器学习
深度学习中防止过拟合的方法
通过平移,翻转,加噪声等方法从已有数据中创造出一批"新"的数据.也就是DataAugmentation2.Regularization.数据量比较小会导致模型过拟合,使得训练误差很小而测试误差特别大.通过在
LossFunction
Ddreaming
·
2016-11-18 09:06
深度学习
总结:Bias(偏差),Error(误差),Variance(方差)及CV(交叉验证)
里面也有一些自己的理解和需要注意的地方,以此记录一下,总结如下,思想不够成熟,以后再补充,如有错误请不吝指正犀利的开头在机器学习中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是定义一个
Lossfunction
MrLevo520
·
2016-11-11 18:00
机器学习
cv
bias
variance
Ensemble learning 集成学习(二)
lossfunction
(损失函数)描述的是模型的不靠谱程度,损失函数越大,则说明模型越容易出错(其实这里有一个方差、偏差均衡的
Jeramy_zsm
·
2016-10-19 18:06
机器学习(Machine
Learning)
人脸识别 - A Discriminative Feature Learning Approach for Deep Face Recognition
ADiscriminativeFeatureLearningApproachforDeepFaceRecognitionECCV2016code:https://github.com/ydwen/caffe-face本文针对人脸识别问题,针对
lossfunction
cv_family_z
·
2016-10-17 10:37
人脸识别
ZJ
ECCV2016
机器学习中常见的损失函数
机器学习中常见的损失函数 一般来说,我们在进行机器学习任务时,使用的每一个算法都有一个目标函数,算法便是对这个目标函数进行优化,特别是在分类或者回归任务中,便是使用损失函数(
LossFunction
)
一只鸟的天空
·
2016-09-07 19:56
损失函数
机器学习
Loss-Func
损失项
正则项
数据挖掘与机器学习
cs231n-(3)最优化:随机梯度下降
函数优化随机搜索随机本地搜索沿着梯度计算梯度数值梯度分析梯度梯度下降Mini-batch梯度下降随机梯度下面StochasticGradientDescentSGD总结介绍上节介绍了图像分类中两个重要的组成部分:1、评价函数scorefunction2、损失函数
lossfunction
KangRoger
·
2016-09-04 11:25
cs231n笔记
CS231n学习笔记
《统计学习方法》学习笔记(1)--统计学习三要素
策略:从假设空间中选择模型的准则,也就是要最大/最小化的
lossfunction
。算法:求解上
lossfunction
得到模型的参数的方法。Note:以下以监督学习为基础来进行论述。
蓁蓁尔
·
2016-07-25 11:22
机器学习相关
caffe solver解释
运行代码一般为#caffetrain--solver=*_slover.prototxt在DeepLearning中,往往
lossfunction
是非凸的,没有解析解,我们需要通过优化方法来求解。
ZhikangFu
·
2016-06-21 18:00
solver.prototxt参数说明(二)
运行代码一般为#caffetrain--solver=*_slover.prototxt在DeepLearning中,往往
lossfunction
是非凸的,没有解析解,我们需要通过优化方
u012746763
·
2016-05-31 21:00
CS231n 卷积神经网络与计算机视觉 3 最优化与随机梯度下降
上节中我们已经接触到了图像识别中的两部分scorefunction和
lossfunction
,这节将会引入对
lossfunction
的优化求解,也就是optimization。
bea_tree
·
2016-05-25 17:00
计算机视觉
cnn
深度学习
随机梯度下降
SGD
cs231n 卷积神经网络与计算机视觉 2 SVM softmax
这种新的算法有两部分组成:1.评价函数scorefunction,用于将原始数据映射到分类结果(预测值);2.损失函数
lossfunction
,用于定量分析预测
bea_tree
·
2016-05-25 01:00
SVM
神经网络
深度学习
SoftMax
线性分类器
机器学习-损失函数
损失函数(
lossfunction
)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y,f(x))来表示,损失函数越小,模型的鲁棒性就越好。
Bryan__
·
2016-05-06 15:44
机器学习
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他