E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
loss公式推导
《机器学习
公式推导
与代码实现》chapter21-贝叶斯概率模型
《机器学习
公式推导
与代码实现》学习笔记,记录一下自己的学习过程,详细的内容请大家购买作者的书籍查阅。
Jiawen9
·
2023-10-28 17:44
#
《机器学习代码实现》学习笔记
机器学习
人工智能
数据挖掘
算法
python
分类
Task02 PyTorch进阶训练技巧
datawhalechina/thorough-pytorch本task注重于pytorch在实际使用中的一些操作~较为实用1.自定义损失函数PyTorch在torch.nn模块为我们提供了许多常用的损失函数,比如:MSE
Loss
从你美丽的流域
·
2023-10-28 12:13
多分类
loss
学习记录
这里简单的记录在人脸识别/声纹识别中常用的分类
loss
。详细原理可以参考其他博客。
weixin_43870390
·
2023-10-28 09:53
分类
学习
数据挖掘
【扩散模型】扩散模型讲解以及基础代码运用 附知识链接
李宏毅教学视频:Link1B站DDPM
公式推导
以及代码实现:Link2这个视频里面有论文里面的
公式推导
,并且1小时10分开始讲解实例代码。后面一段时间看了一些其他博客,更加明白了。
求求你来BUG行不行
·
2023-10-28 06:25
研一学习
深度学习
概率论
扩散模型
论文阅读——DistilBERT
ArXiv:https://arxiv.org/abs/1910.01108Train
Loss
:DistilBERT:DistilBERT具有与BERT相同的一般结构,层数减少2倍,移除token类型嵌入和
じんじん
·
2023-10-28 05:14
NLP
深度学习
反向传播法(backpropagation)的基本原理
反向传播backpropagation,李宏毅神经网络的结构:
loss
(损失)的计算:L(θ)=∑n=1NCn(θ)L(\theta)=\sum_{n=1}^{N}C^{n}(\theta)L(θ)=n
星海浮生
·
2023-10-28 04:50
机器学习
算法
poly
loss
详解
1、常见的泰勒展开公式2、poly
loss
引入动机2.1、poly
loss
定义poly
loss
通过泰勒展开来逼近损失函数的简单框架,将损失函数设计为多项式函数的线性组合2.2、poly
loss
主要贡献提出了一个新的框架来理解和设计损失函数
frostjsy
·
2023-10-28 03:46
python
人工智能
机器学习
loss
&BN
stilltipsforlearningclassificationandregression关于softmax的引入和作用分类问题损失函数-MSE&Cross-entropy⭐BatchNormalization(BN)⭐想法:直接改errorsurface的landscape,把山铲平featurenormalization那我们如何继续传播normalization的参数呢?添加参数γ,β调
Selvaggia
·
2023-10-28 01:12
学习
人工智能
强化学习------PPO算法
目录简介一、PPO原理1、由On-policy转化为Off-policy2、ImportanceSampling(重要性采样)3、off-policy下的梯度
公式推导
二、PPO算法两种形式1、PPO-Penalty2
韭菜盖饭
·
2023-10-27 23:36
强化学习
算法
强化学习·
自然语言处理
一文详解手眼标定
公式推导
文章目录一、坐标系运算规则1、坐标系运算规则一(点)2、坐标系运算规则二(坐标系)3、齐次变换二、手眼标定
公式推导
1、眼在手外2、眼在手上3、解方程AX=XB后记假设手眼标定坐标系表示如下:机械臂基底坐标系
PaQiuQiu
·
2023-10-27 22:22
3D
从无知到无畏
点云
手眼标定
数学原理
Shader基础笔记(4)- 基础纹理
("ColorTint",Color)=(1,1,1,1)_MainTex("MainTex",2D)="white"{}_Specular("Specular",Color)=(1,1,1,1)_G
loss
邱宏健
·
2023-10-27 21:21
【深度学习实验】网络优化与正则化(一):优化算法:使用动量优化的随机梯度下降算法(Stochastic Gradient Descent with Momentum)
优化器的前馈神经网络2.随机梯度下降的改进方法a.学习率调整b.梯度估计修正3.梯度估计修正:动量法Momentuma.init_momentum_statesb.sgd_momentumc.evaluate_
loss
d.traine
QomolangmaH
·
2023-10-27 19:15
深度学习实验
深度学习
算法
人工智能
One of the differentiated Tensors appears to not have been used in the graph. Set allow_unused=True
使用grad=torch.autograd.grad(
loss
,self.
不当菜鸡的程序媛
·
2023-10-27 17:09
人工智能
深度学习
机器学习
Gpt,gpt2,gpt3,bert,roberta,t5模型区别分析
GPT3:超大规模只有encoder:Bert:同时使用上下文进行编码Roberta:相比bert主要是在训练参数上做了调整:batchsize,adam参数,训练数据、nsp
loss
、epoch数,词表大小
不当菜鸡的程序媛
·
2023-10-27 17:38
gpt
gpt-3
bert
自监督学习之对比学习:MoCo模型超级详解解读+总结
3.1编码器的更新规则3.2使用动量更新的原因四、实验过程4.1目标函数:infoNCE4.1.1softmax4.1.2交叉熵损失4.1.3交叉熵损失函数和softmax的关系4.1.4为什么使用NCE
loss
4.2
好喜欢吃红柚子
·
2023-10-27 14:20
自监督学习
python
迁移学习
机器学习
人工智能
神经网络
Pytorch代码入门学习之分类任务(三):定义损失函数与优化器
1.3交叉熵误差(crossentropyerror)二、定义优化器2.1代码2.2构造优化器2.3随机梯度下降法(SGD)一、定义损失函数1.1代码criterion=nn.CrossEntropy
Loss
摘星星的屋顶
·
2023-10-27 14:24
Python相关知识
pytorch
学习
分类
python
CRC校验原理和推导过程及Verilog实现(一文讲透)
初始值与结果异或值1.2.5输入值反转与输出值反转二、CRC校验原理2.1CRC校验计数基础知识2.2CRC多项式的选择(除数的选择)三、CRC校验码手动计算四、CRC校验算法推导与Verilog实现4.1CRC校验
公式推导
过程
小火子Velsuked
·
2023-10-27 10:26
Verilog
CRC校验
verilog
[Kaggle] M5 Forecasting - Accuracy summary
ChapterBackgroudFeatureengineeringDataselection
Loss
function&weightTrainStrategyPostprocess&shakeupTopsolutionanalysisBackgroudM5Forecasting-Accuracy
Salon_sai
·
2023-10-27 10:34
技术美术自学——PBR材质通道基础 常见贴图种类列举(求dalao轻喷)
BaseColorMap金属纤维贴图Metallic(Grayscale–Linear)光泽度Roughness(Grayscale-Linear)非共用部分(高光反射/光泽度流程Specular/G
loss
inessWorkflow
小楼昨晚又断网
·
2023-10-27 09:23
三维材质
PBR材质
【3D目标检测】PDV(Point Density-Aware Voxels for LiDAR 3D Object Detection)
目录概述细节点密度问题网络结构3D体素特征提取网络体素点质心定位密度感知的RoIGridPooling密度置信度预测
loss
概述首先,本文是基于点云,并且将点云处理成体素的3D目标检测网络。
可乐大牛
·
2023-10-27 07:35
论文学习
其他
LSAE:Learning Shape-Aware Embedding for Scene Text Detection 场景文本检测----论文阅读笔记
LearningShape-AwareEmbeddingforSceneTextDetection香港中文大学和腾讯优图共同发表在2019CVPR论文地址:jiaya.me/papers/textdetection_cvpr19.pdf贡献提出了Shape-Aware
Loss
CharlesWu123
·
2023-10-27 07:00
文本检测
文本检测
论文阅读《Accurate Few-shot Object Detection with Support-Query Mutual Guidance and Hybrid
Loss
》
Background&Motivation文中将Few-shot学习分为两类:metric-based和optimization-based,后者是元学习的方法。将Few-shot目标检测分为:finetuning-based和finetuning-free。然而以上这些方法都存在几个问题:support中的信息没有指导query中boundingbox的产生,support和query之间缺少交
不说话装高手H
·
2023-10-27 07:57
机器学习
算法
再见我的二零一九·你好我的二零二零
想家了年夜饭02.06新年签-长乐哈哈哈,真的是傻乐的一年呢长乐02.15HappyKinKinday-这一天夕阳很美可惜自己在莫名生气情人节前后一直在吵架认识到自己很多坑sunset03.19战胜G
loss
ophobia
FresaYuan
·
2023-10-27 02:31
基于提示的少样本语言学习的对比学习方法10.25
基于提示的少样本语言学习的对比学习方法摘要引言相关工作&背景方法实验15个任务的主要结果SupConvs.other
loss
esEnsemblevs.本模型改进与任务难度的关系对比实验摘要GPT-3在使用自然语言提示和上下文学习方面展示出的令人印象深刻的性能
露葵025
·
2023-10-27 01:30
2022峰会提示学习相关论文
学习
学习方法
机器学习
C++求欧拉角(eigen库中暴露的一些问题)
不同顺序欧拉角转旋转矩阵对照公式eigen库求欧拉角公式分别试验eigen库自带的matrix.eulerAngles()函数,与根据上述
公式推导
的两种方法求欧拉角eigen库求得欧拉角的范围一定是x−
Cc
·
2023-10-27 00:05
c++
机器人
旋转矩阵
吃瓜笔记04 决策树
学习内容:西瓜书和南瓜书--第4章讲解课程:Datawhale吃瓜教程(【吃瓜教程】《机器学习公式详解》(南瓜书)与西瓜书
公式推导
直播合集_哔哩哔哩_bilibili)目录第4章决策树4.1算法流程4.2
cookie222
·
2023-10-26 22:05
决策树
2023和鲸夏令营创作活动【黄金价格分析预测】
和鲸夏令营创作活动【黄金价格分析预测】文章目录2023和鲸夏令营创作活动【黄金价格分析预测】一、项目背景二、数据说明三、数据预处理四、数据探索性分析五、构建LSTM模型预测1、构建LSTM模型2、绘制
loss
-北天-
·
2023-10-26 19:48
Python大数据分析与挖掘
python
机器学习
数据分析
分类问题中为什么用交叉熵而不用MSE KL散度和交叉熵的关系
1.引言我们都知道损失函数有很多种:均方误差(MSE)、SVM的合页损失(hinge
loss
)、交叉熵(crossentropy)。
taoqick
·
2023-10-26 18:25
算法
概率论
机器学习
人工智能
【机器学习合集】优化目标与评估指标合集 ->(个人学习记录笔记)
文章目录优化目标与评估指标1.优化目标1.1两类基础任务与常见优化目标1.2分类任务损失0-1损失交叉熵损失与KL散度softmax损失的理解与改进Hinge损失1.3回归任务损失L1/L2距离L1/L2距离的改进Huber
loss
2
slience_me
·
2023-10-26 18:23
机器学习
机器学习
深度学习
人工智能
那些超励志的英文句子
2.Learntoprofitfromyour
loss
es.从失败中学习。3.Neverforgetthepowerofyourwords!Useyourwordstod
爱莲说Alice
·
2023-10-26 17:05
浅谈 WebRTC NetEQ
Adynamicjitterbufferanderrorconcealmentalgorithmusedforconcealingthenegativeeffectsofnetworkjitterandpacket
loss
.Keepslatencyaslowas
老衲不出家
·
2023-10-26 08:27
webrtc
《How Does Batch Normalization Help Optimization》论文笔记
论文初略论文地址:https://arxiv.org/...该论文推翻了BN原论文认为BN是因为减少了InternalCovariateShift(ICS)的推论,给出了一个新的解释,而是因为每层的标准化使得最后的
loss
CapsulE_07
·
2023-10-26 07:55
爱因斯坦狭义相对论的基本原理之一,原来推导的过程如此有趣
难懂,要是提起狭义相对论的推导过程,那肯定又是一群密密麻麻的数学公式,的确,任何的物理理论都需要使用数学的方式去表达,但作为狭义相对论的创建者爱因斯坦来说,支撑整个狭义相对论体系的两大基础却并非是通过
公式推导
的
量子奥秘
·
2023-10-26 06:44
WE have a little garden
AndeverydaywewaterthereTheseedsthatwehavesown.WEloveourlittlegarden,Andtenditwithsuchcare,YouwillnotfindafacedleafOrblightedb
loss
omthere.byBeatrixPotter
Hurmola
·
2023-10-26 05:45
BP网络权值调
公式推导
(梯度下降算法推导)
最近学习神经网络时,看到调整权值时,对下图公式5.23不是很清楚,搞不懂为什么ε要对w求偏导数,看了很多权值调整的博客也没有细讲其推论,都是只给出下图中的这些公式。经过翻阅书籍终于找到了,5.23这个公式是如何得来的。这要从梯度下降算法推导来理解:首先看一下梯度的定义:看不懂也没关系,只要认识梯度的符号▽请看下面的推导过程:可以发现5.19和5.23很相似,就可以将5.19的推论应用到5.23来理
Strive_LiJiaLe
·
2023-10-26 03:04
深度学习-图像分类
深度学习
神经网络
GAN
公式推导
目录零、前言一、完美生成器的数学模型二、转化为最优化问题三、详细的公式证明四、寻找最好的鉴别器五、查找最好的生成器六、收敛七、总结零、前言笔者在学习GAN的过程中,查阅了许许多多资料,最终发现台湾大学李宏毅教授的GAN教程讲的极好(PPT非常干净、讲解的很清楚),除此之外网易慕课上的一个Pytorch教程里的GAN部分讲的也是不错,近期还看了B站上李沐大佬的论文精度系列(大佬一段段拆开读,甚好),
从零开始的计科搬砖猫
·
2023-10-26 01:16
深度学习
深度学习
人工智能
神经网络
“CarrotLoseWeight“ app Tech Support(URL)
Thisisafitnessandweight
loss
APP.Youcandofastingtraining,recordthefastingprocess,andalsodosomecommonexercises.Ithasactionguidanceandtimingtohelpyouloseweightsmoothly.Ifyouhaveanyquestions
weixin_42782982
·
2023-10-25 18:32
前端
LMF
LOSS
:专治解决不平衡医学图像分类的新型混合损失函数 (附代码)
论文地址:https://arxiv.org/pdf/2212.12741.pdf代码地址:https://github.com/SanaNazari/LMF
Loss
1.是什么?
无妄无望
·
2023-10-25 17:00
人工智能
1024程序员节
分类
计算机视觉
算法
笔记
1024程序员狂欢节特辑 | 聊一聊Halcon中的3D手眼标定
2、手眼标定的2种形式1)眼在手上(eyeinhand):即相机固定在机械臂末端2)眼在手外(eyetohand):即相机固定在机械臂以外的地方3、手眼标定
公式推导
二、Halcon例程解读1、初始化1)
PaQiuQiu
·
2023-10-25 15:46
Halcon玩转机器视觉
1024程序员节
halcon
手眼标定
3D
嚼一嚼Halcon中的3D手眼标定
2、手眼标定的2种形式1)眼在手上(eyeinhand):即相机固定在机械臂末端2)眼在手外(eyetohand):即相机固定在机械臂以外的地方3、手眼标定
公式推导
二、Halcon例程解读1、初始化1)
PaQiuQiu
·
2023-10-25 15:40
1024程序员节
手眼标定
halcon
3D
12. 机器学习 - 拟合
假如有一个模型,这个模型在训练数据的时候效果很好,体现在
loss
很小,或者说precision很高,accuracy也比较好,但是在实际情况下,用到没有见过的数据的时候,效果就很差,那么这个就过拟合了.
茶桁
·
2023-10-25 13:09
茶桁的AI秘籍
-
核心基础
机器学习
人工智能
YOLOv5 添加 OTA,并使用 coco、CrowdHuman数据集进行训练。
YOLO-OTA第一步:拉取YOLOv5的代码第二步:添加Compute
Loss
OTA函数第二步:修改train和val中损失函数为Compute
Loss
OTA函数1、在train.py中首先添加Compute
Loss
OTA
浅冲一下
·
2023-10-25 11:22
学习pytorch
手撕目标检测
深度学习之算法学习
YOLO
深度学习
python
损失函数总结(二):L1
Loss
、MSE
Loss
损失函数总结(二):L1
Loss
、MSE
Loss
1引言2损失函数2.1L1
Loss
2.2MSE
Loss
3总结1引言在上一篇博文中介绍了损失函数是什么以及为什么使用损失函数,从这一篇博文就开始关于损失函数有哪些进行进一步的介绍
sjx_alo
·
2023-10-25 10:31
深度学习
深度学习
损失函数
机器学习
python
损失函数总结(三):BCE
Loss
、CrossEntropy
Loss
损失函数总结(三):BCE
Loss
、CrossEntropy
Loss
1引言2损失函数2.1BCE
Loss
2.2CrossEntropy
Loss
3总结1引言在前面的文章中已经介绍了介绍了一系列损失函数(L1
Loss
sjx_alo
·
2023-10-25 10:50
深度学习
机器学习
人工智能
python
深度学习
损失函数
【DDPM扩散模型】DDPM扩散模型
公式推导
【参考】轻松学习扩散模型(diffusionmodel),被巨怪踩过的脑袋也能懂——原理详解+pytorch代码详解(附全部代码)纸上得来终觉浅,绝知此事要躬行。
繁华落尽,寻一世真情
·
2023-10-25 06:11
深度学习
37-The Olympic Games 奥林匹克运动会
governmentn.政府4、immenseimmenseadj.巨大的fantasticadj.巨大的fantasyn.幻想biglargehugevastenormoustremendousco
loss
algigantictitanic5
耿杰
·
2023-10-25 04:39
机器学习之回归问题
目录前言一、回归定义二、回归建模步骤1.模型假设-线性模型(LinearModel)(1)一元线性模型(2)多元线性模型2.模型评估-损失函数(
Loss
Funtion)3.最佳模型-梯度下降(GradientDescent
DongXueL
·
2023-10-25 00:22
机器学习
YOLOv5/YOLOv7损失函数改进:Slide
Loss
创新升级,结合IOU动态调整困难样本的困难程度,提升小目标、遮挡物性能
本文改进:Slide
Loss
_IOU,困难样本的困难程度(如小目标遮挡物)动态调整,创新度十足Slide
Loss
_IOU|亲测在多个数据集能够实现涨点,对小目标、遮挡物性能提升也能够助力涨点。
AI小怪兽
·
2023-10-24 19:32
python
开发语言
人工智能
YOLO
目标检测
神经网络
深度学习
1024程序员节
YOLOv7损失函数改进:Slide
Loss
创新升级,结合IOU动态调整困难样本的困难程度,提升小目标、遮挡物性能
本文改进:Slide
Loss
_IOU,困难样本的困难程度(如小目标遮挡物)动态调整,创新度十足Slide
Loss
_IOU|亲测在多个数据集能够实现涨点,对小目标、遮挡物性能提升也能够助力涨点。
AI小怪兽
·
2023-10-24 13:42
YOLOv7高阶自研
python
开发语言
人工智能
YOLO
目标检测
神经网络
深度学习
1024程序员节
目标检测YOLO实战应用案例100讲-基于YOLOv5的航拍图像旋转目标检测(下)
目录无边界问题的旋转框回归损失函数R-CIoU
Loss
4.1现存的可缓解边界问题的损失函数4.1.1平滑交并比损失
林聪木
·
2023-10-24 13:39
目标检测
YOLO
人工智能
上一页
18
19
20
21
22
23
24
25
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他