E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LOSS
在pytorch下使用tensorboard进行可视化训练
pipinstalltensorflowpipinstalltensorboardX2.相关代码fromtensorboardXimportSummaryWriterwriter=SummaryWriter()tags=["train_
loss
左右逢源不是逢源
·
2025-04-23 10:51
python
YOLO11改进,尺度动态损失函数Scale-based Dynamic
Loss
,减少标签不准确对损失函数稳定性的影响
2025年CVPR最佳论文提出的尺度动态损失函数(Scale-basedDynamic
Loss
,SDL),通过构建自适应损失调节机制,不仅实现了对YOLOv11检测精度的指数级提升,更重新定义了损失函数的设计哲学
Loving_enjoy
·
2025-04-22 16:56
计算机学科论文创新点
YOLO
计算机视觉
深度学习3.3 线性回归的简洁实现
步骤操作作用前向计算net(X)计算预测值y_hat=Xw+b损失计算
loss
(y_hat,y)量化预测误差,驱动参数更新反向传播l.backward()计算参数梯度参数更新trainer.step()
lixy579
·
2025-04-21 18:46
深度学习
深度学习
python
人工智能
线性回归
风车卷积-AAAI2025
代码开源:https://github.com/JN-Yang/PConv-SD
loss
-Data近年来,基于卷积神经网络(CNN)的红外小目标检测方法取得了显著成果。
寸先生的牛马庄园
·
2025-04-18 15:47
人工智能
Day09【基于Triplet
loss
实现的简单意图识别对话系统】
基于Triplet
loss
实现的表示型文本匹配目标数据准备参数配置数据处理Triplet
Loss
目标Triplet
Loss
计算公式公式说明模型构建网络结构设计网络训练目标损失函数设计主程序推理预测类初始化加载问答知识库文本向量化知识库查询主程序
Mechanotrooper
·
2025-04-16 11:39
自然语言处理
文本匹配
意图识别
自然语言处理
Pytorch深度学习框架60天进阶学习计划 - 第41天:生成对抗网络进阶(三)
Pytorch深度学习框架60天进阶学习计划-第41天:生成对抗网络进阶(三)7.实现条件WGAN-GP#训练条件WGAN-GPdeftrain_conditional_wgan_gp():#用于记录损失d_
loss
es
凡人的AI工具箱
·
2025-04-15 22:11
深度学习
pytorch
学习
自动化
生成对抗网络
人工智能
使用Itext将Html转换为Pdf,使用iText将HTML转换为PDF
iText集团的创始人/首席技术官),因此它可以成为"维基答案".如果StackOverflow"文档"功能仍然存在,那么这将是文档主题的一个很好的候选者.源文件:我想将以下HTML文件转换为PDF:Co
loss
al
摩登中产
·
2025-04-15 21:37
「UnityShader学习笔记」02使用Unity Shader实现Blinn-Phong光照模型
Shader"Light/Blinn-Phong"{Properties{_Diffuse("Diffuse",Color)=(1,1,1,1)_Specular("Specular",Color)=(1,1,1,1)_G
loss
睦月兔
·
2025-04-14 18:35
Unity
Shader学习笔记
unity
图形渲染
技术美术
游戏引擎
【人脸识别中的“类内差异”和“类间差异】
对应DeepID1:只用Softmax
Loss
训练模型分类,模型只学会“爸爸和妈妈是不同的人”。
学渣67656
·
2025-04-13 00:34
人工智能
土堆pytorch教程学习笔记 (所有代码笔记超详细完整版)
dataset_transforms五.conv六.conv2d七.
loss
八.linear九.
loss
-network十.pool十一.RELU十二.sqc十三.test-tensorboard十四.
staozigege
·
2025-04-12 12:21
pytorch
学习
笔记
深度学习
【cs.LG】25.1.14 arxiv更新速递
【cs.LG】25.1.14arxiv更新120篇—第1篇----=====Path
Loss
PredictionUsingMachineLearningwithExtendedFeatures关键词:路径损耗
hinmer
·
2025-04-12 06:03
arxiv
CS.LG
chatgpt
gpt
人工智能
自然语言处理
自动驾驶
机器学习
AIGC
神经网络之损失函数
引言:损失函数(
Loss
Function)是机器学习和深度学习中非常重要的一个概念。用于衡量模型的预测值与真实值之间的差异,从而指导模型优化其参数以最小化这种差异。
硬水果糖
·
2025-04-10 23:15
人工智能
神经网络
人工智能
深度学习
Seq2Seq - CrossEntropy
Loss
细节讨论
在PyTorch中,损失函数CrossEntropy
Loss
的输入参数通常需要满足特定的形状要求。
风筝超冷
·
2025-04-09 19:07
人工智能
深度学习
seq2seq
探秘无线世界:开源软件定义无线电平台——HackRF
这个由Michae
lOss
mann主导开发的低门槛软件定义无线电平台,不仅降低了无线电技术的入门门槛,更打开了无线通信领域的一扇新大门。通过其灵活的设计和开源的理
胡唯隽
·
2025-04-03 02:11
MSSQL:模拟故障
然后使用命令sudotcqdiscadddevrootnetemdelayms
loss
%,如sudotcqdiscadddeve
喝醉酒的小白
·
2025-04-02 18:46
DBA
数据库
FEDG
LOSS
算法BEYOND LOCAL SHARPNESS:COMMUNICATION-EFFICIENT GLOBALSHARPNESS-AWARE MINIMIZATIONFOR
第一部分:解决的问题数据异构性:客户端数据分布差异导致本地和全局损失地形(
loss
landscape)不一致,本地优化可能收敛到尖锐最小值,影响全局模型的泛化。
还不秃顶的计科生
·
2025-04-01 15:36
联邦学习
人工智能
pytorch optim.SGD
importtorchimporttorch.nnasnnoptimizer=torch.optim.SGD(model.parameters(),lr=0.1,momentum=0.9)optimizer.zero_grad()
loss
_fn
Claroja
·
2025-03-30 11:00
Python
python
材质及制作笔记
maya拓扑低模——拆uv——sp烘焙贴图——sp绘制材质——渲染1材质贴图:diffuse/albedo/basecolor:漫反射reflection/specular:反射metalness:金属度g
loss
iness
YYYYYY02020
·
2025-03-29 13:06
材质
笔记
Focal
Loss
Focal
Loss
通过动态降低易分类样本的损失权重,迫使模型集中学习难分类样本和少数类,从而有效解决样本不均衡问题。
weixin_47868976
·
2025-03-27 17:21
人工智能
深度学习
探索CF-
Loss
:视网膜多类血管分割与测量的新视角
探索CF-
Loss
:视网膜多类血管分割与测量的新视角引言在医学图像处理领域,精确的图像分割和特征测量对于准确诊断和治疗方案制定至关重要。
RockLiu@805
·
2025-03-26 06:24
机器视觉
深度学习模块
深度学习
人工智能
计算机视觉
工控一体机如何设置成上电自启模式
一、BIOS设置1、开机时点击键盘Del进入BIOS2、找到电源设置3、在电源管理选项中,找到“ACPowerRecovery”或“RestoreonAC/Power
Loss
”等类似选项,将其设置为“Enabled
Ukck_
·
2025-03-24 15:00
单片机
嵌入式硬件
硬件工程
电脑
经验分享
MSE分类时梯度消失的问题详解和交叉熵损失的梯度推导
前文请移步笔者的另一篇博客:大模型训练为什么选择交叉熵损失(Cross-Entropy
Loss
):均方误差(MSE)和交叉熵损失的深入对比MSE分类时梯度消失的问题详解我们深入探讨MSE(均方误差)的梯度特性
阿正的梦工坊
·
2025-03-22 21:34
Machine
Learning
Deep
Learning
分类
人工智能
深度学习
机器学习
minimind2学习:(1)训练
/tree/master2、预训练训练6个epochspythontrain_pretrain.py--epochs6训练过程:LLM总参数量:25.830百万Epoch:[1/6](0/11040)
loss
溯源006
·
2025-03-22 14:47
minimind学习
学习
深度学习
生成模型
【nnUnetv2】Code复现
相反的,把重心放在:预处理(resampling和normalization)、训练(
loss
,optimizer设置、数据增广)、推理(patch-based策略、test-time-augmentations
是Winky啊
·
2025-03-21 18:35
#
项目nnUnet
人工智能
深度学习
关于误差平面小记
四维曲面的二维切片:误差平面详解在深度学习优化过程中,我们通常研究损失函数(
Loss
Function)的变化,试图找到权重的最优配置。
文弱_书生
·
2025-03-21 15:43
乱七八糟
平面
算法
神经网络
机器学习
知识蒸馏 vs RLHF:目标函数与收敛分析
目标函数知识蒸馏的目标函数通常由两部分组成:分类损失(Student
Loss
):学生模型的输出与真实标签之间的交叉熵损失,表示为:[Lclassification=CrossEntropy(y,q(1)
从零开始学习人工智能
·
2025-03-18 01:48
人工智能
LLM之Co
loss
al-LLaMA-2:源码解读(init_tokenizer.py文件)实现基于源词表的扩展、(init_model.py文件)实现过计算均值扩展模型、(prepare_pretr
LLM之Co
loss
al-LLaMA-2:源码解读(init_tokenizer.py文件)实现基于jsonl文件中读取新词列表(新中文词汇)→for循环去重实现词表的扩展(中文标记的新词汇)→保存新的分词模型
一个处女座的程序猿
·
2025-03-15 18:38
CaseCode
NLP/LLMs
精选(人工智能)-中级
Colossal
LLaMA-2
自然语言处理
LLMs之Co
loss
al-LLaMA-2:源码解读(train.py文件)基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境co
loss
alai+训练日志+加速插
LLMs之Co
loss
al-LLaMA-2:源码解读(train.py文件)基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境co
loss
alai+训练日志+加速插件
一个处女座的程序猿
·
2025-03-15 18:38
NLP/LLMs
精选(人工智能)-中级
Colossal-AI
LLaMA-2
大语言模型
自然语言处理
机器学习中的梯度下降是什么意思?
梯度下降(GradientDescent)是机器学习中一种常用的优化算法,用于最小化损失函数(
Loss
Function)。通过迭代调整模型参数,梯度下降帮助模型逐步逼近最优解,从而提升模型的性能。
yuanpan
·
2025-03-15 15:45
机器学习
人工智能
模型训练和推理
计算图以及前向后向传播训练时需要梯度,推理时不需要阶段是否计算梯度是否反向传播是否更新参数用例写法训练✅✅✅
loss
训练默认即可,requires_grad=True推理❌❌❌采样、预测、部署用@torch.inference_mode
一杯水果茶!
·
2025-03-13 12:02
视觉与网络
python
梯度
反向传播
训练
推理
DeepSeek R1-32B医疗大模型的完整微调实战分析(全码版)
1.环境准备│├──1.1硬件配置││├─全参数微调:4*A10080GB││└─LoRA微调:单卡24GB│├──1.2软件依赖││├─PyTorch2.1.2+CUDA││└─Unsloth/Co
loss
alAI
Allen_LVyingbo
·
2025-03-09 11:33
医疗高效编程研发
健康医疗
人工智能
python
tensorflow keras 报错 :No gradients provided for any variable 原因与解决办法
因为在深度学习中,梯度的更新是由于反向传播算法的实现的,如果损失函数没有与已知的任何(除输入)层关联,那么,损失函数就无法求出关于各个函数的梯度,导致错误解决办法例如损失函数defcontrastive_
loss
_layer
研志必有功
·
2025-03-09 06:26
tensorflow报错
tensorflow
深度学习
机器学习
神经网络
自然语言处理
新冠病毒感染人数预测(基于回归的神经网络项目)
写在前面:我们做的事情:我们的目的是要得到一个好的模型,这个模型能够让我们预测好的y首先拿到一批数据,这批数据有x和准确的y,我们让x通过模型得到预测的y,让预测的y与准确的y去计算差距
loss
,根据这个差距
|柳贯一|
·
2025-03-08 21:09
深度学习
回归
神经网络
数据挖掘
Triplet
Loss
原理及 Python实现
Triplet
loss
最初是谷歌在FaceNet:AUnifiedEmbeddingforFaceRecognitionandClustering论文中提出的,可以学到较好的人脸的embeddingTriplet
Loss
AIGC_ZY
·
2025-03-08 15:21
Diffusion
Models
python
深度学习
机器学习
图像识别技术与应用课后总结(14)
训练模型加载预处理数据集:可以借助PyTorch的数据处理工具,如torch.utils和torchvision等定义损失函数:既可以自定义,也能使用PyTorch内置的,像回归任务常用nn.MSE
Loss
一元钱面包
·
2025-03-06 12:15
人工智能
python valueerror函数使用_python – 具有张量流的语义分段 – 损失函数中的ValueError(稀疏 – softmax)...
[batch_size,750,2]的logits进行损失计算.这是一个二进制分类–我这里有两个类,[0,1]在我的标签中(形状[batch_sizex750x750].这些进入损失函数,如下:def
loss
创新工场
·
2025-03-04 02:00
python
valueerror函数使用
线性回归s
的调用损失函数假设函数优化函数importtorchimporttorch.nnasnnimporttorch.optimasoptim#损失函数deftest1():#初始化损失函数对象criterion=nn.MSE
Loss
三排扣
·
2025-03-02 13:37
线性回归
pytorch
深度学习
ValueError: Tensor conversion requested dtype int64 for Tensor with dtype float64: ‘Tensor(“
loss
/a
y_true,axis=1)*K.log(K.argmax(y_true,axis=1)/K.argmax(y_pred,axis=1)),dtype='float32'))returnweights*
loss
es.categor
初识-CV
·
2025-03-02 08:46
机器学习
keras
KL散度
相对熵
int
TensorFlow
keras
从零到精通:小白DeepSeek全栈入门指南
第一部分:认知准备(1-3天)1.1基础概念搭建人工智能三要素:数据/算法/算力深度学习与传统机器学习的区别神经网络基本结构(输入层/隐藏层/输出层)常用术语解析:epoch、batch、
loss
、accuracy1.2
好东西不迷路
·
2025-03-02 06:37
各自资源
AI
前端
html
python
使用Docker一键部署B
loss
om笔记软件
B
loss
om是一个需要私有部署的笔记软件,虽然本身定位是一个云端软件,但你仍然可以在本地部署,数据和图片都将保存在你的设备,不依赖任何的图床或者对象存储。
Roc-xb
·
2025-03-01 12:04
docker
笔记
容器
PyTorch 常见的损失函数:从基础到大模型的应用
PyTorch常见的损失函数:从基础到大模型的应用在用PyTorch训练神经网络时,损失函数(
Loss
Function)是不可或缺的“裁判”。
阿正的梦工坊
·
2025-02-28 22:19
LLM
PyTorch
pytorch
人工智能
python
实现数据DLP加密鸿蒙示例代码
介绍数据防泄漏服务(Data
Loss
Prevention,简称为DLP),是系统提供的系统级的数据防泄漏解决方案,提供文件权限管理、加密存储、授权访问等能力,数据所有者可以基于账号认证对机密文件进行权限配置
·
2025-02-27 17:14
实现数据DLP加密鸿蒙示例代码
介绍数据防泄漏服务(Data
Loss
Prevention,简称为DLP),是系统提供的系统级的数据防泄漏解决方案,提供文件权限管理、加密存储、授权访问等能力,数据所有者可以基于账号认证对机密文件进行权限配置
·
2025-02-27 17:14
记一次pytorch训练
loss
异常的问题
记一次pytorch训练
loss
异常的问题问题描述使用mmdetection框架训练时,某项
loss
出现异常大的值,比如1781232349724294.000。这个问题只在多卡训练时才会出现。
lyyiangang
·
2025-02-27 14:29
pytorch
人工智能
python
训练神经网络出现nan
参考资料Pytorch训练模型损失
Loss
为Nan或者无穷大(INF)原因Pytorch训练模型损失
Loss
为Nan或者无穷大(INF)原因_pytorchnan-CSDN博客文章浏览阅读5.6w次,点赞
崧小果
·
2025-02-26 11:12
AI学习记录
神经网络
深度学习
机器学习
人工智能深度学习系列—深入探索KL散度:度量概率分布差异的关键工具
人工智能深度学习系列—深度解析:交叉熵损失(Cross-Entropy
Loss
)在分类问题中的应用人工智能深度学习系列—深入解析:均方误差损失(MSE
Loss
)在深度学习中的应用与实践人工智能深度学习系列
学步_技术
·
2025-02-26 08:19
自动驾驶
人工智能
人工智能
深度学习
自动驾驶
机器学习
Tensorflow2.x框架-神经网络八股扩展-acc曲线与
loss
曲线
loss
/
loss
可视化,可视化出准确率上升、损失函数下降的过程博主微信公众号(左)、Python+智能大数据+AI学习交流群(右):欢迎关注和加群,大家一起学习交流,共同进步!
诗雨时
·
2025-02-25 23:15
python oss批量上传_python 批量上传文件到阿里云oss,并写入Excel,存到本地
所以研究了一下用python往oss上传视频首先需引用以下几个模块pipinstal
loss
2pipinstalltablibpipinstallpyexcel-xlsx其次因为本地的视频都是比如中文.
weixin_39624873
·
2025-02-25 08:58
python
oss批量上传
word2vec之skip-gram算法原理
output,targetinput的某个单词的one-hot编码(11000词汇量的总数目)output其他所有单词的概率(softmax输出也是11000)target是相近单词的one-hot形式2.
Loss
target
cuixuange
·
2025-02-22 18:52
推荐算法
word2vec
skipgram
【Docker项目实战】使用Docker安装B
loss
om 笔记应用
【Docker项目实战】使用Docker安装B
loss
om笔记应用一、B
loss
om介绍1.1B
loss
om简介1.2主要特点1.3使用场景二、本次实践规划2.1本地环境规划2.2本次实践介绍三、本地环境检查
江湖有缘
·
2025-02-21 10:19
Docker部署项目实战合集
docker
笔记
容器
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他