E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
LOSS
探索CF-
Loss
:视网膜多类血管分割与测量的新视角
探索CF-
Loss
:视网膜多类血管分割与测量的新视角引言在医学图像处理领域,精确的图像分割和特征测量对于准确诊断和治疗方案制定至关重要。
RockLiu@805
·
2025-03-26 06:24
机器视觉
深度学习模块
深度学习
人工智能
计算机视觉
工控一体机如何设置成上电自启模式
一、BIOS设置1、开机时点击键盘Del进入BIOS2、找到电源设置3、在电源管理选项中,找到“ACPowerRecovery”或“RestoreonAC/Power
Loss
”等类似选项,将其设置为“Enabled
Ukck_
·
2025-03-24 15:00
单片机
嵌入式硬件
硬件工程
电脑
经验分享
MSE分类时梯度消失的问题详解和交叉熵损失的梯度推导
前文请移步笔者的另一篇博客:大模型训练为什么选择交叉熵损失(Cross-Entropy
Loss
):均方误差(MSE)和交叉熵损失的深入对比MSE分类时梯度消失的问题详解我们深入探讨MSE(均方误差)的梯度特性
阿正的梦工坊
·
2025-03-22 21:34
Machine
Learning
Deep
Learning
分类
人工智能
深度学习
机器学习
minimind2学习:(1)训练
/tree/master2、预训练训练6个epochspythontrain_pretrain.py--epochs6训练过程:LLM总参数量:25.830百万Epoch:[1/6](0/11040)
loss
溯源006
·
2025-03-22 14:47
minimind学习
学习
深度学习
生成模型
【nnUnetv2】Code复现
相反的,把重心放在:预处理(resampling和normalization)、训练(
loss
,optimizer设置、数据增广)、推理(patch-based策略、test-time-augmentations
是Winky啊
·
2025-03-21 18:35
#
项目nnUnet
人工智能
深度学习
关于误差平面小记
四维曲面的二维切片:误差平面详解在深度学习优化过程中,我们通常研究损失函数(
Loss
Function)的变化,试图找到权重的最优配置。
文弱_书生
·
2025-03-21 15:43
乱七八糟
平面
算法
神经网络
机器学习
知识蒸馏 vs RLHF:目标函数与收敛分析
目标函数知识蒸馏的目标函数通常由两部分组成:分类损失(Student
Loss
):学生模型的输出与真实标签之间的交叉熵损失,表示为:[Lclassification=CrossEntropy(y,q(1)
从零开始学习人工智能
·
2025-03-18 01:48
人工智能
LLM之Co
loss
al-LLaMA-2:源码解读(init_tokenizer.py文件)实现基于源词表的扩展、(init_model.py文件)实现过计算均值扩展模型、(prepare_pretr
LLM之Co
loss
al-LLaMA-2:源码解读(init_tokenizer.py文件)实现基于jsonl文件中读取新词列表(新中文词汇)→for循环去重实现词表的扩展(中文标记的新词汇)→保存新的分词模型
一个处女座的程序猿
·
2025-03-15 18:38
CaseCode
NLP/LLMs
精选(人工智能)-中级
Colossal
LLaMA-2
自然语言处理
LLMs之Co
loss
al-LLaMA-2:源码解读(train.py文件)基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境co
loss
alai+训练日志+加速插
LLMs之Co
loss
al-LLaMA-2:源码解读(train.py文件)基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境co
loss
alai+训练日志+加速插件
一个处女座的程序猿
·
2025-03-15 18:38
NLP/LLMs
精选(人工智能)-中级
Colossal-AI
LLaMA-2
大语言模型
自然语言处理
机器学习中的梯度下降是什么意思?
梯度下降(GradientDescent)是机器学习中一种常用的优化算法,用于最小化损失函数(
Loss
Function)。通过迭代调整模型参数,梯度下降帮助模型逐步逼近最优解,从而提升模型的性能。
yuanpan
·
2025-03-15 15:45
机器学习
人工智能
模型训练和推理
计算图以及前向后向传播训练时需要梯度,推理时不需要阶段是否计算梯度是否反向传播是否更新参数用例写法训练✅✅✅
loss
训练默认即可,requires_grad=True推理❌❌❌采样、预测、部署用@torch.inference_mode
一杯水果茶!
·
2025-03-13 12:02
视觉与网络
python
梯度
反向传播
训练
推理
DeepSeek R1-32B医疗大模型的完整微调实战分析(全码版)
1.环境准备│├──1.1硬件配置││├─全参数微调:4*A10080GB││└─LoRA微调:单卡24GB│├──1.2软件依赖││├─PyTorch2.1.2+CUDA││└─Unsloth/Co
loss
alAI
Allen_LVyingbo
·
2025-03-09 11:33
医疗高效编程研发
健康医疗
人工智能
python
tensorflow keras 报错 :No gradients provided for any variable 原因与解决办法
因为在深度学习中,梯度的更新是由于反向传播算法的实现的,如果损失函数没有与已知的任何(除输入)层关联,那么,损失函数就无法求出关于各个函数的梯度,导致错误解决办法例如损失函数defcontrastive_
loss
_layer
研志必有功
·
2025-03-09 06:26
tensorflow报错
tensorflow
深度学习
机器学习
神经网络
自然语言处理
新冠病毒感染人数预测(基于回归的神经网络项目)
写在前面:我们做的事情:我们的目的是要得到一个好的模型,这个模型能够让我们预测好的y首先拿到一批数据,这批数据有x和准确的y,我们让x通过模型得到预测的y,让预测的y与准确的y去计算差距
loss
,根据这个差距
|柳贯一|
·
2025-03-08 21:09
深度学习
回归
神经网络
数据挖掘
Triplet
Loss
原理及 Python实现
Triplet
loss
最初是谷歌在FaceNet:AUnifiedEmbeddingforFaceRecognitionandClustering论文中提出的,可以学到较好的人脸的embeddingTriplet
Loss
AIGC_ZY
·
2025-03-08 15:21
Diffusion
Models
python
深度学习
机器学习
图像识别技术与应用课后总结(14)
训练模型加载预处理数据集:可以借助PyTorch的数据处理工具,如torch.utils和torchvision等定义损失函数:既可以自定义,也能使用PyTorch内置的,像回归任务常用nn.MSE
Loss
一元钱面包
·
2025-03-06 12:15
人工智能
python valueerror函数使用_python – 具有张量流的语义分段 – 损失函数中的ValueError(稀疏 – softmax)...
[batch_size,750,2]的logits进行损失计算.这是一个二进制分类–我这里有两个类,[0,1]在我的标签中(形状[batch_sizex750x750].这些进入损失函数,如下:def
loss
创新工场
·
2025-03-04 02:00
python
valueerror函数使用
线性回归s
的调用损失函数假设函数优化函数importtorchimporttorch.nnasnnimporttorch.optimasoptim#损失函数deftest1():#初始化损失函数对象criterion=nn.MSE
Loss
三排扣
·
2025-03-02 13:37
线性回归
pytorch
深度学习
ValueError: Tensor conversion requested dtype int64 for Tensor with dtype float64: ‘Tensor(“
loss
/a
y_true,axis=1)*K.log(K.argmax(y_true,axis=1)/K.argmax(y_pred,axis=1)),dtype='float32'))returnweights*
loss
es.categor
初识-CV
·
2025-03-02 08:46
机器学习
keras
KL散度
相对熵
int
TensorFlow
keras
从零到精通:小白DeepSeek全栈入门指南
第一部分:认知准备(1-3天)1.1基础概念搭建人工智能三要素:数据/算法/算力深度学习与传统机器学习的区别神经网络基本结构(输入层/隐藏层/输出层)常用术语解析:epoch、batch、
loss
、accuracy1.2
好东西不迷路
·
2025-03-02 06:37
各自资源
AI
前端
html
python
使用Docker一键部署B
loss
om笔记软件
B
loss
om是一个需要私有部署的笔记软件,虽然本身定位是一个云端软件,但你仍然可以在本地部署,数据和图片都将保存在你的设备,不依赖任何的图床或者对象存储。
Roc-xb
·
2025-03-01 12:04
docker
笔记
容器
PyTorch 常见的损失函数:从基础到大模型的应用
PyTorch常见的损失函数:从基础到大模型的应用在用PyTorch训练神经网络时,损失函数(
Loss
Function)是不可或缺的“裁判”。
阿正的梦工坊
·
2025-02-28 22:19
LLM
PyTorch
pytorch
人工智能
python
实现数据DLP加密鸿蒙示例代码
介绍数据防泄漏服务(Data
Loss
Prevention,简称为DLP),是系统提供的系统级的数据防泄漏解决方案,提供文件权限管理、加密存储、授权访问等能力,数据所有者可以基于账号认证对机密文件进行权限配置
·
2025-02-27 17:14
实现数据DLP加密鸿蒙示例代码
介绍数据防泄漏服务(Data
Loss
Prevention,简称为DLP),是系统提供的系统级的数据防泄漏解决方案,提供文件权限管理、加密存储、授权访问等能力,数据所有者可以基于账号认证对机密文件进行权限配置
·
2025-02-27 17:14
记一次pytorch训练
loss
异常的问题
记一次pytorch训练
loss
异常的问题问题描述使用mmdetection框架训练时,某项
loss
出现异常大的值,比如1781232349724294.000。这个问题只在多卡训练时才会出现。
lyyiangang
·
2025-02-27 14:29
pytorch
人工智能
python
训练神经网络出现nan
参考资料Pytorch训练模型损失
Loss
为Nan或者无穷大(INF)原因Pytorch训练模型损失
Loss
为Nan或者无穷大(INF)原因_pytorchnan-CSDN博客文章浏览阅读5.6w次,点赞
崧小果
·
2025-02-26 11:12
AI学习记录
神经网络
深度学习
机器学习
人工智能深度学习系列—深入探索KL散度:度量概率分布差异的关键工具
人工智能深度学习系列—深度解析:交叉熵损失(Cross-Entropy
Loss
)在分类问题中的应用人工智能深度学习系列—深入解析:均方误差损失(MSE
Loss
)在深度学习中的应用与实践人工智能深度学习系列
学步_技术
·
2025-02-26 08:19
自动驾驶
人工智能
人工智能
深度学习
自动驾驶
机器学习
Tensorflow2.x框架-神经网络八股扩展-acc曲线与
loss
曲线
loss
/
loss
可视化,可视化出准确率上升、损失函数下降的过程博主微信公众号(左)、Python+智能大数据+AI学习交流群(右):欢迎关注和加群,大家一起学习交流,共同进步!
诗雨时
·
2025-02-25 23:15
python oss批量上传_python 批量上传文件到阿里云oss,并写入Excel,存到本地
所以研究了一下用python往oss上传视频首先需引用以下几个模块pipinstal
loss
2pipinstalltablibpipinstallpyexcel-xlsx其次因为本地的视频都是比如中文.
weixin_39624873
·
2025-02-25 08:58
python
oss批量上传
word2vec之skip-gram算法原理
output,targetinput的某个单词的one-hot编码(11000词汇量的总数目)output其他所有单词的概率(softmax输出也是11000)target是相近单词的one-hot形式2.
Loss
target
cuixuange
·
2025-02-22 18:52
推荐算法
word2vec
skipgram
【Docker项目实战】使用Docker安装B
loss
om 笔记应用
【Docker项目实战】使用Docker安装B
loss
om笔记应用一、B
loss
om介绍1.1B
loss
om简介1.2主要特点1.3使用场景二、本次实践规划2.1本地环境规划2.2本次实践介绍三、本地环境检查
江湖有缘
·
2025-02-21 10:19
Docker部署项目实战合集
docker
笔记
容器
马斯克的Grok-3:技术突破与行业冲击的深度解析
一、技术架构与核心突破超大规模算力集群Grok-3基于xAI自研的Co
loss
us超级计算机训练完成,搭载20万块英伟达H100GPU,累计消耗2亿GPU小时,算力投入是前代Grok-2的10倍48。
♢.*
·
2025-02-20 14:15
马斯克
人工智能
大模型
xAI
Grok
3
训练与优化
torch.nn.L1
Loss
计算所有预测值与真实值之间的绝对差。参数为reduction:'none':不对损失进行任何求和或平均,返回每个元素的损失。'mean':对损失进行平均,默认选项。'
钰见梵星
·
2025-02-20 04:23
小土堆PyTorch深度学习
深度学习
pytorch
人工智能
【深度学习入门:基于python的理论与实现读书笔记】第五章误差反向传播法
目录摘要第五章误差反向传播法简单层的实现乘法层的实现加法层的实现激活函数层的实现ReLU层Sigmoid层Affine层和Softmax层的实现Affine层Softmax-with-
Loss
层误差反向传播法的实现摘要该文章简要介绍了神经网络的误差反向传播法
Bin二叉
·
2025-02-19 19:37
深度学习
python
人工智能
Pytorch实现之在LSGAN中结合重建损失
论文题目:FalseDataInjectionAttacksBasedonLeastSquaresGenerativeAdversarialNetworkswithReconstruction
Loss
(
这张生成的图像能检测吗
·
2025-02-19 06:51
GAN系列
优质GAN模型训练自己的数据集
pytorch
人工智能
python
【报错】ImportError: cannot import name ‘get_refined_artifact_map‘ from ‘basicsr.
loss
es.
loss
_util‘
ImportError:cannotimportname'get_refined_artifact_map'from'basicsr.
loss
es.
loss
_util'(xxx/lib/python3.10
之群害马
·
2025-02-19 03:55
python
深度学习
pytorch
Implement Ridge Regression
Loss
Function
ImplementRidgeRegression
Loss
FunctionWriteaPythonfunctionridge_
loss
thatimplementstheRidgeRegression
loss
function.Thefunctionshouldtakea2DnumpyarrayXrepresentingthefeaturematrix
六月五日
·
2025-02-18 22:05
Deep-ML
Deep-ML
【YOLOv11改进- 主干网络】YOLOv11+CSWinTransformer: 交叉窗口注意力Transformer助力YOLOv11有效涨点;
YOLOV11目标检测改进实例与创新改进专栏专栏地址:YOLOv11目标检测改进专栏,包括backbone、neck、
loss
、分配策略、组合改进、原创改进等本文介绍发paper,毕业皆可使用。
算法conv_er
·
2025-02-18 15:43
YOLOv11目标检测改进
YOLO
目标跟踪
人工智能
目标检测
深度学习
transformer
计算机视觉
【论文精读】MotionLM
【论文精读】MotionLM1背景2存在的问题3具体方案轨迹转运动序列模型轨迹去重和聚类
loss
1背景团队:Waymo时间:2023.9代码:简介:采用自回归的方式做轨迹生成,能够更好地建模交互,且避免模态坍缩
EEPI
·
2025-02-17 12:37
自动驾驶
深度学习
论文阅读
darts框架使用
IndexError:invalidindexofa0-dimtensor.Usetensor.item()toconverta0-dimtensortoaPythonnumber解决:update函数的参数
loss
.data
ME_Seraph
·
2025-02-17 09:12
机器学习
darts
第N11周:seq2seq翻译实战-Pytorch复现
文章目录一、前期准备1.搭建语言类2.文本处理函数3.文件读取函数二、Seq2Seq模型1.编码器(encoder)2.解码器(decoder)三、训练1.数据预处理2.训练函数3.评估四、评估与训练1.
Loss
计算机真好丸
·
2025-02-17 07:57
pytorch
人工智能
python
CP AUTOSAR标准之FlexRayStateManager(AUTOSAR_CP_SWS_FlexRayStateManager)(更新中……)
3相关文献3.1输入文件及相关标准、规范 [1]词汇表AUTOSAR_FO_TR_G
loss
ary [2]基础软件模
瑟寒凌风
·
2025-02-16 04:33
经典autosar(CP)平台
汽车
车载系统
动手学深度学习笔记|3.2线性回归的从零开始实现(附课后习题答案)
3.为什么在`squared_
loss
`函数中需要使用`reshape`函数?4.尝试使用不同的学习率,观察损失函数值下
lusterku
·
2025-02-15 04:57
动手学深度学习
深度学习
笔记
线性回归
焦损函数(Focal
Loss
)与RetinaNet目标检测模型详解
焦损函数(Focal
Loss
)与RetinaNet目标检测模型详解阅读时长:19分钟发布时间:2025-02-14近日热文:全网最全的神经网络数学原理(代码和公式)直观解释欢迎关注知乎和公众号的专栏内容
·
2025-02-14 22:31
人工智能
conda 装tensorboardx_【工欲善其事】TensorboardX的使用
在训练过程中实时地观察
loss
/accuracy曲
weixin_39719042
·
2025-02-13 19:08
conda
装tensorboardx
机器学习面试笔试知识点-线性回归、逻辑回归(Logistics Regression)和支持向量机(SVM)
机器学习面试笔试知识点-线性回归、逻辑回归LogisticsRegression和支持向量机SVM微信公众号:数学建模与人工智能一、线性回归1.线性回归的假设函数2.线性回归的损失函数(
Loss
Function
qq742234984
·
2025-02-13 07:39
机器学习
线性回归
逻辑回归
Python 深度学习项目目录规范
工程项目配置文件夹config.pydocs工程项目相关文档说明文件夹data工程数据或数据获取代码文件夹demos/examples工程demo或example文件夹layers自定义的层(如果有)self_
loss
.py
灰灰灰灰灰发
·
2025-02-11 19:15
python
DeepSeek-v3笔记(1)
与v2不同的是,这里用了更加强力的路由平衡算法,叫Auxiliary-
Loss
-FreeLoadBalancing。
蒸土豆的技术细节
·
2025-02-11 09:06
笔记
RLHF代码解读
#模型的损失函数
loss
=value_chosen-value_rejected
loss
=-to
木木木马马
·
2025-02-11 00:25
大模型学习
语言模型
torch.nn.CrossEntropy
Loss
()的一些小细节(原理和数学,softmax与dim,ignore_index,报错:0D or 1D target tensor expecte)
目录关于torch.nn.CrossEntropy
Loss
()数学原理关于熵数学公式pytorch中的torch.nn.CrossEntropy
Loss
()torch.nn.CrossEntropy
Loss
老肝犯
·
2025-02-09 22:49
人工智能
深度学习
python
机器学习
神经网络
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他