E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
多分类loss
Implement Ridge Regression
Loss
Function
ImplementRidgeRegression
Loss
FunctionWriteaPythonfunctionridge_
loss
thatimplementstheRidgeRegression
loss
function.Thefunctionshouldtakea2DnumpyarrayXrepresentingthefeaturematrix
六月五日
·
2025-02-18 22:05
Deep-ML
Deep-ML
【YOLOv11改进- 主干网络】YOLOv11+CSWinTransformer: 交叉窗口注意力Transformer助力YOLOv11有效涨点;
YOLOV11目标检测改进实例与创新改进专栏专栏地址:YOLOv11目标检测改进专栏,包括backbone、neck、
loss
、分配策略、组合改进、原创改进等本文介绍发paper,毕业皆可使用。
算法conv_er
·
2025-02-18 15:43
YOLOv11目标检测改进
YOLO
目标跟踪
人工智能
目标检测
深度学习
transformer
计算机视觉
【论文精读】MotionLM
【论文精读】MotionLM1背景2存在的问题3具体方案轨迹转运动序列模型轨迹去重和聚类
loss
1背景团队:Waymo时间:2023.9代码:简介:采用自回归的方式做轨迹生成,能够更好地建模交互,且避免模态坍缩
EEPI
·
2025-02-17 12:37
自动驾驶
深度学习
论文阅读
darts框架使用
IndexError:invalidindexofa0-dimtensor.Usetensor.item()toconverta0-dimtensortoaPythonnumber解决:update函数的参数
loss
.data
ME_Seraph
·
2025-02-17 09:12
机器学习
darts
第N11周:seq2seq翻译实战-Pytorch复现
文章目录一、前期准备1.搭建语言类2.文本处理函数3.文件读取函数二、Seq2Seq模型1.编码器(encoder)2.解码器(decoder)三、训练1.数据预处理2.训练函数3.评估四、评估与训练1.
Loss
计算机真好丸
·
2025-02-17 07:57
pytorch
人工智能
python
CP AUTOSAR标准之FlexRayStateManager(AUTOSAR_CP_SWS_FlexRayStateManager)(更新中……)
3相关文献3.1输入文件及相关标准、规范 [1]词汇表AUTOSAR_FO_TR_G
loss
ary [2]基础软件模
瑟寒凌风
·
2025-02-16 04:33
经典autosar(CP)平台
汽车
车载系统
动手学深度学习笔记|3.2线性回归的从零开始实现(附课后习题答案)
3.为什么在`squared_
loss
`函数中需要使用`reshape`函数?4.尝试使用不同的学习率,观察损失函数值下
lusterku
·
2025-02-15 04:57
动手学深度学习
深度学习
笔记
线性回归
焦损函数(Focal
Loss
)与RetinaNet目标检测模型详解
焦损函数(Focal
Loss
)与RetinaNet目标检测模型详解阅读时长:19分钟发布时间:2025-02-14近日热文:全网最全的神经网络数学原理(代码和公式)直观解释欢迎关注知乎和公众号的专栏内容
·
2025-02-14 22:31
人工智能
conda 装tensorboardx_【工欲善其事】TensorboardX的使用
在训练过程中实时地观察
loss
/accuracy曲
weixin_39719042
·
2025-02-13 19:08
conda
装tensorboardx
机器学习面试笔试知识点-线性回归、逻辑回归(Logistics Regression)和支持向量机(SVM)
机器学习面试笔试知识点-线性回归、逻辑回归LogisticsRegression和支持向量机SVM微信公众号:数学建模与人工智能一、线性回归1.线性回归的假设函数2.线性回归的损失函数(
Loss
Function
qq742234984
·
2025-02-13 07:39
机器学习
线性回归
逻辑回归
机器学习: 逻辑回归
它通过计算目标变量的概率来预测类别归属,并假设数据服从伯努利分布(二分类)或多项式分布(
多分类
)。逻辑回归模型输出的是概率值,通常使用sigmoid函数将线性组合映射到0和1之间。
小源学AI
·
2025-02-13 07:04
人工智能
机器学习
逻辑回归
人工智能
Python 深度学习项目目录规范
工程项目配置文件夹config.pydocs工程项目相关文档说明文件夹data工程数据或数据获取代码文件夹demos/examples工程demo或example文件夹layers自定义的层(如果有)self_
loss
.py
灰灰灰灰灰发
·
2025-02-11 19:15
python
DeepSeek-v3笔记(1)
与v2不同的是,这里用了更加强力的路由平衡算法,叫Auxiliary-
Loss
-FreeLoadBalancing。
蒸土豆的技术细节
·
2025-02-11 09:06
笔记
RLHF代码解读
#模型的损失函数
loss
=value_chosen-value_rejected
loss
=-to
木木木马马
·
2025-02-11 00:25
大模型学习
语言模型
torch.nn.CrossEntropy
Loss
()的一些小细节(原理和数学,softmax与dim,ignore_index,报错:0D or 1D target tensor expecte)
目录关于torch.nn.CrossEntropy
Loss
()数学原理关于熵数学公式pytorch中的torch.nn.CrossEntropy
Loss
()torch.nn.CrossEntropy
Loss
老肝犯
·
2025-02-09 22:49
人工智能
深度学习
python
机器学习
神经网络
深度学习笔记——pytorch构造数据集 Dataset and Dataloader
多层线性(回归)模型Multilevel(LinearRegression)Model深度学习笔记——pytorch构造数据集DatasetandDataloader深度学习笔记——pytorch解决
多分类
问题
旺仔喔喔糖
·
2025-02-09 22:19
机器学习
笔记
pytorch
人工智能
深度学习
【深度学习】L1损失、L2损失、L1正则化、L2正则化
文章目录1.L1损失(L1
Loss
)2.L2损失(L2
Loss
)3.L1正则化(L1Regularization)4.L2正则化(L2Regularization)5.总结5.1为什么L1正则化会产生稀疏解
小小小小祥
·
2025-02-08 15:31
深度学习
人工智能
算法
机器学习
深度学习篇---深度学习相关知识点&关键名词含义
必须掌握的核心基础)1.数学基础•线性代数•微积分•概率与统计2.编程基础3.机器学习基础二、深度学习核心层(神经网络与训练机制)1.神经网络基础2.激活函数(ActivationFunction)3.损失函数(
Loss
Function
Ronin-Lotus
·
2025-02-06 21:21
深度学习篇
深度学习
人工智能
机器学习
pytorch
paddlepaddle
python
深度学习篇---深度学习中的超参数&张量转换&模型训练
)定义重要性常见设置2.批处理大小(BatchSize)定义重要性常见设置3.迭代次数(NumberofEpochs)定义重要性常见设置4.优化器(Optimizer)定义重要性常见设置5.损失函数(
Loss
Function
Ronin-Lotus
·
2025-02-06 21:50
深度学习篇
深度学习
人工智能
paddlepaddle
pytorch
超参数
张量转换
模型训练
【大模型LLM面试合集】训练数据_数据格式
对于
多分类
任务,通常使用one
X.AI666
·
2025-02-06 18:28
人工智能
big
data
自定义数据集 使用pytorch框架实现逻辑回归并保存模型,然后保存模型后再加载模型进行预测,对预测结果计算精确度和召回率及F1分数
训练模型:使用二元交叉熵损失函数BCE
Loss
和随机梯度下降优化器SGD进行训练。保存模型:使用torch.save保存模型的参数。加载模型并预测:加载
知识鱼丸
·
2025-02-05 06:42
machine
learning
机器学习
nnunetv2网络结构详解
stackedconvblocks是两层的标准卷基结构,每层都是conv,instancenorm,leaklyreludc
loss
:是(2,28,128,128,128)(去了背景的维度),label
lzworld
·
2025-02-05 02:42
人工智能
python
【单层神经网络】基于MXNet库简化实现线性回归
frommxnetimportautograd,nd,gluon#模型、网络frommxnet.gluonimportnnfrommxnetimportinit#学习frommxnet.gluonimport
loss
asg
loss
辰尘_星启
·
2025-02-03 14:55
神经网络
mxnet
线性回归
线性回归基础学习
MXNet中存储和变换数据的主要工具,提供GPU计算和自动求梯度等功能线性回归可以用神经网络图表示,也可以用矢量计算表示在Gluon中,data模块提供了有关数据处理的工具,nn模块定义了大量神经网络的层,
loss
Remoa
·
2025-02-03 14:53
人工智能
线性回归
优化
gluon
mxnet
loss
最小边际采样在分类任务中的应用
在一个
多分类
问题中,模型会对每个样本预
ningaiiii
·
2025-02-03 11:57
机器学习与深度学习
分类
数据挖掘
人工智能
LLM - 大模型 ScallingLaws 的设计 100B 预训练方案(PLM) 教程(5)
ScalingLaws(缩放法则)是大模型领域中,用于描述模型性能(
Loss
)与模型规模N、数据量D、计算资源C之间关系的经验规
ManonLegrand
·
2025-02-02 18:21
大模型
(LLM)
人工智能
LLM
ScalingLaws
100B
预训练
DeepNorm
EGS
深度学习训练模型损失
Loss
为NaN或者无穷大(INF)原因及解决办法
文章目录一、可能原因==1.学习率过高====2.batchsize过大==3.梯度爆炸4.损失函数不稳定5.数据预处理问题6.数据标签与输入不匹配7.模型初始化问题8.优化器设置问题9.数值问题==10.模型结构设计缺陷==二、调试步骤三、常见预防措施一、可能原因1.学习率过高原因:学习率过高可能导致梯度爆炸,权重更新幅度过大,导致模型参数变为无穷大或NaN。学习率设置过大是常见问题,它会让参数
余弦的倒数
·
2025-02-01 05:17
学习笔记
机器学习
深度学习
pytorch
深度学习
人工智能
机器学习
YOLOv10-1.1部分代码阅读笔记-
loss
.py
loss
.pyultralytics\utils\
loss
.py目录
loss
.py1.所需的库和模块2.classVarifocal
Loss
(nn.Module):3.classFocal
Loss
(nn.Module
红色的山茶花
·
2025-02-01 03:27
YOLO
笔记
深度学习
DeepSeek:LLM在MoE训练中的无损平衡
标题:AUXILIARY-
LOSS
-FREELOADBALANCINGSTRAT-EGYFORMIXTURE-OF-EXPERTS来源:arXiv,2408.15664摘要对于混合专家(MoE)模型,不平衡的专家负载将导致路由崩溃或计算开销增加
大模型任我行
·
2025-01-30 16:24
大模型-模型训练
人工智能
自然语言处理
语言模型
论文笔记
Chapter 3-20. Detecting Congestion in Fibre Channel Fabrics
ThePitfallsofMonitoringNetworkTrafficAkeyconsiderationformonitoringtrafficin
loss
lessnetworksisthatforallpracticalpurposes
mounter625
·
2025-01-30 15:50
Linux
kernel
服务器
网络
kernel
linux
【YOLOv11改进- 注意力机制】YOLOv11+SCSA注意力机制(2024): 最新空间和通道协同注意力,助力YOLOv11有效涨点;包含二次创新
YOLOV11目标检测改进实例与创新改进专栏专栏地址:YOLOv11目标检测改进专栏,包括backbone、neck、
loss
、分配策略、组合改进、原创改进等;本文介绍本文给大家带来的改进内容是在YOLOv11
算法conv_er
·
2025-01-30 02:08
YOLOv11目标检测改进
YOLO
深度学习
人工智能
目标检测
计算机视觉
机器学习
探秘 TCP TLP:从背景到实现
本文内容参考自Tail
Loss
Probe(TLP):AnAlgorithmforFastRecoveryofTail
Loss
es以及Linux内核源码。TLP,先说缘由。
dog250
·
2025-01-29 09:39
tcp/ip
网络
网络协议
图像处理篇---图像压缩格式&编码格式
文章目录前言图像压缩格式无损压缩(
Loss
lessCompression)1.PNG(PortableNetworkGraphics)2.GIF(GraphicsInterchangeFormat)3.
Ronin-Lotus
·
2025-01-27 14:40
图像处理篇
图像处理
计算机视觉
人工智能
学习
程序人生
图像压缩
编码格式
0基础跟德姆(dom)一起学AI 自然语言处理22-fasttext文本分类
当今文本分类的实现多是使用机器学习方法从训练数据中提取分类规则以进行分类,因此构建文本分类器需要带标签的数据.1.2文本分类种类二分类:文本被分类两个类别中,往往这两个类别是对立面,比如:判断一句评论是好评还是差评.单标签
多分类
跟德姆(dom)一起学AI
·
2025-01-27 06:50
人工智能
自然语言处理
分类
python
深度学习
transformer
【深度学习|迁移学习】Wasserstein距离度量和跨域原型一致性损失(CPC
Loss
)如何计算?以及Wasserstein距离和CPC
Loss
结合的对抗训练示例,附代码(二)
【深度学习|迁移学习】Wasserstein距离度量和跨域原型一致性损失(CPC
Loss
)如何计算?
努力学习的大大
·
2025-01-25 22:43
深度学习基础
深度学习
迁移学习
人工智能
python
2025-1-21-sklearn学习(43) 使用 scikit-learn 介绍机器学习 楼上阑干横斗柄,寒露人远鸡相应。
)使用scikit-learn介绍机器学习43.1机器学习:问题设置43.2加载示例数据集43.3学习和预测43.4模型持久化43.4规定43.4.1类型转换43.4.2再次训练和更新参数43.4.3
多分类
与多标签拟合
汤姆和佩琦
·
2025-01-25 15:18
sklearn
机器学习
sklearn
学习
python
人工智能
scikit-learn
python3+TensorFlow 2.x 基础学习(一)
基础概念2、1EagerExecution2、2TensorFlow张量(Tensor)3、使用Keras构建神经网络模型3、1构建Sequential模型3、2编译模型1、Optimizer(优化器)2、
Loss
刀客123
·
2025-01-25 03:23
python学习
tensorflow
学习
人工智能
Chapter 3-15. Detecting Congestion in Fibre Channel Fabrics
Credit-
loss
-recoTheCredit-
loss
-recoPort-MonitorcounterdetectstheinstancesofCredit
Loss
Recoveryonaswitchport.AstheTxCredit
Loss
Recoverysectionexplains
mounter625
·
2025-01-24 20:28
Linux
kernel
网络
服务器
kernel
linux
<keep-alive> <component ></component> </keep-alive>缓存的组件实现组件,实现组件切换时每次都执行指定方法
/procurementPlanConfig/calculationDimension.vue'),//价格损失配置Price
Loss
Setting:()=>import
柠檬花开_
·
2025-01-24 09:32
缓存
前端
active
component
R数据分析:
多分类
问题预测模型的ROC做法及解释
有同学做了个
多分类
的预测模型,结局有三个类别,做的模型包括
多分类
逻辑回归、随机森林和决策树,
多分类
逻辑回归是用ROC曲线并报告AUC作为模型评估的,后面两种模型报告了混淆矩阵,审稿人就提出要统一模型评估指标
公众号Codewar原创作者
·
2025-01-23 23:11
R
数据分析
使用神经网络做二分类预测
先给个结果图:train0
loss
:1838.0616train100
loss
:1441.5283train200
loss
:1299.4546train300
loss
:934.36536train400
loss
weixin_33816300
·
2025-01-23 21:30
人工智能
python
matlab
Swin-Unet
多分类
:图像分割领域的强大工具
Swin-Unet
多分类
:图像分割领域的强大工具【下载地址】Swin-Unet
多分类
资源文件介绍本仓库提供了一个名为“Swin-Unet
多分类
”的资源文件,该文件主要用于图像分割任务中的
多分类
问题。
甄亚凌
·
2025-01-23 21:55
关于sklearn.svm.SVC与.NuSVC的区别以及参数介绍
0.区别SVC与NuSVC是类似的方法,但是接受稍微不同的参数集合并具有不同的数学公式,并且NuSVC可以使用参数来控制支持向量的个数,以下代码默认的是
多分类
1.SVC#coding:utf-8fromsklearnimportsvmfromnumpyimport
_Magic
·
2025-01-21 20:00
机器学习实战
with
python
【深度学习】CrossEntropy
Loss
需要手动softmax吗?
【深度学习】CrossEntropy
Loss
需要手动softmax吗?问题:CrossEntropy
Loss
需要手动softmax吗?
zz的学习笔记本
·
2025-01-21 14:07
深度学习
深度学习
人工智能
LLM - 大模型 ScallingLaws 的 CLM 和 MLM 中不同系数(PLM) 教程(2)
ScalingLaws(缩放法则)是大模型领域中,用于描述模型性能(
Loss
)与模型规模N、数据量D、计算资源C之间关系的经验规
ManonLegrand
·
2025-01-21 04:10
大模型
(LLM)
LLM
ScalingLaws
CLM
MLM
IsoFLOPs
SymboLab
【分类】【损失函数】处理类别不平衡:CEFL 和 CEFL2 损失函数的实现与应用
为了有效解决类别不平衡问题,Class-balancedExponentialFocal
Loss
(CEFL)和Class-balancedExponen
丶2136
·
2025-01-20 14:54
AI
分类
人工智能
损失函数
交叉熵损失函数(Cross-Entropy
Loss
)
原理交叉熵损失函数是深度学习中分类问题常用的损失函数,特别适用于
多分类
问题。它通过度量预测分布与真实分布之间的差异,来衡量模型输出的准确性。
我叫罗泽南
·
2025-01-20 12:01
深度学习
人工智能
【深度学习】Huber
Loss
详解
文章目录1.Huber
Loss
原理详解2.Pytorch代码详解3.与MSE
Loss
、MAE
Loss
区别及各自优缺点3.1MSE
Loss
均方误差损失3.2MAE
Loss
平均绝对误差损失3.3Huber
Loss
4
小小小小祥
·
2025-01-19 15:40
深度学习
人工智能
算法
职场和发展
机器学习
使用神经网络拟合6项参数
1.1添加参数解析1.2数据预处理逻辑1.3数据归一化及划分1.4数据标签处理逻辑1.5数据转torch2.定义model2.1CNN_LSTM2.2Transformer3.定义train脚本3.1
loss
Andrew_Xzw
·
2025-01-18 15:06
神经网络
人工智能
深度学习
开发语言
机器学习
python
Python AI教程之二十一:监督学习之支持向量机(SVM)算法
SVM特别有效,因为它们专注于寻找目标特征中不同类别之间的最大分离超平面,从而使其对二分类和
多分类
都具有鲁棒性。在本大纲中,我们将探讨支持向量机(SVM)
潜洋
·
2025-01-18 10:25
人工智能
Python中级
支持向量机
算法
机器学习
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他