E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
交叉熵损失函数
【深度学习】Adam优化器
1.2.3矫正一阶矩估计(mean)和二阶矩估计(uncenteredvariance)的偏差1.2.4更新模型参数1.3Adam的简单理解2Adam优化算法怎么用2.1导入所需的库和模块2.2定义模型和
损失函数
九筠
·
2025-02-22 18:54
机器学习
深度学习
人工智能
word2vec之skip-gram算法原理
one-hot编码(11000词汇量的总数目)output其他所有单词的概率(softmax输出也是11000)target是相近单词的one-hot形式2.Losstarget和output的矩阵的
交叉熵
最小
cuixuange
·
2025-02-22 18:52
推荐算法
word2vec
skipgram
用deepseek学大模型05逻辑回归
deepseek.com:逻辑回归的目标函数,
损失函数
,梯度下降标量和矩阵形式的数学推导,pytorch真实能跑的代码案例以及模型,数据,预测结果的可视化展示,模型应用场景和优缺点,及如何改进解决及改进方法数据推导
wyg_031113
·
2025-02-22 00:48
逻辑回归
机器学习
人工智能
PyTorch torch.logsumexp 详解:数学原理、应用场景与性能优化(中英双语)
PyTorchtorch.logsumexp详解:数学原理、应用场景与性能优化在深度学习和概率模型中,我们经常需要计算数值稳定的对数概率操作,特别是在处理softmax归一化、对数似然计算、
损失函数
优化等任务时
阿正的梦工坊
·
2025-02-21 20:22
PyTorch
Deep
Learning
pytorch
人工智能
python
UNet:UNet的
损失函数
与优化器_2024-07-24_07-32-39.Tex
UNet:UNet的
损失函数
与优化器UNet简介UNet的架构UNet是一种广泛应用于图像分割任务的卷积神经网络架构,由OlafRonneberger、PhilippFischer和ThomasBrox
chenjj4003
·
2025-02-21 16:46
游戏开发2
深度学习
人工智能
前端
javascript
github
java
开发语言
嵌入式人工智能应用-第四章 逻辑回归 8
逻辑回归1逻辑回归介绍1.1背景介绍1.2原理1.2.1预测函数1.2.2判定边界1.2.3
损失函数
1,2,4梯度下降函数1.2.5分类拓展1.2.6正则化2实验代码3实验结果说明1逻辑回归介绍1.1背景介绍逻辑回归的过程可以概括为
数贾电子科技
·
2025-02-21 16:11
嵌入式人工智能应用
人工智能
逻辑回归
算法
机器学习—逻辑回归
目录1、基础概念1.1、什么是逻辑回归1.2、逻辑回归与线性回归的区别1.3应用场景2、逻辑回归模型2.1、模型定义2.2、Sigmoid函数2.3、决策边界2.4、概率解释3、模型训练3.1、
损失函数
60岁的程序猿
·
2025-02-21 14:22
1024程序员节
机器学习
逻辑回归
人工智能
算法
机器学习(一) 本文(3万字) | 机器学习概述 |
2.1.3假设空间2.1.4问题的形式化2.2无监督学习2.3强化学习2.4半监督学习与主动学习3.基于模型分类4.基于技巧分类4.1贝叶斯学习4.2核方法5.统计学习三要素5.1模型5.2策略5.2.1
损失函数
与风险
小酒馆燃着灯
·
2025-02-21 08:05
机器学习
人工智能
深度学习
目标检测
vscode
pytorch
python
线性回归理论
通过
损失函数
来衡量预测值与真实值之间的差异,常用的
损失函数
包
狂踹瘸子那条好脚
·
2025-02-20 11:21
python
训练与优化
训练与优化
损失函数
与反向传播
损失函数
能够衡量神经网络输出与目标值之间的误差,同时为反向传播提供依据,计算梯度来优化网络中的参数。torch.nn.L1Loss计算所有预测值与真实值之间的绝对差。
钰见梵星
·
2025-02-20 04:23
小土堆PyTorch深度学习
深度学习
pytorch
人工智能
吐血整理!梯度累积和优化器配置差异,让模型训练效果天差地别!
核心内容避坑指南:梯度累积和优化器配置易踩的雷区场景化描述:你满心欢喜地开始训练模型,却发现训练过程中
损失函数
波动剧烈,
盼达思文体科创
·
2025-02-20 01:26
经验分享
YOLOv11算法与改进版YOLOv11算法对比:性能提升与优化
算法与改进版YOLOv11算法对比:性能提升与优化前言一、YOLOv11算法概述二、训练步骤2.验证数据的数据代码2.改进版YOLOv11算法的创新a.改进的特征提取网络b.多通道特征融合机制c.自适应
损失函数
m0_54717829
·
2025-02-19 16:17
YOLO
算法
目标跟踪
用deepseek学大模型08-长短时记忆网络 (LSTM)
deepseek.com从入门到精通长短时记忆网络(LSTM),着重介绍的目标函数,
损失函数
,梯度下降标量和矩阵形式的数学推导,pytorch真实能跑的代码案例以及模型,数据,模型应用场景和优缺点,及如何改进解决及改进方法数据推导
wyg_031113
·
2025-02-19 08:35
lstm
人工智能
rnn
用deepseek学大模型08-卷积神经网络(CNN)
yuanbao.tencent.com从入门到精通卷积神经网络(CNN),着重介绍的目标函数,
损失函数
,梯度下降标量和矩阵形式的数学推导,pytorch真实能跑的代码案例以及模型,数据,预测结果的可视化展示
wyg_031113
·
2025-02-19 07:30
机器学习
人工智能
随机梯度下降一定会收敛么?
2.随机梯度下降算法的基本原理1.基于梯度的优化基础该算法是基于梯度的优化算法,用于寻找函数的最优解,通常是最小化
损失函数
。
AndrewHZ
·
2025-02-19 01:36
人工智能
深度学习
算法
Beyond Scaling Laws: Understanding Transformer Performance with Associative Memory
超越缩放定律:用联想记忆理解Transformer性能摘要1引言2相关工作3模型4新的能量函数5
交叉熵
损失6实验结果7结论摘要增大Transformer模型的大小并不总是能够提高性能。
UnknownBody
·
2025-02-18 23:48
LLM
Daily
transformer
深度学习
人工智能
语言模型
什么是Scaling Laws(缩放定律);DeepSeek的Scaling Laws
它表明,在一定条件下,模型的性能会随着模型规模的增加而以某种可预测的方式提升,通常表现为模型的
损失函数
值随模型
ZhangJiQun&MXP
·
2025-02-18 23:14
教学
2024大模型以及算力
2021
论文
人工智能
自然语言处理
神经网络
语言模型
深度学习
机器学习和线性回归、softmax回归
回归——平方误差
损失函数
回归(regression)是最简单的监督学习任务之一。分类——
交叉熵
样本属于“哪一类”的问题称为分类问题回归是训练一个回归函数来输出一个数值;分类是训练一个分
小名叫咸菜
·
2025-02-18 13:53
人工智能
线性回归
模型GPU->NPU(Ascend)迁移训练简述
跨平台精度对齐对比3.问题定位与修复4.迭代验证三、关键技术点四、常见问题与解决方案一、迁移训练流程图解通过华为云的modelart进行运行环境选型北京四使用GPU进行模型训练,生成gpulog.json文件,记录
损失函数
等信息
終不似少年遊*
·
2025-02-18 01:12
深度学习
人工智能
迁移学习
GPU
NPU
华为云
给我通俗易懂地讲一下
损失函数
与正则化
我用最生活化的比喻来解释这两个关键概念---###**1.
损失函数
:考试得分计算器****场景**:你是个教练,训练学生投篮-**核心作用**:每次投篮训练后,自动算出学生的「犯错分数」-**举个栗子*
利万国潮科技 A9.36(asi智神版)
·
2025-02-16 13:46
经验分享
YOLOv1
损失函数
相关文章YOLOv1论文简要YOLOv1数据集加载YOLOv1
损失函数
YOLOv1模型构建与训练YOLOv1目标检测项目地址:YOLOv1VOC2007笔者训练的权重地址:阿里云盘分享10秒文章速览对于
余将董道而不豫兮
·
2025-02-16 11:01
YOLO
神经网络
python
深度学习
人工智能
机器学习
计算机视觉
动手学深度学习笔记|3.2线性回归的从零开始实现(附课后习题答案)
动手学深度学习笔记|3.2线性回归的从零开始实现(附课后习题答案)线性回归的从零开始实现生成数据集读取数据集初始化模型参数定义模型定义
损失函数
定义优化算法训练练习1.如果我们将权重初始化为零,会发生什么
lusterku
·
2025-02-15 04:57
动手学深度学习
深度学习
笔记
线性回归
Pytorch学习之路(3)
一.机器学习任务的整体流程1.数据预处理:数据格式统一、异常数据消除、必要数据转换,划分训练集、验证集、测试集2.选择模型3.设定
损失函数
、优化方法、对应的超参数4.用模型拟合训练集数据,在验证集/测试集上计算模型表现二
AAAx1anyu
·
2025-02-14 21:28
Pytorch学习之旅
学习
人工智能
pytorch
深度学习
笔记
《探秘Hogwild!算法:无锁并行SGD的神奇之路》
其目标是优化
损失函数
,通过对每一个超参数求偏导得到当前轮的梯度,然后向梯度的反方向更新,不断迭代以获
·
2025-02-14 17:24
人工智能深度学习
9、深度学习-自学之路-
损失函数
、梯度下降、学习率、权重更新的理解
由《8、深度学习-自学之路-
损失函数
和梯度下降程序展示》我们看到我们设计了一个程序,这个程序里面由学习率,有
损失函数
,有梯度下降,权重更新。
小宇爱
·
2025-02-14 11:16
深度学习-自学之路
深度学习
学习
人工智能
《深度解析:批量、随机和小批量梯度下降的区别与应用》
原理与计算方式批量梯度下降(BGD):BGD在每次迭代时,都会使用整个训练数据集来计算
损失函数
的梯度,然后根据梯度更新模型参数。例如,若训练集中有1000个样本,那么每次迭代
·
2025-02-14 09:40
人工智能深度学习
机器学习·逻辑回归
一、逻辑回归vs线性回归特性逻辑回归线性回归任务类型分类(二分类为主)回归(预测连续值)输出范围(0,1)(概率值)(-∞,+∞)核心函数Sigmoid函数线性函数
损失函数
对数
损失函数
(
交叉熵
)均方误差
AAA顶置摸鱼
·
2025-02-14 03:00
python
深度学习
机器学习
逻辑回归
人工智能
机器学习面试笔试知识点-线性回归、逻辑回归(Logistics Regression)和支持向量机(SVM)
机器学习面试笔试知识点-线性回归、逻辑回归LogisticsRegression和支持向量机SVM微信公众号:数学建模与人工智能一、线性回归1.线性回归的假设函数2.线性回归的
损失函数
(LossFunction
qq742234984
·
2025-02-13 07:39
机器学习
线性回归
逻辑回归
基于泰勒展开改进的物理信息神经网络
PINN通过将物理定律嵌入到神经网络的
损失函数
中,能够在缺乏大量数据的情况下,有效地解决复杂的物理问题。
天天酷科研
·
2025-02-12 20:39
物理信息网络PINN
神经网络
人工智能
深度学习
BP神经网络学习内容分享:学习激活函数和
损失函数
一、激活函数1.激活函数的作用激活函数(ActivationFunction)在神经网络中扮演着至关重要的角色。它们的主要作用是将神经元的输入(加权和)转化为一个输出信号,这个输出信号可以进一步作为后续神经元或层的输入。具体来说,激活函数的作用包括以下几个方面:(1)引入非线性:激活函数的核心功能之一是引入非线性因素。由于神经网络的线性组合本身仍然是线性的,如果不使用激活函数,那么无论网络有多少层
强哥带你学BP神经网络
·
2025-02-12 19:32
BP神经网络
神经网络
学习
人工智能
常见目录和文件
激活函数、
损失函数
常见文件detec.py——传入参数,调用modelstrain.py——传入参数,调用models,学习率test.py——复现最佳结果main.py——定义一些参数。
被放养的研究生
·
2025-02-12 10:35
计算机视觉
计算机视觉
python
基于计算图的Softmax层反向传播推导
》,书本十分通俗易懂,在Chapter5——反向传播部分,作者以计算图方式给出了Sigmoid函数,全连接层的反向传播过程,但是在给出Softxmax层的反向传播推导过程的时候,将Softmax函数与
交叉熵
计算函数直接相连
KaiMing Zhu
·
2025-02-11 21:25
深度学习
反向传播
机器学习(入门3)
w1x1+w2x1+w3x3+…+b一般用矩阵形式表示4.1.1线性模型:自变量一次;参数一次(自变量高次方,非线性函数)y=w1x1+w2x2^2+…+b4.1.2线性回归的损失和优化[目标:求模型参数]
损失函数
caspesjpe
·
2025-02-11 21:55
机器学习
python
逻辑回归
算法
RLHF代码解读
#模型的
损失函数
loss=value_chosen-value_rejectedloss=-to
木木木马马
·
2025-02-11 00:25
大模型学习
语言模型
一文解释nn、nn.Module与nn.functional的用法与区别
,十二点的黑夜遮蔽不住黎明的曙光目录1.前言2.Torch.nn库3.nn.Module4.nn.functional4.1基本用法4.2常用的functional中的函数4.2.1激活函数4.2.2
损失函数
十二月的猫
·
2025-02-10 03:23
零基础入门PyTorch框架
python
pytorch
人工智能
torch.nn.CrossEntropyLoss()的一些小细节(原理和数学,softmax与dim,ignore_index,报错:0D or 1D target tensor expecte)
torch.nn.CrossEntropyLoss()数学原理关于熵数学公式pytorch中的torch.nn.CrossEntropyLoss()torch.nn.CrossEntropyLoss()
交叉熵
函数的使用类别索引代码示例结果关于
老肝犯
·
2025-02-09 22:49
人工智能
深度学习
python
机器学习
神经网络
交叉熵
和它的朋友
交叉熵
交叉熵
衡量两个概率分布PPP和QQQ的差异,定义为:H(P,Q)=−∑iP(i)logQ(i)H(P,Q)=-\sum_{i}P(i)\logQ(i)H(P,Q)=−∑iP(i)logQ(i)其中
Jamence
·
2025-02-09 15:59
AI数学知识
人工智能
语言模型
chatgpt
【深度学习】L1损失、L2损失、L1正则化、L2正则化
L1Regularization)4.L2正则化(L2Regularization)5.总结5.1为什么L1正则化会产生稀疏解L2正则化会让权重变小L1损失、L2损失、L1正则化、L2正则化是机器学习中常用的
损失函数
和正则化技术
小小小小祥
·
2025-02-08 15:31
深度学习
人工智能
算法
机器学习
基于 DeepSeek-R1 模型微调(SFT)技术详解
模型特点与优势2.2.1语言理解与生成能力2.2.2计算效率与扩展性微调(SFT)基础概念3.1微调的定义与作用3.2监督微调(SFT)与其他微调方法的区别3.3SFT在实际应用中的价值SFT技术原理4.1
损失函数
设计
zhangjiaofa
·
2025-02-07 10:43
大模型
DeepSeek-R1
SFT
模型微调
深度学习篇---深度学习相关知识点&关键名词含义
必须掌握的核心基础)1.数学基础•线性代数•微积分•概率与统计2.编程基础3.机器学习基础二、深度学习核心层(神经网络与训练机制)1.神经网络基础2.激活函数(ActivationFunction)3.
损失函数
Ronin-Lotus
·
2025-02-06 21:21
深度学习篇
深度学习
人工智能
机器学习
pytorch
paddlepaddle
python
深度学习篇---深度学习中的超参数&张量转换&模型训练
LearningRate)定义重要性常见设置2.批处理大小(BatchSize)定义重要性常见设置3.迭代次数(NumberofEpochs)定义重要性常见设置4.优化器(Optimizer)定义重要性常见设置5.
损失函数
Ronin-Lotus
·
2025-02-06 21:50
深度学习篇
深度学习
人工智能
paddlepaddle
pytorch
超参数
张量转换
模型训练
深度学习学习笔记 --- 动量momentum
初始化权值操作对最终的网络性能影响比较大,合适的网络初始权值操作能够使
损失函数
在训练过程中收敛速度快,从而获得更好的优化结果。
杨鑫newlfe
·
2025-02-06 18:01
Machine
Learning
深度学习
动量
momentum
梯度下降
在深度学习中,样本不均衡问题是一个常见的挑战,尤其是在你的老虎机任务中,某些的中奖倍数较高
以下是SMOTE过采样和
损失函数
加权的具体实现方法:1.SMOTE过采样SMOTE(SyntheticMinori
zhangfeng1133
·
2025-02-06 17:53
深度学习
人工智能
【单层神经网络】基于MXNet的线性回归实现(底层实现)
熟悉一下学习训练过程下面将使用梯度下降法寻优,但这大概只能是局部最优,它并不是一个十分优秀的寻优算法整体流程生成训练数据集(实际工程中,需要从实际对象身上采集数据)确定模型及其参数(输入输出个数、阶次,偏置等)确定学习方式(
损失函数
辰尘_星启
·
2025-02-06 11:43
线性回归
mxnet
机器学习
人工智能
深度学习
神经网络
python
自定义数据集 使用pytorch框架实现逻辑回归并保存模型,然后保存模型后再加载模型进行预测,对预测结果计算精确度和召回率及F1分数
训练模型:使用二元
交叉熵
损失函数
BCELoss和随机梯度下降优化器SGD进行训练。保存模型:使用torch.save保存模型的参数。加载模型并预测:加载
知识鱼丸
·
2025-02-05 06:42
machine
learning
机器学习
TensorFlow 示例项目实战与源码解析.zip
文章将详细介绍TensorFlow的核心概念,如张量、图计算、会话、变量、梯度下降与优化器、
损失函数
、数据集、模型评估、模型保存与恢复以及KerasAPI。读者可通过实践这些示
ELSON麦香包
·
2025-02-05 01:34
PyTorch 训练一个分类器
文章目录0前言1加载和规范化CIFAR102定义一个卷积网络3定义
损失函数
和优化器4训练网络5测试网络6在GPU上训练模型参考资料0前言 TRAINGINGACLASSIFIER这篇教程很清楚的描述了如何使用
亚里
·
2025-02-04 05:59
平台工具类
pytorch训练网络
线性回归的简单实现
本文是《动手学深度学习》的笔记文章目录线性回归的简单实现生成随机数据集读取数据初始化模型参数定义模型定义
损失函数
定义优化算法训练模型线性回归的简洁实现生成数据集读取数据定义模型初始化模型参数定义
损失函数
定义优化算法训练模型线性回归的简单实现用了
SkaWxp
·
2025-02-03 14:58
深度学习
深度学习
机器学习
mxnet
gluon
线性回归基础学习
中存储和变换数据的主要工具,提供GPU计算和自动求梯度等功能线性回归可以用神经网络图表示,也可以用矢量计算表示在Gluon中,data模块提供了有关数据处理的工具,nn模块定义了大量神经网络的层,loss模块定义了各种
损失函数
在
Remoa
·
2025-02-03 14:53
人工智能
线性回归
优化
gluon
mxnet
loss
【自然语言处理(NLP)】Word2Vec 原理及模型架构(Skip-Gram、CBOW)
Word2Vec的优点Word2Vec的缺点Word2Vec的应用场景Word2Vec的实现工具总结Word2Vec数学推导过程1.CBOW模型的数学推导(1)输入表示(2)词向量矩阵(3)输出层(4)
损失函数
道友老李
·
2025-02-02 11:58
自然语言处理(NLP)
自然语言处理
word2vec
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他