E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
损失函数
使用tensorflow的线性回归的例子(七)
在算法的收敛性中,理解
损失函数
的影响是很重要的。这里我们展示L1和L2
损失函数
是如何影响线性回归的收敛性的。我们使用iris数据集,但是我们将改变
损失函数
和学习速率来看收敛性的改变。
lishaoan77
·
2025-07-12 04:55
tensorflow
tensorflow
线性回归
人工智能
SPGAN: Siamese projection Generative Adversarial Networks
主要创新点包括:(1)设计Siameseprojection网络来测量特征相似性;(2)提出相似特征对抗学习框架,将相似性测量融入生成器和鉴别器的
损失函数
;(3)通过相似特征对抗学习,鉴别器能最大化真实图像和生成图像特征的差异性
这张生成的图像能检测吗
·
2025-07-11 23:25
优质GAN模型训练自己的数据集
人工智能
生成对抗网络
计算机视觉
深度学习
神经网络
算法
前沿交叉:Fluent与深度学习驱动的流体力学计算体系
Tecplot流场可视化与数据导出2、CFD数据的AI预处理·基于PCA/SVD的流场数据降维·特征值分解与时空特征提取深度学习核心3.物理机理嵌入的神经网络架构·物理信息神经网络(PINN):将N-S方程嵌入
损失函数
m0_75133639
·
2025-07-11 10:56
流体力学
深度学习
人工智能
航空航天
fluent
流体力学
材料科学
CFD
万字长文带你搞懂yolov5和yolov8以及目标检测相关面试
使用了Mosaic数据增强、自适应锚框计算、自适应图片缩放基准网络:使用了FOCUS结构和CSP结构Neck网络:在Backbone和最后的Head输出层之间插入FPN_PAN结构Head输出层:训练时的
损失函数
起个别名
·
2025-07-11 05:24
C++
YOLO
目标检测
目标跟踪
KTO(Kahneman-Tversky Optimization)技术详解与工程实现
其创新性在于:
损失函数
设计:将人类对"收益"和"损失"的非对称心理反应量化数据效率:无需构建偏好对(y_w>y_l),直接利用松散标注二、KT
DK_Allen
·
2025-07-10 18:06
大模型
深度学习
pytorch
人工智能
KTO
语言模型 RLHF 实践指南(一):策略网络、价值网络与 PPO
损失函数
损失函数
怎么构建?微调后的旧轨迹还能用吗?这篇文章将以语言模型强化学习微调为例,结合实际实现和数学公式,深入解析PPO的关键计算流程。1️⃣策略网络:如何计算动作概率?
·
2025-07-10 09:12
深度学习核心知识简介和模型调参
###核心参数及其影响####1️⃣Loss(
损失函数
)**基本介绍**:衡量模型预测与真实值差距的指标,是模型优化的指南针。
研术工坊
·
2025-07-10 03:34
深度学习知识和技巧
深度学习
人工智能
python
【AI大模型】神经网络反向传播:核心原理与完整实现
一、反向传播的本质与意义反向传播(Backpropagation)是神经网络训练的核心算法,通过链式法则高效计算
损失函数
对网络参数的梯度,实现神经网络的优化学习。
我爱一条柴ya
·
2025-07-08 18:00
学习AI记录
人工智能
神经网络
深度学习
ai
AI编程
【PyTorch】PyTorch中torch.nn模块的卷积层
PyTorch深度学习总结第七章PyTorch中torch.nn模块的卷积层文章目录PyTorch深度学习总结前言一、torch.nn模块1.模块的基本组成部分1.1层(Layers)1.2
损失函数
(LossFunctions
·
2025-07-08 12:18
什么是深度学习框架中的计算图?
操作:数学运算,如加法(+)、乘法(*)、矩阵乘法(matmul)、激活函数(ReLU,sigmoid)、卷积(conv2d)、
损失函数
(cross_entropy)等。变量:通常是张量,即存储数据
杰瑞学AI
·
2025-07-07 20:17
Computer
knowledge
NLP/LLMs
AI/AGI
深度学习
人工智能
pytorch
PyTorch 的 torch.nn 模块学习
使用场景:用于定义和管理神经网络模型,包括层、
损失函数
和自定义的前向传播逻辑。主要API和使用场景:__init__
·
2025-07-07 11:10
机器学习21-线性网络思考
请详细列举不同的算法对应的
损失函数
和计算思路在传统机器学习中,线性分类算法是一种非常重要的方法,用于将数据划分为不同的类别。
坐吃山猪
·
2025-07-07 04:00
机器学习
机器学习
人工智能
线性网络
深度学习相关指标工作笔记
这里写目录标题检测指标iou/Gou/Diou/CiouMSE(MeanSquaredError)(均方误差)(回归问题)交叉熵
损失函数
(CrossEntropyErrorFunction)(分类问题)
Victor Zhong
·
2025-07-06 19:23
AI
框架
深度学习
笔记
人工智能
【Python训练营打卡】day33 @浙大疏锦行
查看显卡信息的命令行命令(cmd中使用)3.cuda的检查4.简单神经网络的流程a.数据预处理(归一化、转换成张量)b.模型的定义i.继承nn.Module类ii.定义每一个层iii.定义前向传播流程c.定义
损失函数
和优化器
2301_77865880
·
2025-07-05 14:17
MyPython训练营打卡
python
深入了解Transformer模型及其优缺点
目录前言1Transformer结构特点1.1注意力机制(Self-Attention)1.2编码器-解码器架构1.3位置编码和基于注意力的
损失函数
2Transformer模型优缺点分析2.1Transformer
·
2025-07-04 18:38
如何训练一个 Reward Model:RLHF 的核心组件详解
本文将系统介绍如何从零开始训练一个rewardmodel,包括数据准备、模型结构、
损失函数
、训练方法与注意事项。什么是RewardModel?
茫茫人海一粒沙
·
2025-07-04 00:04
深度学习
人工智能
强化学习
Python Day53
传统的神经网络训练中,我们通常会直接定义一个
损失函数
(如均方误差MSE、交叉熵CE),然后通过反向传播来优化这个损失。这个损失的“来源”
别勉.
·
2025-07-03 07:56
python机器学习
python
开发语言
Instrct-GPT 强化学习奖励模型 Reward modeling 的训练过程原理实例化详解
(2)InstructGPT的优化方案二、输入输出与
损失函数
的具体构造(1)输入输出示例(2)人工标注数据的处理(3)
损失函数
的计算过程(4)反向传播的核心逻辑三、为什么不需要人工标注分值?
John_今天务必休息一天
·
2025-07-03 06:19
2_大语言模型基础
#
2.2
生成式预训练语言模型GPT
gpt
log4j
语言模型
人工智能
自然语言处理
算法
Learning Fully Convolutional Networks for Iterative Non-blind Deconvolution论文阅读
研究目标与实际问题1.1研究目标1.2实际意义2.创新方法与模型设计2.1核心框架:迭代式梯度域处理2.1.1模型架构2.2关键技术实现2.2.1梯度域去噪网络2.2.2解卷积模块(核心公式实现)2.2.3
损失函数
设计
青铜锁00
·
2025-07-02 01:19
#
退化
论文阅读
深度学习
论文阅读
图像处理
【机器学习】机器学习的基本分类-监督学习-线性回归(Linear Regression)
损失函数
为了找到最佳的w和b,需要最小化预测值和真实值
IT古董
·
2025-07-01 07:18
人工智能
机器学习
机器学习
分类
学习
人工智能
线性回归
线性代数-第9篇:二次型与正定矩阵:优化问题的数学基础
线性代数-第9篇:二次型与正定矩阵:优化问题的数学基础在人工智能、量化投资和大数据分析中,优化问题无处不在,比如机器学习的
损失函数
最小化、量化投资组合的风险最小化等。
程序员勇哥
·
2025-06-30 20:28
人工智能(AI)
线性代数
人工智能
大数据
python
深度学习使用Pytorch训练模型步骤
3.选择
损失函数
:根据任务类型(如分类、回归)选择合适的
损失函数
。4.选择优化
vvvdg
·
2025-06-30 01:29
深度学习
pytorch
人工智能
第 3 章:神经网络如何学习
损失函数
(LossFunction
鱼摆摆拜拜
·
2025-06-29 15:19
神经网络
学习
人工智能
【机器学习&深度学习】反向传播机制
4.1第一步:尝一口(前向传播)4.2第二步:倒着推原因(反向传播)五、换成人工智能流程说一遍六、图示类比:找山顶(最优参数)七、总结一句人话八、PyTorch代码示例:亲眼看到每一层的梯度九、梯度=
损失函数
对参数的偏导数十
·
2025-06-28 14:47
【机器学习算法】XGBoost原理
一、基本内容基本内容:GBDT的基础上,在
损失函数
上加入树模型复杂度的正则项与GBDT一样,也是使用新的弱学习器拟合残差(当前模型负梯度,残差方向)GBDT
损失函数
Loss=∑i=1NL(yi,yit)
·
2025-06-27 23:42
XGBoost算法原理及Python实现
在
损失函数
的优化过程中,不仅考虑了一阶导数(梯度),还引入了二阶导数(海森矩阵),这使得算法能够更精确地找到
损失函数
法号清水
·
2025-06-26 19:50
算法
python
开发语言
深度学习——第2章习题2-1分析为什么平方
损失函数
不适用于分类问题
深度学习——第2章习题2-1《神经网络与深度学习》——邱锡鹏2-1分析为什么平方
损失函数
不适用于分类问题。
笨小古
·
2025-06-24 18:39
深度强化学习
深度学习
分类
人工智能
../aten/src/ATen/native/cuda/Loss.cu:115: operator(): block: [192,0,0], thread: [95,0,0] Assertion
/Loss.cu:115:operator():block:[192,0,0],thread:[95,0,0]Assertion`input_val>=zero&&input_val源代码上下文(计算
损失函数
weixin_42319617
·
2025-06-24 17:58
深度学习
人工智能
机器学习数据预处理:L2正则化(岭回归)
它在线性回归模型中通过在
损失函数
中添加L2范数的平方来惩罚模型的复杂度,从而防止过拟合。在线性回归中,我们的目标是最小化
损失函数
,通常以最小化均方误差来衡量。
数字化与智能化
·
2025-06-24 12:21
人工智能机器学习
机器学习
L2正则化
岭回归
用Tensorflow进行线性回归和逻辑回归(一)
接着我们介绍
损失函数
,然后讨论机器学习归根于找到复杂的
损失函数
最小化的点的能力。我们然后讲梯度下降,解释它如何使损失最小。然后简单的讨论自动微分的算法思想。
lishaoan77
·
2025-06-23 07:12
tensorflow
tensorflow
线性回归
逻辑回归
【动手学深度学习】4.2~4.3 多层感知机的实现
目录4.2.多层感知机的从零开始实现1)初始化模型参数2)激活函数3)模型4)
损失函数
5)训练4.3.多层感知机的简洁实现1)模型2)小结.4.2.多层感知机的从零开始实现现在让我们实现一个多层感知机。
XiaoJ1234567
·
2025-06-23 06:08
《动手学深度学习》
深度学习
人工智能
MLP
多层感知机
day53python打卡
对抗生成网络的思想:关注损失从何而来生成器、判别器nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法leakyReLU介绍:避免relu的神经元失活现象ps;如果你学有余力,对于gan的
损失函数
的理解
qq_58459892
·
2025-06-22 21:37
py打开学习
pytorch
人工智能
算法
深度学习
python
嵌入式学习-暑假学习总规划-day6
时间段学习任务目标成果6月17日-6月30日吴恩达监督学习课程含线性回归、逻辑回归、神经网络基础完成课程视频+习题,理解训练流程、
损失函数
、过拟合、正则化7月1日-7月10日PyTorch框架入门学习张量
·
2025-06-22 06:58
05、反向传播算法(Backpropagation)是如何解决了多层神经网络的参数优化问题的?
以下从原理、数学基础、执行步骤及关键价值四个维度,详细解析其工作机制:一、反向传播的核心目标:高效计算参数梯度在多层神经网络中,参数优化的本质是通过调整权重矩阵W和偏置向量b,使
损失函数
L最小化。
季截
·
2025-06-22 03:39
数学之美
算法
神经网络
人工智能
基于Tensorflow的线性回归
用Tensorflow求逆矩阵用Tensorflow实现矩阵分解用Tensorflow实现线性回归理解线性回归中的
损失函数
用Tensorflow实现戴明回归(DemingRegression)用Tensorflow
·
2025-06-21 15:22
Python训练营-Day37-早停策略和模型权重的保存
1.记录训练集的
损失函数
可以观察是否过拟合#记录损失值并更新进度条if(epoch+1)%200==0:losses.append(loss.item())epochs.append(epoch+1)#
·
2025-06-21 08:10
Day33 MLP神经网络的训练
目录一、PyTorch和cuda的安装二、查看显卡信息的命令行命令(cmd中使用)三、cuda的检查四、简单神经网络的流程1、数据预处理(归一化、转换成张量)2、模型的定义3、定义
损失函数
和优化器4、定义训练流程
cylat
·
2025-06-21 07:07
python打卡
神经网络
人工智能
深度学习
python
激活层为softmax时,CrossEntropy
损失函数
对激活层输入Z的梯度
∂L∂Z=y^−y\frac{\partialL}{\partialZ}=\hat{y}-y∂Z∂L=y^−y其中yyy为真实值,采用one-hot编码,y^\hat{y}y^为softmax输出的预测值证明:\textbf{证明:}证明:根据softmax公式:y^i=ezi∑j=1nezj\hat{y}_i=\frac{e^{z_i}}{\sum_{j=1}^ne^{z_j}}y^i=∑j=1
Jcldcdmf
·
2025-06-20 19:42
AI
机器学习
损失函数
交叉熵
softmax
python打卡day53@浙大疏锦行
对抗生成网络的思想:关注损失从何而来生成器、判别器nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法leakyReLU介绍:避免relu的神经元失活现象ps;如果你学有余力,对于gan的
损失函数
的理解
风逸hhh
·
2025-06-19 17:32
python打卡60天行动
python
开发语言
打卡Day53
关注损失从何而来2.生成器、判别器3.nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法4.leakyReLU介绍:避免relu的神经元失活现象ps:如果你学有余力,对于gan的
损失函数
的理解
月宝好q
·
2025-06-19 09:41
python60天打卡
深度学习
人工智能
python
理解Logits、Softmax和softmax_cross_entropy_with_logits的区别
同时,我们需要一个
损失函数
来衡量模型预测结果与真实标签之间的差异,从而进行模型的训练和优化。在TensorFlow中,logits、softmax和so
1010n111
·
2025-06-19 08:00
机器学习
DAY 53 对抗生成网络
对抗生成网络的思想:关注损失从何而来生成器、判别器nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法leakyReLU介绍:避免relu的神经元失活现象ps;如果你学有余力,对于gan的
损失函数
的理解
MasterLLL0228
·
2025-06-17 01:45
Python入门(坚持)
人工智能
YOLOv12改进策略【卷积层】| ICCV-2023 SAFM 空间自适应特征调制模块 对A2C2f进行二次创新
专栏目录:YOLOv12改进目录一览|涉及卷积层、轻量化、注意力、
损失函数
、Backbone、SPPF、Neck、检测头等全方位改进专栏地址:YOLOv
Limiiiing
·
2025-06-16 18:04
YOLOv12改进专栏
YOLOv12
深度学习
目标检测
计算机视觉
YOLOv10改进策略【卷积层】| ICCV-2023 SAFM 空间自适应特征调制模块 对 C2fCIB 、PSA 进行二次创新
专栏目录:YOLOv10改进目录一览|涉及卷积层、轻量化、注意力、
损失函数
、Backbone、SPPF、Neck、检测头等全方位改进专栏地址:
Limiiiing
·
2025-06-16 18:34
YOLOv10改进专栏
YOLO
深度学习
目标检测
计算机视觉
Pytorch 学习 - 6.pytorch 张量数学-自动求取梯度
在深度学习和神经网络训练中,梯度计算是反向传播算法的核心部分,它允许我们更新模型的权重以最小化
损失函数
。下面是对torch.autograd.backward函数的详细解释
chenchihwen
·
2025-06-16 11:43
pytorch
学习
人工智能
线性回归讲解L1和L2正则化
模型的
损失函数
通常是最小均方误差:MSE=(1/
XiaoQiong.Zhang
·
2025-06-16 09:59
Datamining
人工智能
机器学习
数据挖掘
逻辑回归中的
损失函数
:交叉熵损失详解与推导
逻辑回归中的
损失函数
:交叉熵损失详解与推导关键词:逻辑回归、交叉熵损失、
损失函数
、二分类、多分类、极大似然估计、梯度下降摘要:本文深入解析逻辑回归中核心的交叉熵
损失函数
,从信息论基础出发,逐步推导二分类与多分类场景下的
损失函数
形式
AI天才研究院
·
2025-06-16 00:34
ChatGPT
计算
AI大模型应用入门实战与进阶
逻辑回归
算法
机器学习
ai
一文读懂特征对齐:多模态世界的“月老红线”
文章目录1、引言2、啥是多模态数据3、为啥要特征对齐4、特征对齐是咋干活的5、特征对齐的应用场景6、多模态领域里特征对齐的方法6.1基于神经网络架构设计6.2基于注意力机制6.3基于
损失函数
设计6.4基于生成对抗网络
.别止步春天.
·
2025-06-15 10:32
人工智能
计算机视觉
深度学习
深度学习——基于卷积神经网络的MNIST手写数字识别详解
文章目录引言1.环境准备和数据加载1.1下载MNIST数据集1.2数据可视化2.数据预处理3.设备配置4.构建卷积神经网络模型5.训练和测试函数5.1训练函数5.2测试函数6.模型训练和评估6.1初始化
损失函数
和优化器
E-An居士
·
2025-06-15 09:28
深度学习
cnn
人工智能
手写数字识别
卷积神经网络
机器学习中的正则化(Regularization)详解
从数学角度看,正则化通过在原始
损失函数
中添加一个惩罚项来实现这个目标。标准的正则
DuHz
·
2025-06-15 01:00
机器学习
人工智能
信息与通信
概率论
信号处理
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他