E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
损失函数
机器学习笔记——感知机【图文,详细推导】
机器学习笔记第一章机器学习简介第二章感知机文章目录机器学习笔记一、超平面二、感知机定义三、学习策略和学习算法1线性可分2
损失函数
定义3优化算法—SGD4算法收敛性四、感知机的缺点参考资料感知机(PLA)
格兰芬多_未名
·
2024-01-19 03:20
机器学习
机器学习
笔记
人工智能
【机器学习】基本模型简易代码整理
目录对数几率回归原理
损失函数
和优化特点和应用支持向量机SVM原理
损失函数
与优化优点与应用信息增益决策树本文对机器学习课程考试中可能出现的模型代码题进行总结,仅供参考。
_hermit:
·
2024-01-19 02:14
机器学习
机器学习
人工智能
学习
算法
sklearn-线性回归
2多元线性回归LinearRegression其中右下角的2表示向量的L2范式,也就是我们的
损失函数
所代表的含义。在L2范式上开平方,就是我们的
损失函数
。这个式子
CHEN的小喵
·
2024-01-18 21:55
笔记
机器学习
【人工智能与深度学习】均方损失,交叉墒损失,vgg损失,三元组损失
损失,三元组损失的应用场景有哪些均方损失(MeanSquaredError,MSE),交叉熵损失(Cross-EntropyLoss),和三元组损失(TripletLoss)是机器学习和深度学习中常用的
损失函数
你好,Albert
·
2024-01-18 21:37
人工智能
人工智能
深度学习
神经网络(二):Softmax函数与多元逻辑回归
一、Softmax函数与多元逻辑回归为了之后更深入地讨论神经网络,本节将介绍在这个领域里很重要的softmax函数,它常被用来定义神经网络的
损失函数
(针对分类问题)。
城市中迷途小书童
·
2024-01-18 20:08
xgboost原理
image.png
损失函数
image.png这里预测值就是样本和权重的组合,我们预测出来的是每一个节点的权重,再用这个
wzhixin
·
2024-01-18 17:29
线性回归+小批量梯度下降算法
目录1.线性模型计算预测值:2.使用均方损失作为
损失函数
:3.基础优化算法:梯度下降4.训练数据:5.线性回归实现:6.线性回归总结:1.线性模型计算预测值:线性模型可以看做单层神经网络。
姓蔡小朋友
·
2024-01-18 15:44
机器学习
算法
线性回归
回归
大语言模型的32种消除幻觉的技术,你都了解吗?
提示工程涉及基于检索增强的方法、基于反馈的策略或提示微调;模型开发则可分为多种方法,包括新的解码策略、基于知识图谱的优化、新增的
损失函数
夕小瑶
·
2024-01-18 12:12
语言模型
人工智能
深度学习
大创项目推荐 深度学习的智能中文对话问答机器人
文章目录0简介1项目架构2项目的主要过程2.1数据清洗、预处理2.2分桶2.3训练3项目的整体结构4重要的API4.1LSTMcells部分:4.2
损失函数
:4.3搭建seq2seq框架:4.4测试部分
laafeer
·
2024-01-18 09:11
python
【机器学习300问】8、为什么要设计代价函数(
损失函数
)?它有什么用?
一、先介绍一下线性回归模型(1)基本概念理解文字解释:线性回归模型顾名思义,他处理的回归问题,是监督学习的一种。线性回归模型是一种预测模型,其基础是假设目标值和输入值之间存在线性关系。通过一条最佳拟合线(或者在多维情况下的一个超平面)对某些数据点进行拟合的过程。数学公式(最简单的一元线性方程):其中的w是权重,b是偏置,他们在机器学习中就是要学习的参数。y是目标值,x是输入值或者叫做特征量。线性回
小oo呆
·
2024-01-18 08:43
【机器学习】
机器学习
人工智能
【论文阅读】Deep Graph Contrastive Representation Learning
3.2.2、特征掩盖(MF)3.3、[编码器](https://blog.csdn.net/qq_44426403/article/details/135443921)的设计3.3.1、直推式学习3.4、
损失函数
的定义
鲸可落
·
2024-01-18 08:37
图神经网络
论文阅读
深度学习
算法
python
机器学习
神经网络
【深度学习入门】深度学习基础概念与原理
(2)激活函数的作用与选择3、
损失函数
的定义和选择(1)什么是
损失函数
(2)
损失函数
的选择4、
代码骑士
·
2024-01-18 07:38
#
深度学习
人工智能
【PyTorch】在PyTorch中使用线性层和交叉熵
损失函数
进行数据分类
在PyTorch中使用线性层和交叉熵
损失函数
进行数据分类前言:在机器学习的众多任务中,分类问题无疑是最基础也是最重要的一环。
精英的英
·
2024-01-18 06:11
天网计划
pytorch
分类
人工智能
Pytorch基础知识点复习
常见的
损失函数
以及它们的作用?Pytorch模型的定义我们可以通过那些方式对模型进
卡拉比丘流形
·
2024-01-18 05:43
Python
深度学习
pytorch
人工智能
python
NLP任务中常用的
损失函数
损失函数
类型适用于:文本分类,情感分析,机器翻译,抽取式问答的有:y,y^y,\hat{y}y,y^分别表示真实和预测值二分类交叉熵损失L(y,y^)=−(ylogy^+(1−y)log(1−y^)L(
bulingg
·
2024-01-18 04:22
算法工程师
自然语言处理
人工智能
PyTorch基础完整模型训练套路(土堆老师版)详细注释及讲解!小白学习必看!
目录1、准备数据集2、利用dataloader加载数据集3、创建网络模型model.py4、
损失函数
5、优化器6、设置训练网络的参数7、添加tensorboard8、训练过程并保存模型结构及参数①cyx.train
Solarsss
·
2024-01-18 01:02
PyTorch学习
pytorch
人工智能
机器学习
AIGC笔记--VAE模型的搭建
模型2--代码实例1--VAE模型简单介绍:通过一个encoder将图片映射到标准分布(均值和方差),从映射的标准分布中随机采样一个样本,通过decoder重构图片;计算源图片和重构图片之间的损失,具体
损失函数
的推导可以参考
晓晓纳兰容若
·
2024-01-17 21:48
AIGC学习笔记
AIGC
【机器学习:机器学习中平衡】机器学习中平衡和不平衡数据集简介
为什么平衡数据集很重要收集更多数据欠采样过采样衡量
损失函数
的权重使用各种指标来测试模型性能使用EncordActive平衡数据集在确定模型性能时,机器学习工程师需要知道他们的分类模型是否能够准确预测。
jcfszxc
·
2024-01-17 19:56
机器学习知识专栏
机器学习
人工智能
线性回归理论+实战
线性回归什么是线性回归3.1.线性回归—动手学深度学习2.0.0documentation(d2l.ai)模型
损失函数
模型拟合(fit)数据之前,我们需要确定一个拟合程度的度量。
良子c
·
2024-01-17 18:13
动手学深度学习
线性回归
算法
回归
逻辑回归(Logistic Regression)
文章目录回顾LinearRegression分类任务TheMNISTDatasetTheCIFAR-10dataset回归VS分类sigmoid函数逻辑回归逻辑回归模型
损失函数
实现代码回顾LinearRegression
chairon
·
2024-01-17 14:24
PyTorch深度学习实践
逻辑回归
算法
机器学习
机器学习之Ridge回归与Lasso回归
Ridge回归是一种线性回归算法,通过在
损失函数
中添加一个正则化项,以控制模型的复杂度。正则化项是模型参数的平方和与一个参数alpha的乘积,alpha越大,惩罚项越大,模型的复杂度越低。
亦旧sea
·
2024-01-17 08:38
机器学习
回归
人工智能
论文笔记(二十)VisuoTactile 6D Pose Estimation of an In-Hand Object using Vision and Tactile Sensor Data
VisuoTactile6DPoseEstimationofanIn-HandObjectusingVisionandTactileSensorData文章概括摘要1.介绍2.背景3.网络结构A.视觉触觉传感器融合B.姿势估计器C.
损失函数
墨绿色的摆渡人
·
2024-01-17 07:40
文章
深度学习
物体姿势估计系统
神经网络中的
损失函数
(下)——分类任务
神经网络中的
损失函数
前言分类任务中的
损失函数
交叉熵最大似然信息论信息量信息熵最短平均编码长度交叉熵KL散度余弦相似度
损失函数
总结前言上文主要介绍了回归任务中常用的几个
损失函数
,本文则主要介绍分类任务中的
损失函数
liuzibujian
·
2024-01-17 05:51
神经网络
分类
人工智能
机器学习
损失函数
参数优化器
前置知识:机器学习概念,线性回归,梯度下降待优化参数w,
损失函数
loss,学习率lr,每次迭代一个batch计算t时刻
损失函数
关于当前参数的梯度:计算t时刻一阶动量mt和二阶动量Vt计算t时刻下降梯度:
惊雲浅谈天
·
2024-01-17 03:54
机器学习
机器学习
人工智能
深度学习——第7章 项目实战:自己动手写一个神经网络模型
第7章项目实战:自己动手写一个神经网络模型目录7.1导入数据集7.2定义神经网络输入层、隐藏层、输出层神经元个数7.3网络参数W和b初始化7.4正向传播过程7.5
损失函数
7.6反向传播过程7.7网络参数更新
曲入冥
·
2024-01-16 21:01
深度学习
深度学习
神经网络
人工智能
机器学习
python
cnn
NeRF算法论文解析与翻译
文章目录说明摘要一、简介二、相关工作2.1基于神经网络的3D形状表示2.2视图合成和基于图像的渲染三、基于神经辐射场的场景表示四、基于辐射场的体渲染五、神经辐射场优化5.1位置编码5.2分层体积采样5.3实施细则和
损失函数
说明
超爱吃小蛋糕的66
·
2024-01-16 11:16
深度学习
算法
人工智能
深度学习
三维重建
NeRF
【RT-DETR改进涨点】MPDIoU、InnerMPDIoU
损失函数
中的No.1(包含二次创新)
前言大家好,我是Snu77,这里是RT-DETR有效涨点专栏。本专栏的内容为根据ultralytics版本的RT-DETR进行改进,内容持续更新,每周更新文章数量3-10篇。专栏以ResNet18、ResNet50为基础修改版本,同时修改内容也支持ResNet32、ResNet101和PPHGNet版本,其中ResNet为RT-DETR官方版本1:1移植过来的,参数量基本保持一致(误差很小很小),
Snu77
·
2024-01-16 11:03
RT-DETR有效改进专栏
人工智能
YOLO
目标检测
深度学习
计算机视觉
python
RT-DETR
用Pytorch实现线性回归模型
目录回顾Pytorch实现步骤1.准备数据2.设计模型classLinearModel代码3.构造
损失函数
和优化器4.训练过程5.输出和测试完整代码练习回顾前面已经学习过线性模型相关的内容,实现线性模型的过程并没有使用到
chairon
·
2024-01-16 08:49
PyTorch深度学习实践
pytorch
线性回归
人工智能
深度学习笔记(六)——网络优化(2):参数更新优化器SGD、SGDM、AdaGrad、RMSProp、Adam
并且了解了激活函数和
损失函数
在神经网络中发挥的重要用途,其中,激活函数优化了神经元的输出能力,
损失函数
优化了反向传播时参数更新的趋势。我们知道在简单的反
絮沫
·
2024-01-15 10:49
深度学习
深度学习
笔记
人工智能
Mask R-CNN 学习笔记
MaskR-CNN学习笔记前述从VGGNet到ResNet从ROIPooling到ROIAlign量化误差是从哪来的ROIAlign的改进之处网络结构FPN网络
损失函数
参考博客前述从R-CNN,fastR-CNN
丶夜未央丶
·
2024-01-15 09:55
深度学习
计算机视觉
论文精读:GHM:Gradient Harmonized Single-stage Detector
GHM背后的原理可以很容易地嵌入到交叉熵等类
损失函数
(CE)和回归
损失函数
如smooth-L1
樱花的浪漫
·
2024-01-15 09:21
目标检测
计算机视觉
目标检测
人工智能
深度学习
Softmax回归(多类分类模型)
目录1.对真实值类别编码:2.预测值:3.目标函数要求:4.使用Softmax模型将输出置信度Oi计算转换为输出匹配概率y^i:5.使用交叉熵作为
损失函数
:6.代码实现:1.对真实值类别编码:y为真实值
姓蔡小朋友
·
2024-01-15 08:39
机器学习
回归
分类
数据挖掘
机器学习---xgboost算法
构建最优模型的⼀般方法是最小化训练数据的
损失函数
。我们用字母L表示损失,如下式:其中,F
三月七꧁ ꧂
·
2024-01-15 08:49
机器学习
机器学习
算法
人工智能
PyTorch
损失函数
(二)
损失函数
5、nn.L1Lossnn.L1Loss是一个用于计算输入和目标之间差异的
损失函数
,它计算输入和目标之间的绝对值差异。主要参数:reduction:计算模式,可以是none、sum或mean。
-恰饭第一名-
·
2024-01-15 07:21
pytorch
深度学习
人工智能
感知机(二分类模型)
目录1.感知机计算预测值:2.感知机训练:3.
损失函数
:4.多层感知机:5.单隐藏层的多层感知机代码实现:1.感知机计算预测值:训练结果只有1、-1,故正负相同训练正确,正负相反即训练错误。
姓蔡小朋友
·
2024-01-15 07:49
机器学习
分类
pytorch
深度学习
PyTorch项目源码学习(3)——Module类初步学习
一般来说,计算图上所有的子图都可以是Module的子类,包括卷积,激活函数,
损失函数
节点以及相邻节点组成的集合等等,注意这里的关键词是“节点”,Module族类在计算图中主要起到搭建结构的作用,而不涉及运算逻辑的具体实现
_int_me
·
2024-01-14 20:10
PyTorch源码
pytorch
学习
人工智能
python
深度学习
从DETR到Mask2former(2):
损失函数
loss function
DETR的
损失函数
包括几个部分,如果只看论文或者代码,比较难理解,最好是可以打断点调试,对照着论文看。但是现在DETR模型都已经被集成进各种框架中,很难进入内部打断掉调试。
河北一帆
·
2024-01-14 19:26
人工智能
深度学习面试题
一、神经网络基础问题(1)Backpropagation(反向传播)后向传播是在求解
损失函数
L对参数w求导时候用到的方法,目的是通过链式法则对参数进行一层一层的求导。
AI信仰者
·
2024-01-14 17:35
理论U2 贝叶斯决策理论
3、贝叶斯公式二、贝叶斯决策理论1、用处2、解决问题3、决策基础4、一些概念5、核心公式三、最小错误率贝叶斯决策1、目标2、例题分析3、问题1)决策的风险四、最小风险贝叶斯决策1、背景2、基本概念1)
损失函数
轩不丢
·
2024-01-14 12:43
机器学习
机器学习
LAMA Inpaint:大型掩模修复
文章目录一、大掩模修复(LaMa)简介二、大掩模修复(LaMa)的主要方法三、快速傅里叶卷积的修补网络四、
损失函数
五、训练中的动态掩膜生成一、大掩模修复(LaMa)简介LaMa方法的提出背景:现代图像修复技术主要受阻于大缺失区域
丁希希哇
·
2024-01-14 07:30
AIGC阅读学习
人工智能
AIGC
深度学习
算法
DreamBooth:个性化的文本到图像扩散模型
文章目录一、DreamBooth简介二、Dreambooth的思想三、DreamBooth的整体
损失函数
一、DreamBooth简介DreamBooth是一种微调文生图扩散模型的方法,最大的特点是Subject-Driven
丁希希哇
·
2024-01-14 07:29
AIGC阅读学习
计算机视觉
人工智能
算法
AIGC
李沐《动手学深度学习》线性神经网络 线性回归
(一)线性回归的基本元素(二)随机梯度下降(三)矢量化加速(实例化说明)(四)从线性回归到神经网络二、线性回归的从零开始实现(一)生成数据集(二)读取数据集(三)初始化模型参数(四)定义模型(五)定义
损失函数
丁希希哇
·
2024-01-14 06:01
李沐《动手学深度学习》学习笔记
深度学习
神经网络
线性回归
pytorch
损失函数
介绍
目录
损失函数
平均绝对误差均方误差交叉熵损失反向传播实战环节
损失函数
损失函数
(LossFunction)是一种用于衡量模型预测值与真实值之间差异的函数。
睡不醒的毛毛虫
·
2024-01-14 02:44
PyTorch深度学习快速入门
pytorch
深度学习
python
神经网络
深度学习笔记(五)——网络优化(1):学习率自调整、激活函数、
损失函数
、正则化
文中程序以Tensorflow-2.6.0为例部分概念包含笔者个人理解,如有遗漏或错误,欢迎评论或私信指正。截图和程序部分引用自北京大学机器学习公开课通过学习已经掌握了主要的基础函数之后具备了搭建一个网络并使其正常运行的能力,那下一步我们还需要进一步对网络中的重要节点进行优化并加深认知。首先我们知道NN(自然神经)网络算法能够相比传统建模类算法发挥更好效果的原因是网络对复杂非线性函数的拟合效果更好
絮沫
·
2024-01-14 00:34
深度学习
深度学习
笔记
网络
tensorflow
UCB Data100:数据科学的原理和技巧:第十三章到第十五章
十三、梯度下降原文:GradientDescent译者:飞龙协议:CCBY-NC-SA4.0学习成果优化复杂模型识别直接微积分或几何论证无法帮助解决
损失函数
的情况应用梯度下降进行数值优化到目前为止,我们已经非常熟悉选择模型和相应
损失函数
的过程
绝不原创的飞龙
·
2024-01-13 20:26
数据科学
python
强化学习笔记持续更新......
强化学习的
损失函数
(lossfunction)是什么?写贝尔曼方程(BellmanEquation)最优值函数和最优策略为什么等价?求解马尔科夫决策过程都有哪些方法?简述蒙特卡罗估计值函数的算法。
搬砖成就梦想
·
2024-01-13 16:45
人工智能
深度学习
笔记
正则化技巧总结
第二就是我们这里要说的"正则化".下面是一些可以帮助缓解过拟合现象的正则化技巧使用正则项(Regularization)L1RegularizationL1范数为:L1正则项如下所示,其中代表原始的不加正则项的
损失函数
ZeroZone零域
·
2024-01-13 16:08
nn.BCEWithLogitsLoss中weight参数和pos_weight参数的作用及用法
nn.BCEWithLogitsLoss中weight参数和pos_weight参数的作用及用法weight参数pos_weight参数weight参数上式是nn.BCEWithLogitsLoss
损失函数
的计算公式
1z1
·
2024-01-13 12:58
pytorch
pytorch
深度学习
人工智能
2023 12.9~12.15
一、上周工作继续OpenFWI中InversionNet相关代码,主要学习
损失函数
、优化器、tensorboard等内容。
shengMio
·
2024-01-13 12:32
周报
机器学习
深度学习
利用GPU训练神经网络
一首先,查看GPU情况nvidia-smi确实训练得要快多了在网络模型后添加cuda方法tudui=Tudui()tudui=tudui.cuda()
损失函数
loss_fn=nn.CrossEntropyLoss
Cupid_BB
·
2024-01-13 00:50
pytorch
深度学习
人工智能
python
神经网络
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他