E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
YOLO-V1损失函数
论文笔记:www2019 层次图视角的半监督图分类
AHierarchicalGraphPerspective(层次图视角的半监督图分类)是层次图提出的第一篇文章,也是我组会讲的第一篇文章,整理了我的笔记,对论文中的SAGE模块做了比较详细的介绍模型概述
损失函数
图学习的小张
·
2023-12-15 05:32
论文笔记
图数据挖掘学习路线
论文阅读
分类
数据挖掘
论文笔记:详解DeepWalk与Node2vec
DeepWalk算法笔记应用背景功能描述基本概念随机游走(RandomWalks)幂律分布(Connection:Powerlaws)词嵌入学习的经典方法(Word2vec)DeepWalk模型与
损失函数
推导算法描述与解释
图学习的小张
·
2023-12-15 05:02
论文笔记
图数据挖掘学习路线
论文阅读
阶段五:深度学习和人工智能(掌握使用TensorFlow或PyTorch进行深度学习)
以下是掌握使用TensorFlow或PyTorch进行深度学习的一些基本要求:了解深度学习的基本概念和原理,包括神经网络、反向传播、优化器、
损失函数
等。
哈嗨哈
·
2023-12-15 04:14
深度学习
人工智能
tensorflow
学习pytorch18 pytorch完整的模型训练流程
pytorch完整的模型训练流程1.流程1.整理训练数据使用CIFAR10数据集2.搭建网络结构3.构建
损失函数
4.使用优化器5.训练模型6.测试数据计算模型预测正确率7.保存模型2.代码1.model.py2
陌上阳光
·
2023-12-14 23:47
学习pytorch
pytorch
深度学习
python
2023微博AIGC算法工程师一面 面试题
2.多标签分类的
损失函数
多标签分类任务,即一个样本可以有多个标签,比如一张图片中同时含有“猫”和“狗”,这张图片就同时拥有属于“猫”和“狗”的两种标签。
深度之眼
·
2023-12-14 21:38
粉丝的投稿
人工智能干货
人工智能
算法
面试
深度学习——第5章 神经网络基础知识
第5章神经网络基础知识目录5.1由逻辑回归出发5.2
损失函数
5.3梯度下降5.4计算图5.5总结在第1课《深度学习概述》中,我们介绍了神经网络的基本结构,了解了神经网络的基本单元组成是神经元。
曲入冥
·
2023-12-14 20:52
深度学习
神经网络
人工智能
python
机器学习
pytorch
逻辑回归的
损失函数
和目标函数
损失函数
逻辑回归通常使用对数
损失函数
(LogLoss),也称为逻辑损失或交叉熵损失(Cross-EntropyLoss)。
NLP_wendi
·
2023-12-14 18:34
机器学习
逻辑回归
[PyTorch][chapter 7][李宏毅深度学习][深度学习简介]
TensorFlowtorchtheanocaffeDSSTNEmxnetlibdnnCNTK目录:1:深度学习发展历史2:DeepLearning工程简介3:DNN简介一发展历史二DeepLearning工程简介深度学习三大步:定义映射函数(神经网络)定义
损失函数
通过梯度更新
明朝百晓生
·
2023-12-14 17:01
人工智能
Softmax回归
目录一、Softmax回归关键思想1、回归问题和分类问题的区别2、Softmax回归模型3、Softmax函数4、交叉熵
损失函数
二、图像分类数据集1、读取数据集2、读取小批量数据3、整合所有组件三、Softmax
奉系坤阀
·
2023-12-14 17:07
DeepLearning
回归
数据挖掘
人工智能
softmax
线性回归问题
目录一、线性回归关键思想1、线性模型2、基础优化算法二、线性回归的从零开始实现1、生成数据集2、读取数据集3、初始化模型参数4、定义模型5、定义
损失函数
6、定义优化算法7、训练三、线性回归的简洁实现1、
奉系坤阀
·
2023-12-14 16:48
DeepLearning
线性回归
算法
回归
pytorch
深度学习
python
神经网络
目标检测 pytorch复现Yolov3目标检测项目
目标检测pytorch复现Yolov3目标检测项目YOLOV3创新核心点YoloV3模型架构即
损失函数
YoloV3SPP网络模型以及环境搭建1环境配置:2文件结构3训练数据的准备以及目录结构4利用标注好的数据集生成一系列相关准备文件
郭庆汝
·
2023-12-14 14:47
目标检测
pytorch
YOLO
基于Python+WaveNet+MFCC+Tensorflow智能方言分类—深度学习算法应用(含全部工程源码)(三)
目录前言引言总体设计系统整体结构图系统流程图运行环境模块实现1.数据预处理2.模型构建1)定义模型结构2)优化
损失函数
3.模型训练及保存1)模型训练2)模型保存3)映射保存相关其它博客工程源代码下载其它资料下载前言博主前段时间发布了一篇有关方言识别和分类模型训练的博客
小胡说人工智能
·
2023-12-14 13:41
机器学习
学习路线
语音交互
python
深度学习
算法
神经网络
opencv
tensorflow
语音识别
经典GAN简明原理:LSGAN
常规GAN默认的判别器设置是sigmoid交叉熵
损失函数
训练的分类器。但是,在训练学习过程中这种
损失函数
的使用可能会导致梯度消失。
机器学习与AI生成创作
·
2023-12-06 23:25
机器学习
人工智能
python
深度学习
计算机视觉
机器学习中那些不显然的常识
1.为什么使用均方差,或者其他的二次方函数作为
损失函数
?第一,平方后非负;第二,二次函数很容易求极值。例子略。2.线性回归中的偏置项b,如果是多维则是向量,有何意义?
joytrue
·
2023-12-06 20:19
Pytorch中有哪些
损失函数
?
Pytorch中有哪些
损失函数
?一、常见的损失1.**均方误差损失(MeanSquaredErrorLoss):`nn.MSELoss`**2.
高山莫衣
·
2023-12-06 11:35
pytorch
pytorch
人工智能
python
Yolov4 学习笔记
Yolov4学习笔记
损失函数
之前
损失函数
存在的问题GIOUDIOUCIOUBOSSPPnetCSPnetSAMPAN层mish激活函数
损失函数
666666之前
损失函数
存在的问题之前公式为1-IOUIOU
魏郴
·
2023-12-06 10:24
YOLO
学习
笔记
YOLOv4学习笔记(2)——训练策略
目录数据增强:Mosaic数据增强:自对抗训练(SAT):CmBN(Crossmin-batchNormalization)策略:Dropblock正则化:
损失函数
:BoundingBoxRegeressionLoss
猪不爱动脑
·
2023-12-06 10:19
机器视觉
计算机视觉
深度学习
YOLOv4 学习笔记
文章目录前言一、YOLOv4贡献和改进二、YOLOv4核心概念三、YOLOv4网络架构四、YOLOv4数据增强五、YOLOv4的
损失函数
总结前言在近年来的目标检测领域,YOLOv4的出现标志着一个重要的技术突破
92岁高龄码农
·
2023-12-06 10:42
YOLO系列
YOLO
学习
笔记
pytorch学习8-
损失函数
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习9-优化器学习
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习10-网络模型的保存和加载
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习11-完整的模型训练过程
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习4-简易卷积实现
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习5-最大池化层的使用
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习7-序列模型搭建
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习1-数据加载以及Tensorboard可视化工具
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习2-Transforms主要方法使用
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习3-torchvisin和Dataloader的使用
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习6-非线性变换(ReLU和sigmoid)
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:45
吴恩达机器学习
pytorch
学习
人工智能
软著项目推荐 深度学习的智能中文对话问答机器人
文章目录0简介1项目架构2项目的主要过程2.1数据清洗、预处理2.2分桶2.3训练3项目的整体结构4重要的API4.1LSTMcells部分:4.2
损失函数
:4.3搭建seq2seq框架:4.4测试部分
iuerfee
·
2023-12-06 06:49
python
【深度学习笔记】07 多层感知机
07多层感知机多层感知机在网络中加入隐藏层从线性到非线性激活函数ReLU函数sigmoid函数tanh函数多层感知机的从零开始实现初始化模型参数激活函数模型
损失函数
训练多层感知机的简洁实现模型多层感知机在网络中加入隐藏层我们可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制
LiuXiaoli0720
·
2023-12-06 00:49
深度学习笔记
深度学习
笔记
人工智能
【深度学习笔记】06 softmax回归
06softmax回归softmax运算
损失函数
对数似然Fashion-MNIST数据集读取数据集读取小批量整合所有组件softmax回归的从零开始实现初始化模型参数定义softmax操作定义模型定义
损失函数
分类精度训练预测
LiuXiaoli0720
·
2023-12-06 00:19
深度学习笔记
深度学习
笔记
回归
6-PACK论文学习及复现记录
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、基本思想1.1创新点1.2两个变换二、实现结构1.基于注意力机制生成锚点特征2.生成关键点(分对称类、非对称)2.1
损失函数
wliu_kk
·
2023-12-06 00:18
6pack
学习
计算机视觉
人工智能
抑制过拟合——Dropout原理
具体来说,这在神经网络训练中尤为常见,表现为在训练数据上表现优异(例如
损失函数
值很小,预测准确率高)而在未见过的数据(测试集)上表现不佳。 过
征途黯然.
·
2023-12-05 19:53
#
理论基础
人工智能
深度学习
Dropout
梯度下降与
损失函数
的基础知识
文章目录一、基础知识梯度下降
损失函数
的要求
损失函数
凸函数二、预测的任务理解策略梯度一、基础知识梯度下降梯度下降(GradientDescent)是一种常用的优化算法,用于最小化
损失函数
或目标函数。
_刘文凯_
·
2023-12-05 17:09
深度学习
人工智能
深度学习
计算机视觉
【AI数字人-论文】Wav2lip论文解读
文章目录Wav2lip前言Lip-syncExpertDiscriminatorGeneratorvisualqualitydiscriminator生成器总
损失函数
论文Wav2lip前言Wav2Lip
马鹤宁
·
2023-12-05 16:11
数字人
人工智能
AIGC
数字人
wav2lip
损失函数
&代价函数
代价函数(CostFunction)和
损失函数
(LossFunction)是深度学习中两个相关但不完全相同的概念,它们用于衡量模型的性能,并在训练过程中进行参数优化。
星宇星静
·
2023-12-05 16:42
人工智能
机器学习
神经网络
Sequential Modeling Enables Scalable Learning for Large Vision Models
2.3论文提出的架构和
损失函数
是什么?2.4用于定量评估的数据集是什么?代码有没有开源?2.5这篇论文到底有什么贡献?2.6下一步呢?有什么工作可以继续深入?
hanranV
·
2023-12-05 09:36
人工智能
计算机视觉
Course2-Week2-神经网络的训练方法
Course2-Week2-神经网络的训练方法文章目录Course2-Week2-神经网络的训练方法1.神经网络的编译和训练1.1TensorFlow实现1.2
损失函数
和代价函数的数学公式2.其他的激活函数
虎慕
·
2023-12-05 09:01
#
机器学习-吴恩达
神经网络
人工智能
深度学习
《人工智能基础》64/71天阅读
因此引入
损失函数
和优化方法。
损失函数
是在训练过程中用来度量分类器输出错误程度的数学化表示。优化就是调整分类器参数,使得
损失函数
最
皮卡丘_83e1
·
2023-12-05 07:51
[PyTorch][chapter 4][李宏毅深度学习][Gradient Descent]
假设
损失函数
为忽略二阶导数,当时候因为要考虑二阶导数,所以
损失函数
一般都选凸函数,二阶为0,一阶导数有驻点的函数.二常见问题1:学习率learningrate红线:学习率太小,收敛速度非常慢绿线:学习率太大
明朝百晓生
·
2023-12-05 07:39
深度学习
pytorch
人工智能
跨模态图像翻译:使用具有感知监督的多生成网络合成MR脑图像的CT图像
CTimagesynthesisofMRbrainimagesusingmultigenerativenetworkwithperceptualsupervision跨模态图像翻译:使用具有感知监督的多生成网络合成MR脑图像的CT图像背景贡献实验方法
损失函数
火柴狗
·
2023-12-05 00:12
mr
计算机视觉
人工智能
AttributeError: ‘tuple‘ object has no attribute ‘squeeze‘根据魔导YOLov8改进Focal IOU时出现问题解决
最近使用魔导的思路对YOLOv8的
损失函数
进行更改:原文链接如下:YOLOV8改进-添加EIoU,SIoU,AlphaIoU,FocalEIoU,Wise-IoU_魔鬼面具的博客-CSDN博客按照这个思路改进之后会出现
苏念北
·
2023-12-04 09:19
YOLO
MDETR 论文报告
MDETR-ModulatedDetectionforEnd-to-EndMulti-ModalUnderstandingMDETR-ModulatedDetectionforEnd-to-EndMulti-ModalUnderstanding发现问题主要贡献和创新点主要方法和技术MDETR的架构
损失函数
一杯水果茶!
·
2023-12-04 08:07
视觉与网络
计算机视觉
MDETR
端到端多模态推理
目标检测算法 - YOLOv3
文章目录1.BackboneDarknet-532.整体架构3.
损失函数
4.训练过程5.预测过程YOLOv1、YOLOv2都是在CVPR这种正规的计算机视觉学术会议上发表的正式学术论文。
mango1698
·
2023-12-04 06:58
Python
目标检测
算法
YOLO
【文献阅读笔记】基于自监督的异常检测和定位:SSM
2022IEEETRANSACTIONSONMULTIMEDIA领域:异常检测目标:图像输入数据文章目录1、模型2、方法2.1、randommasking2.2、restorationnetwork2.3、
损失函数
迎着黎明那道光
·
2023-12-04 02:47
文献阅读笔记
视觉异常检测
笔记
视觉检测
深度学习
Respecting causality is all you need for training physics-informed neural networks
Respectingcausalityisallyouneedfortrainingphysics-informedneuralnetworksRespectingcausalityisallyouneedfortrainingphysics-informedneuralnetworks问题分析以Allen-Cahn方程为例
损失函数
的重新表述解决方法想法以
xuelanghanbao
·
2023-12-04 00:01
论文阅读
深度学习
python
论文阅读
神经网络
还搞不懂什么是参数,超参数吗?三分钟快速了解参数与超参数的概念和区别!!!
参数是模型中可被学习和调整的参数,通常是通过训练数据来自动学习的,以最小化
损失函数
或优化目标。在深度学习中,参数通常是指神经网络中的权重和偏差。这些参数是通
小桥流水---人工智能
·
2023-12-03 23:36
机器学习算法
算法
深度学习记录--logistic回归函数的计算图
计算图用于logistic回归函数先回顾一下单一样本的logistic回归
损失函数
的公式,公式如下:将logistic函数用计算图表示出来(以两个基础量为例),计算图如下:前向传播已经完成,接下来完成后向传播运用链式法则依次求出
蹲家宅宅
·
2023-12-03 20:09
深度学习记录
深度学习
回归
人工智能
深度学习记录--初识向量化
之前计算logistic回归
损失函数
时,在代码实现时,讨论了for循环:过多的for循环会拖慢计算的速度(尤其当数据量很大时)因此,为了加快计算,向量化是一种手段运用python的numpy库,我们可以使用库函数
蹲家宅宅
·
2023-12-03 20:09
深度学习记录
深度学习
人工智能
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他