E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
合页损失函数
【深度学习】机器学习概述(一)机器学习三要素——模型、学习准则、优化算法
文章目录一、基本概念二、机器学习的三要素1.模型a.线性模型b.非线性模型2.学习准则==a.
损失函数
==1.0-1
损失函数
2.平方
损失函数
(回归问题)3.交叉熵
损失函数
(Cross-EntropyLoss
QomolangmaH
·
2023-12-16 08:10
深度学习
深度学习
机器学习
人工智能
【深度学习】机器学习概述(二)优化算法之梯度下降法(批量BGD、随机SGD、小批量)
文章目录一、基本概念二、机器学习的三要素1.模型a.线性模型b.非线性模型2.学习准则a.
损失函数
b.风险最小化准则3.优化机器学习问题转化成为一个最优化问题a.参数与超参数b.梯度下降法梯度下降法的迭代公式具体的参数更新公式学习率的选择
QomolangmaH
·
2023-12-16 08:10
深度学习
深度学习
机器学习
算法
tensorflow定制模型和训练算法
1.从自定义
损失函数
开始这里先实现一个Lenet-5模型input_data=keras.layers.Input(shape=(28,28,1))conv_1=keras.layers.Conv2D(
歌者文明
·
2023-12-16 05:57
tensorflow
深度学习
人工智能
Tensorflow1.0 和 Tensorflow2.0之间的区别
对于Tensorflow1.0,step01:准备输入数据step02:定义输入PlaceHolderstep03:搭建模型step04:定义
损失函数
及优化器step05:初始化所有变量step06:创建会话
Stitch .
·
2023-12-16 04:33
Tensorflow
tensorflow
人工智能
python
十六 动手学深度学习v2计算机视觉 ——样式迁移
文章目录基于CNN的样式迁移基于CNN的样式迁移我们通过前向传播(实线箭头方向)计算风格迁移的
损失函数
,并通过反向传播(虚线箭头方向)迭代模型参数,即不断更新合成图像。
王二小、
·
2023-12-15 23:43
动手学深度学习
深度学习
人工智能
深度学习进阶篇-国内预训练模型[5]:ERINE、ERNIE 3.0、ERNIE-的设计思路、模型结构、应用场景等详解
【深度学习入门到进阶】必看系列,含激活函数、优化策略、
损失函数
、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等专栏详细介绍:【深度学习入门到进阶】必看系列,含激活函数、优化策略、
损失函数
汀、人工智能
·
2023-12-15 22:07
#
深度学习入门到进阶
深度学习
人工智能
自然语言处理
transformer
ERNIE
深度学习 Day6——T6好莱坞明星识别
CPU可以忽略这步)3.导入数据4.查看数据5.加载数据6.可视化数据7.再次检查数据8.配置数据集9.构建CNN网络模型10.编译模型11.训练模型12.模型评估13.指定图片进行预测三、知识点详解1.
损失函数
LittleRuby
·
2023-12-15 20:56
深度学习
人工智能
Keras文档自动编码器Autoencoder训练不收敛的问题。
BuildingAutoencodersinKeras这一自动编码器文档代码的时候,发现直接复制手册中的代码,最简编码器模型、深度编码器的损失无法收敛,尝试后发现是因为代码中的优化器为‘adadelta’,改为‘adam’即可达到
损失函数
收敛
041c14885cdd
·
2023-12-15 19:05
算法……到底是干啥的?(摘自牛客网)
平常就是看论文技术分享接项目给方案跑模型部署到终端清洗数据打比赛写论文写专利面试一般问对应岗位方向前沿的算法paper2.面试问项目问论文,问深度学习和机器学习相关八股,比如transfomer、Bert、gpt、过拟合欠拟合、数据不平衡、梯度消失梯度爆炸、
损失函数
激活函数啥的
芒果香菠菠
·
2023-12-15 17:36
算法
算法岗面试复盘 | 阿里、百度、作业帮、华为
作业帮机器学习岗,已OC一面自我介绍习项目,深挖,知道最新的方向吗赛项目,为什么做embeddingR
损失函数
,极大似
数据派THU
·
2023-12-15 09:24
算法
人工智能
面试
编程语言
java
算法岗面试复盘| 阿里、百度、作业帮、华为
作业帮机器学习岗,已OC一面自我介绍习项目,深挖,知道最新的方向吗赛项目,为什么做embeddingR
损失函数
,极大似然思想个很大的文件,里面的1数排
文文学霸
·
2023-12-15 09:13
算法
java
面试
人工智能
编程语言
论文笔记:www2019 层次图视角的半监督图分类
AHierarchicalGraphPerspective(层次图视角的半监督图分类)是层次图提出的第一篇文章,也是我组会讲的第一篇文章,整理了我的笔记,对论文中的SAGE模块做了比较详细的介绍模型概述
损失函数
图学习的小张
·
2023-12-15 05:32
论文笔记
图数据挖掘学习路线
论文阅读
分类
数据挖掘
论文笔记:详解DeepWalk与Node2vec
DeepWalk算法笔记应用背景功能描述基本概念随机游走(RandomWalks)幂律分布(Connection:Powerlaws)词嵌入学习的经典方法(Word2vec)DeepWalk模型与
损失函数
推导算法描述与解释
图学习的小张
·
2023-12-15 05:02
论文笔记
图数据挖掘学习路线
论文阅读
阶段五:深度学习和人工智能(掌握使用TensorFlow或PyTorch进行深度学习)
以下是掌握使用TensorFlow或PyTorch进行深度学习的一些基本要求:了解深度学习的基本概念和原理,包括神经网络、反向传播、优化器、
损失函数
等。
哈嗨哈
·
2023-12-15 04:14
深度学习
人工智能
tensorflow
学习pytorch18 pytorch完整的模型训练流程
pytorch完整的模型训练流程1.流程1.整理训练数据使用CIFAR10数据集2.搭建网络结构3.构建
损失函数
4.使用优化器5.训练模型6.测试数据计算模型预测正确率7.保存模型2.代码1.model.py2
陌上阳光
·
2023-12-14 23:47
学习pytorch
pytorch
深度学习
python
2023微博AIGC算法工程师一面 面试题
2.多标签分类的
损失函数
多标签分类任务,即一个样本可以有多个标签,比如一张图片中同时含有“猫”和“狗”,这张图片就同时拥有属于“猫”和“狗”的两种标签。
深度之眼
·
2023-12-14 21:38
粉丝的投稿
人工智能干货
人工智能
算法
面试
深度学习——第5章 神经网络基础知识
第5章神经网络基础知识目录5.1由逻辑回归出发5.2
损失函数
5.3梯度下降5.4计算图5.5总结在第1课《深度学习概述》中,我们介绍了神经网络的基本结构,了解了神经网络的基本单元组成是神经元。
曲入冥
·
2023-12-14 20:52
深度学习
神经网络
人工智能
python
机器学习
pytorch
逻辑回归的
损失函数
和目标函数
损失函数
逻辑回归通常使用对数
损失函数
(LogLoss),也称为逻辑损失或交叉熵损失(Cross-EntropyLoss)。
NLP_wendi
·
2023-12-14 18:34
机器学习
逻辑回归
[PyTorch][chapter 7][李宏毅深度学习][深度学习简介]
TensorFlowtorchtheanocaffeDSSTNEmxnetlibdnnCNTK目录:1:深度学习发展历史2:DeepLearning工程简介3:DNN简介一发展历史二DeepLearning工程简介深度学习三大步:定义映射函数(神经网络)定义
损失函数
通过梯度更新
明朝百晓生
·
2023-12-14 17:01
人工智能
Softmax回归
目录一、Softmax回归关键思想1、回归问题和分类问题的区别2、Softmax回归模型3、Softmax函数4、交叉熵
损失函数
二、图像分类数据集1、读取数据集2、读取小批量数据3、整合所有组件三、Softmax
奉系坤阀
·
2023-12-14 17:07
DeepLearning
回归
数据挖掘
人工智能
softmax
线性回归问题
目录一、线性回归关键思想1、线性模型2、基础优化算法二、线性回归的从零开始实现1、生成数据集2、读取数据集3、初始化模型参数4、定义模型5、定义
损失函数
6、定义优化算法7、训练三、线性回归的简洁实现1、
奉系坤阀
·
2023-12-14 16:48
DeepLearning
线性回归
算法
回归
pytorch
深度学习
python
神经网络
目标检测 pytorch复现Yolov3目标检测项目
目标检测pytorch复现Yolov3目标检测项目YOLOV3创新核心点YoloV3模型架构即
损失函数
YoloV3SPP网络模型以及环境搭建1环境配置:2文件结构3训练数据的准备以及目录结构4利用标注好的数据集生成一系列相关准备文件
郭庆汝
·
2023-12-14 14:47
目标检测
pytorch
YOLO
基于Python+WaveNet+MFCC+Tensorflow智能方言分类—深度学习算法应用(含全部工程源码)(三)
目录前言引言总体设计系统整体结构图系统流程图运行环境模块实现1.数据预处理2.模型构建1)定义模型结构2)优化
损失函数
3.模型训练及保存1)模型训练2)模型保存3)映射保存相关其它博客工程源代码下载其它资料下载前言博主前段时间发布了一篇有关方言识别和分类模型训练的博客
小胡说人工智能
·
2023-12-14 13:41
机器学习
学习路线
语音交互
python
深度学习
算法
神经网络
opencv
tensorflow
语音识别
经典GAN简明原理:LSGAN
常规GAN默认的判别器设置是sigmoid交叉熵
损失函数
训练的分类器。但是,在训练学习过程中这种
损失函数
的使用可能会导致梯度消失。
机器学习与AI生成创作
·
2023-12-06 23:25
机器学习
人工智能
python
深度学习
计算机视觉
机器学习中那些不显然的常识
1.为什么使用均方差,或者其他的二次方函数作为
损失函数
?第一,平方后非负;第二,二次函数很容易求极值。例子略。2.线性回归中的偏置项b,如果是多维则是向量,有何意义?
joytrue
·
2023-12-06 20:19
Pytorch中有哪些
损失函数
?
Pytorch中有哪些
损失函数
?一、常见的损失1.**均方误差损失(MeanSquaredErrorLoss):`nn.MSELoss`**2.
高山莫衣
·
2023-12-06 11:35
pytorch
pytorch
人工智能
python
Yolov4 学习笔记
Yolov4学习笔记
损失函数
之前
损失函数
存在的问题GIOUDIOUCIOUBOSSPPnetCSPnetSAMPAN层mish激活函数
损失函数
666666之前
损失函数
存在的问题之前公式为1-IOUIOU
魏郴
·
2023-12-06 10:24
YOLO
学习
笔记
YOLOv4学习笔记(2)——训练策略
目录数据增强:Mosaic数据增强:自对抗训练(SAT):CmBN(Crossmin-batchNormalization)策略:Dropblock正则化:
损失函数
:BoundingBoxRegeressionLoss
猪不爱动脑
·
2023-12-06 10:19
机器视觉
计算机视觉
深度学习
YOLOv4 学习笔记
文章目录前言一、YOLOv4贡献和改进二、YOLOv4核心概念三、YOLOv4网络架构四、YOLOv4数据增强五、YOLOv4的
损失函数
总结前言在近年来的目标检测领域,YOLOv4的出现标志着一个重要的技术突破
92岁高龄码农
·
2023-12-06 10:42
YOLO系列
YOLO
学习
笔记
pytorch学习8-
损失函数
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习9-优化器学习
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习10-网络模型的保存和加载
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习11-完整的模型训练过程
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习4-简易卷积实现
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习5-最大池化层的使用
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习7-序列模型搭建
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习1-数据加载以及Tensorboard可视化工具
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习2-Transforms主要方法使用
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习3-torchvisin和Dataloader的使用
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习6-非线性变换(ReLU和sigmoid)
Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(ReLU和sigmoid)pytorch学习7-序列模型搭建pytorch学习8-
损失函数
与
Magic171
·
2023-12-06 07:45
吴恩达机器学习
pytorch
学习
人工智能
软著项目推荐 深度学习的智能中文对话问答机器人
文章目录0简介1项目架构2项目的主要过程2.1数据清洗、预处理2.2分桶2.3训练3项目的整体结构4重要的API4.1LSTMcells部分:4.2
损失函数
:4.3搭建seq2seq框架:4.4测试部分
iuerfee
·
2023-12-06 06:49
python
【深度学习笔记】07 多层感知机
07多层感知机多层感知机在网络中加入隐藏层从线性到非线性激活函数ReLU函数sigmoid函数tanh函数多层感知机的从零开始实现初始化模型参数激活函数模型
损失函数
训练多层感知机的简洁实现模型多层感知机在网络中加入隐藏层我们可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制
LiuXiaoli0720
·
2023-12-06 00:49
深度学习笔记
深度学习
笔记
人工智能
【深度学习笔记】06 softmax回归
06softmax回归softmax运算
损失函数
对数似然Fashion-MNIST数据集读取数据集读取小批量整合所有组件softmax回归的从零开始实现初始化模型参数定义softmax操作定义模型定义
损失函数
分类精度训练预测
LiuXiaoli0720
·
2023-12-06 00:19
深度学习笔记
深度学习
笔记
回归
6-PACK论文学习及复现记录
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、基本思想1.1创新点1.2两个变换二、实现结构1.基于注意力机制生成锚点特征2.生成关键点(分对称类、非对称)2.1
损失函数
wliu_kk
·
2023-12-06 00:18
6pack
学习
计算机视觉
人工智能
抑制过拟合——Dropout原理
具体来说,这在神经网络训练中尤为常见,表现为在训练数据上表现优异(例如
损失函数
值很小,预测准确率高)而在未见过的数据(测试集)上表现不佳。 过
征途黯然.
·
2023-12-05 19:53
#
理论基础
人工智能
深度学习
Dropout
梯度下降与
损失函数
的基础知识
文章目录一、基础知识梯度下降
损失函数
的要求
损失函数
凸函数二、预测的任务理解策略梯度一、基础知识梯度下降梯度下降(GradientDescent)是一种常用的优化算法,用于最小化
损失函数
或目标函数。
_刘文凯_
·
2023-12-05 17:09
深度学习
人工智能
深度学习
计算机视觉
【AI数字人-论文】Wav2lip论文解读
文章目录Wav2lip前言Lip-syncExpertDiscriminatorGeneratorvisualqualitydiscriminator生成器总
损失函数
论文Wav2lip前言Wav2Lip
马鹤宁
·
2023-12-05 16:11
数字人
人工智能
AIGC
数字人
wav2lip
损失函数
&代价函数
代价函数(CostFunction)和
损失函数
(LossFunction)是深度学习中两个相关但不完全相同的概念,它们用于衡量模型的性能,并在训练过程中进行参数优化。
星宇星静
·
2023-12-05 16:42
人工智能
机器学习
神经网络
Sequential Modeling Enables Scalable Learning for Large Vision Models
2.3论文提出的架构和
损失函数
是什么?2.4用于定量评估的数据集是什么?代码有没有开源?2.5这篇论文到底有什么贡献?2.6下一步呢?有什么工作可以继续深入?
hanranV
·
2023-12-05 09:36
人工智能
计算机视觉
Course2-Week2-神经网络的训练方法
Course2-Week2-神经网络的训练方法文章目录Course2-Week2-神经网络的训练方法1.神经网络的编译和训练1.1TensorFlow实现1.2
损失函数
和代价函数的数学公式2.其他的激活函数
虎慕
·
2023-12-05 09:01
#
机器学习-吴恩达
神经网络
人工智能
深度学习
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他