E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SoftMax
【Pytorch学习笔记】4.细讲Pytorch的gather函数是什么——从
Softmax
回归中交叉熵损失函数定义的角度讲述
原始数据矩阵根据索引矩阵取到对应值矩阵可以先看看的例子官方文档解释从交叉熵损失函数定义的角度理解gather函数的使用torch.gather()gather函数:原始数据矩阵根据索引矩阵取到对应值矩阵我们在学习
Softmax
takedachia
·
2022-04-10 00:41
Pytorch学习笔记
人工智能
python
pytorch
深度学习
深入理解PyTorch中的gather函数
gather函数今天在用PyTorch复现
softmax
的时候,参考的书籍为《DiveintoDLPytorch》。
vyacheslavkorotki
·
2022-04-10 00:11
Pytorch学习
python
深度学习
pytorch学习三、
softmax
回归
来自于https://tangshusen.me/Dive-into-DL-PyTorch/#/官方文档https://pytorch.org/docs/stable/tensors.html
softmax
梦无羡
·
2022-04-10 00:10
深度学习
深度学习
pytorch
机器学习
《动手学深度学习》task2——文本预处理,语言模型,循环神经网络基础笔记
系统学习《动手学深度学习》点击这里:《动手学深度学习》task1_1线性回归《动手学深度学习》task1_2
Softmax
与分类模型《动手学深度学习》task1_3多层感知机《动手学深度学习》task2
shiinerise
·
2022-04-08 07:01
深度学习
动手学深度学习
pytorch
文本预处理
语言模型
循环神经网络
【深度学习】LeNet-5、AlexNet、VGG16、GoogLeNet、ResNet
##LeNet-5:结构C-P-C-P-FC-FC,即卷积1-池化-卷积2-池化-全连接1-全连接2-
softmax
输出层##AlexNet:结构5个卷积层,3个全连接层,共八层,6千万参数(即60M个参数
Mister Zhu
·
2022-04-06 07:23
深度学习
对比学习知识扩展——一堆奇奇怪怪的loss,快把我压死了orz...
1.交叉熵loss和对比loss区别交叉熵loss是最后结果过一层fc然后进行
softmax
。
一只想飞的咸鱼君
·
2022-04-06 07:55
自监督
nlp自然语言处理学习CBOW模型类实现示例解析
生成层:生成两个输入侧的MatMul层、一个输出侧的MatMul层,以及一个
Softmax
withLos
·
2022-04-05 17:14
pytorch实现手写数字识别 | MNIST数据集(全连接神经网络)
文章目录代码相关说明1.关于MNIST数据集2.关于二分类与多分类3.关于神经网络处理过程4.
softmax
函数5.关于MNIST数据集的处理举例6.代码流程7.关于transforms.ToTensor8
-借我杀死庸碌的情怀-
·
2022-04-01 07:12
pytorch
pytorch
神经网络
深度学习
MNIST
手写数字识别
Bachbone 之 VGGNet:走向深度 (Pytorch实现及代码解析)
VGGNet采用了5组卷积和3个全连接层,最后的部分采用
Softmax
做分类,其有一个显著的特点就是:每经过一层池化层,特征图的尺寸减小一倍,通道数增加一倍更多地使用3x3
心之所向521
·
2022-04-01 07:40
深度学习算法
目标检测
经典网络骨架Backbone
python
机器学习
深度学习
神经网络
人工智能
【强化学习】策略梯度Policy-Gradient
目录Value-based强化学习方法的不足Policy-based强化学习方法的引入策略梯度的优化目标策略函数的设计
Softmax
策略函数Gauss策略函数蒙特卡罗策略梯度reinforce算法小结强化学习笔记
最忆是江南.
·
2022-03-30 07:09
强化学习笔记
强化学习
reinforcement
learning
机器学习
人工智能
深度学习之损失函数小结
深度学习之损失函数小结开篇损失函数在深度学习中的作用相当于引领模型学习的方式,其重要程度不言而喻;下图为一些损失函数的关系:Sigmoid和
Softmax
损失Sigmoid公式:S(x)=11+e−xS
一个热爱学习的深度渣渣
·
2022-03-23 08:28
CV—baseline
深度学习
人工智能
损失函数
交叉熵
程序员
机器学习 —— 基础整理(五)线性回归;二项Logistic回归;
Softmax
回归及其梯度推导;广义线性模型...
本文简单整理了以下内容:(一)线性回归(二)二分类:二项Logistic回归(三)多分类:
Softmax
回归(四)广义线性模型闲话:二项Logistic回归是我去年入门机器学习时学的第一个模型(忘记了为什么看完
weixin_34301307
·
2022-03-23 08:57
数据结构与算法
人工智能
tensorflow-Keras高层接口
#实例化一个
softmax
softmax
=keras.layers.
Softmax
()softma
喜欢蓝喜欢白
·
2022-03-23 08:46
神经网络与深度学习
tensorflow
python
机器学习
神经网络
深度学习
学习笔记(3):Windows版YOLOv4目标检测:原理与源码解析-目标检测-YOLOv3原理
utm_source=blogtoeduv3可以输出多标签,即概率总和大于1,故不用
Softmax
,改用logistic二分类器v2有拼接,v3有多尺度最终网络输出的深度是每个单元格预测的参数(x,y,
远星.少说多做
·
2022-03-22 17:55
研发管理
windows
yolov4
目标检测
原理
源码
python实现
softmax
函数、sigmoid函数、
softmax
交叉熵loss函数、sigmoid 交叉熵loss函数
jupyternotebookTensorflow2.0计算用了两种方法numpy&tensorflow,建议tensorflowimporttensorflowastfimportnumpyasnp实现
softmax
下雨了吗?
·
2022-03-22 17:46
python
深度学习
tensorflow
吴恩达深度学习L4W4人脸识别
1、One-shotlearning人脸识别往往每个人只有一张照片,因此不应该用卷积神经网络配合
softmax
训练。应该选择学习Similarity函数。
HITSZ阿星
·
2022-03-22 17:10
深度学习
机器学习
人工智能
【Pytorch】使用Pytorch进行知识蒸馏
使用Pytorch进行知识蒸馏一、知识蒸馏原理1.使用`
softmax
`进行蒸馏:2.知识迁移:老师知识—>学生知识二、知识蒸馏实现1.导入各种包2.设置随机种子3.加载MNIST数据集4.定义教师模型
码猿小菜鸡
·
2022-03-22 07:28
人工智能
单纯分享
pytorch
深度学习
神经网络
知识蒸馏
图像处理
tensorflow基于BERT训练文本分类模型保存为PB(saved model)并部署
模型架构:BERT+
softmax
模型保存策略:先将模型保存为ckpt形式然后转换为pb形式。
西兰先森
·
2022-03-22 07:30
自然语言处理
tensorflow
深度学习
NLP
BERT
基于TensorFlow深度学习框架,运用python搭建LeNet-5卷积神经网络模型和mnist手写数字识别数据集,设计一个手写数字识别软件。
2.构建模型:用神经元构建神经网络,定义神经网络的权重和偏置项来进行前向计算,并使用
Softmax
Regression模型来进行
Softmax
分类,即可得到每
Life is a joke
·
2022-03-21 07:38
PYTHON
机器学习
tensorflow
python
深度学习
NameError: name ‘torch‘ is not defined;from torch import nn导入模块错误
#importtorchfromtorchimportnnm=nn.
Softmax
(dim=1)input=torch.randn(2,3)output=m(input)执行上面的代码时,会报错:NameError
dssgresadfsrgre
·
2022-03-21 07:17
pytorch
python
多分类问题
softmax
公式的使用
文章目录一、多分类问题使用sigmod解决的问题二、
softmax
公式一、多分类问题使用sigmod解决的问题使用sigmod对每一个计算权值如何使用sigmod计算权值?
Mae_strive
·
2022-03-19 08:50
人工智能+大数据
分类
概率论
python
全卷积网络(FCN)实战:使用FCN实现语义分割
与经典的CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类(全联接层+
softmax
输出)不同,FCN可以接受任意尺寸的输入
华为云开发者社区
·
2022-03-18 11:00
学习笔记:6-16Infrared-Visible Cross-Modal Person Re-Identification with an X Modality
没有3MRG模态各自模态分类
softmax
-triplet?,CMG跨模态差
AIchiNiurou
·
2022-03-17 07:03
#
可以
计算机视觉
致初学者的深度学习入门系列(三)—— 深度学习目标检测篇(上)
目标定位在
softmax
层中不仅仅只输出分类信息,还可以输出目标的外接矩形框的角点和长宽,这样就可以转化为一个逻辑回归的问题。
Rosen.
·
2022-03-17 07:37
深度学习
深度学习
目标检测
计算机视觉
【深度学习】
Softmax
和交叉熵损失是什么?香农信息量、熵、交叉熵又是什么?
这之前了解一下
softmax
softmax
softmax
的一些概念,区别于maxmaxmax,
softmax
softmax
softmax
的特点就在于他的softsoftsoft,有点像聚类里的软聚类和硬聚类的区别类似
聊北辰同学
·
2022-03-16 07:57
基础
机器学习
神经网络
深度学习
数据挖掘
概率论
Python深度学习基础(二)——反向传递概念透彻解析以及Python手动实现
反向传递概念透彻解析以及Python手动实现前言最简单的反向传递乘法层加法层激活函数的反向传递Relu层Sigmoid层带交叉熵误差的
SoftMax
层前言我们在感知机中采用了梯度下降的方式实现了参数的优化
艾醒
·
2022-03-16 07:51
深度学习方法
python
深度学习
机器学习
Learning without Forgetting 详解(LwF)
和传统的Finetune比起来,LwF使用了teachermodel输出的soften
softmax
对新任务中的样本进行约束。
gbyy42299
·
2022-03-15 07:34
蒸馏
增量学习
深度学习
多任务
CS224N刷题——Assignment1.1&1.2_
Softmax
&神经网络基础
Assignment#11.
Softmax
(a)证明
softmax
对输入中的常量偏移保持不变,即对于任何输入向量x和任何常量c,式中,x+c意味着将常数c加到x的每个维上。
韩明宇
·
2022-03-14 07:27
CS224N
NLP
CS224N刷题——Assignment1.3_word2vec
Assignment#13.word2vec(a)假设已有一个与skip-gram模型的中心词c对应的预测词向量,并使用word2vec模型中的
softmax
函数进行词预测:其中w表示第w个词,是词汇表中所有单词的
韩明宇
·
2022-03-14 07:27
NLP
CS224N
Raki的nlp-begginer 提问
softmax
和logistic的异同点?
爱睡觉的Raki
·
2022-03-14 07:14
nlp-beginner
NLP
机器学习
深度学习
人工智能
神经网络
自然语言处理
复旦nlp实验室 nlp-beginner 任务一:基于机器学习的文本分类
实现基于logistic/
softmax
regression的文本分类参考文本分类《神经网络与深度学习》第2/3章数据集:ClassifythesentimentofsentencesfromtheRottenTomatoesdataset
爱睡觉的Raki
·
2022-03-14 07:38
NLP
nlp-beginner
自然语言处理
机器学习
深度学习
人工智能
Policy-based RL小结(Policy Gradient ; Natural policy gradient ;TRPO;ACKTR;PPO )
Policy-basedRL前言1.预备知识1.1策略类型1.2策略优化的目标函数1.2.1可结束的环境的目标函数1.2.3连续动作环境的目标函数1.2.4实际的目标函数的定义1.3策略的核函数1.4策略的类型1.4.1
Softmax
Policy1.4.2
菜且凶残_2017
·
2022-03-12 07:41
强化学习
强化学习
经典目标检测算法:RCNN、Fast RCNN、 Faster RCNN 基本思想和网络结构介绍
2.2RCNN算法流程2.3RCNN流程图2.4RCNN框架2.5RCNN的缺点三、FastRCNN3.1FastRCNN简介3.2FastRCNN算法流程3.3FastRCNN流程图3.3.1总体流程3.3.2
softmax
ctrl A_ctrl C_ctrl V
·
2022-03-12 07:51
目标检测
目标检测
深度学习
图像处理
人工智能
机器学习
AlexNet论文解读
AlexNet论文翻译及解读摘要1、网络结构卷积层:5个(其中一些后面跟着最大池化层)全连接层:3个(连接着一个最终是1000路的
softmax
)2、tips非饱和神经元,使用GPU实现Dropout正则化方法
秋天的风儿
·
2022-03-10 07:22
cnn
深度学习
计算机视觉
计算机机器视觉原理之全连接神经网络1
(宽度设计)四.损失函数
SOFTMAX
操作交叉熵损失对比多雷支撑向量机损失五.优化算法基于计算图一图像表示直接利用原始像素作为特征,展开为列向量。
小米渣1
·
2022-03-05 10:55
深度学习
神经网络
深度学习
人工智能
计算机视觉与深度学习第四章:全连接神经网络
第四章全连接神经网络计算机视觉与深度学习本节重点一、分类模型1.多层感知器全连接神经网络权值全连接神经网络与线性分类器区分全连接神经网络绘制及命名2.激活函数网络结构设计激活函数缺陷激活函数选择二、损失函数1.
SOFTMAX
113之落
·
2022-03-05 10:47
计算机视觉与深度学习之旅
计算机视觉
深度学习
神经网络
计算机视觉与深度学习-全连接神经网络
先贴一下课程官网:CV-XUEBA篇3地址:计算机视觉与深度学习-线性分类器目录全连接神经网络1、线性分类器的权值2、全连接神经网络与线性不可分3、全连接神经网络绘制与命名4、激活函数5、神经网络结构设计6、
SOFTMAX
7
NanKom
·
2022-03-04 07:00
计算机视觉
深度学习
神经网络
计算机视觉
机器学习
人工智能
【论文阅读】Facial Expression Recognition in the Wild via Deep Attentive Center Loss
下面的分支进行如下处理:poolinglayer处理后得到,是一个一维的特征向量,再将经过一个全连接层计算后得到表情的概率分布,最后计算分类
softmax
loss,也就是。
柠檬不喝橙汁
·
2022-03-04 07:48
cnn
人工智能
神经网络
人工智能面试总结-激活函数
Softmax
求导推导一下?说说
Softmax
溢出怎么处理?说说激活函数有哪些性质?说说如何选择激活函数?说说ReLU函数的特点?说说什么时候用
啥都生
·
2022-03-03 07:19
深度学习校招面试总结
人工智能
面试
机器学习
论文 | A Neural Probabilistic Language Model
ANeuralProbabilisticLanguageModel1.TopView2.Background3.NNLM(NeuralNetworkLanguageModel)1.输入层2.映射层3.隐藏层(tanhtanhtanh层)4.输出层(
softmax
softmax
softmax
Caffiny
·
2022-03-03 07:38
神经网络
机器学习
深度学习
自然语言处理
李沐《动手学深度学习》课程笔记:09
Softmax
回归
目录09
Softmax
回归1.
Softmax
回归2.损失函数3.图片分类数据集4.
Softmax
回归的从零开始实现5.
Softmax
回归的简洁实现09
Softmax
回归1.
Softmax
回归2.损失函数
feiwen110
·
2022-03-02 07:23
李沐《动手学深度学习》课程笔记
回归
深度学习
机器学习
深度学习入门-误差反向传播法(人工神经网络实现mnist数据集识别)
文章目录误差反向传播法5.1链式法则与计算图5.2计算图代码实践5.3激活函数层的实现5.4简单矩阵求导5.5Affine层的实现5.6
softmax
-with-loss层计算图推导5.7
softmax
-with-loss
泥签
·
2022-03-02 07:46
深度学习入门
深度学习
人工智能
机器学习
《动手学深度学习》task4_2 注意力机制和Seq2seq模型
系统学习《动手学深度学习》点击这里:《动手学深度学习》task1_1线性回归《动手学深度学习》task1_2
Softmax
与分类模型《动手学深度学习》task1_3多层感知机《动手学深度学习》task2
shiinerise
·
2022-03-02 07:32
深度学习
attention
seq2seq
nlp
动手学深度学习
transformer学习总结
将得到的所有α做
softmax
处理,得到ā
softmax
分数决定了每个单词对编码当下位置x1的贡献将ā与v相乘再相加,得到输出b用同样的方法得到得到所有的输出b所有的
lulu_陌上尘
·
2022-03-01 07:55
机器学习
神经网络
神经网络之动手实现反向传播(BP)算法
这里并没有采用
Softmax
函数将网络输出概率值之和进行约束,而是
jsfantasy
·
2022-03-01 07:18
深度学习
神经网络
深度学习
tensorflow
《动手学深度学习》task5_2 LeNet
系统学习《动手学深度学习》点击这里:《动手学深度学习》task1_1线性回归《动手学深度学习》task1_2
Softmax
与分类模型《动手学深度学习》task1_3多层感知机《动手学深度学习》task2
shiinerise
·
2022-03-01 07:05
深度学习
cnn
动手学深度学习
lenet
《动手学深度学习》task5_1 卷积神经网络基础
系统学习《动手学深度学习》点击这里:《动手学深度学习》task1_1线性回归《动手学深度学习》task1_2
Softmax
与分类模型《动手学深度学习》task1_3多层感知机《动手学深度学习》task2
shiinerise
·
2022-03-01 07:04
深度学习
卷积神经网络
卷积
动手学深度学习
神经网络隐藏层激活函数和输出层
softmax
/hardmax函数理解
1:激活函数-激活函数是神经网络中对输入数据转换的方法,通过激活函数后将输入值转化为其他信息;在神经网络的隐藏层中,激活函数负责将进入神经元的信息汇总转换为新的输出信号,传递给下一个神经元;如果不使用激活函数,每个输入节点的输入都是一样的,成为了原始的感知机,没有信号的转换,使得网络的逼近能力有限,无法充分发挥网络的强大学习能力;常见的激活函数:(sigmoid、tanh、Relu)1:Sigmo
杨舒成(清霖)
·
2022-02-28 07:35
模型参数
RNN
softmax
函数 交叉熵损失公式的反向传播
RNN网络中,如果某一步骤有输出值,可采用交叉熵定义其损失函数,下面推导了单步传播时,由y_hat(输出值),y(标签)反向传播时的误差传播公式。按照大叔惯例,依然手动,欢迎交流求得了RNN步传播误差后,就可以进行单步反向传播的推导了。
大叔变码农
·
2022-02-28 07:01
rnn
深度学习
神经网络
softmax
函数及交叉熵损失函数求导
1.
softmax
函数使用
softmax
函数主要是为了解决多分类问题,在一个分类神经网络中,该函数能够将多个神经元的输出转换到(0,1)之间,可以当概率来理解,这样就可以取其中最大值当做被分到哪一类。
zzllg
·
2022-02-28 07:26
学习随笔
机器学习
softmax
交叉熵
图像分类
求导
上一页
49
50
51
52
53
54
55
56
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他