E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SoftMax
NLP-Beginner:自然语言处理入门练习----task 1基于机器学习的文本分类
wang盘:http://链接:https://pan.baidu.com/s/16gG4ILHrWmUPJkyrIZkNBA提取码:cadj一、任务介绍本次任务是利用机器学习中的
softmax
regression
soobinnim
·
2023-01-26 07:40
机器学习
自然语言处理
分类
NLP-Beginner 任务一:基于机器学习的文本分类(超详细!!)
NLP-Beginner任务一:基于机器学习的文本分类传送门一.介绍1.1任务简介1.2数据集1.3流程介绍二.特征提取2.1词袋特征(Bag-of-word)2.2N元特征(N-gram)三.最优化求解3.1
Softmax
0oTedo0
·
2023-01-26 07:09
NLP-Beginner
nlp
python
机器学习
自然语言处理
ml
NLP-Task1:基于机器学习的文本分类
NLP-Task1:基于机器学习的文本分类实现基于logistic/
softmax
regression的文本分类数据集:ClassifythesentimentofsentencesfromtheRottenTomatoesdataset
Navajo_c
·
2023-01-26 07:08
NLP-beginner
自然语言处理
机器学习
神经网络
机器学习读书笔记:强化学习
文章目录强化学习基本模型K-摇臂赌博机模型ϵ\epsilonϵ-贪心
Softmax
有模型学习策略评估策略改进免模型学习蒙特卡洛强化学习采样策略改进时态差分学习值函数近似模仿学习直接模仿学习逆强化学习强化学习基本模型强化学习的过程如下图所示
新兴AI民工
·
2023-01-26 07:31
机器学习读书笔记
机器学习
强化学习
马尔可夫链蒙特卡洛方法
K-摇臂
NLP—Word2vec词向量表达
原理:word2vec原理(一)CBOW与Skip-Gram模型基础word2vec原理(二)基于Hierarchical
Softmax
的模型word2vec原理(三)基于NegativeSampling
财务自由_lang
·
2023-01-26 01:09
刘二大人
Softmax
Classifier with Pytorcn代码实现
Softmax
Classifier代码实现
Softmax
Classifier步骤PreparedatasetDesignmodelusingClassConstructlossandoptimizerTrainingcycle
carbage诶
·
2023-01-25 13:51
Pytorch
深度学习
人工智能
人体动作识别论文(骨骼信息,GCN)
最后,将两个流的
SoftMax
分数相加,得到融合分数并预测动作标签。代码:GitHub-benedekrozemberczki/p
chenitu
·
2023-01-25 12:36
深度学习
人工智能
3.4
Softmax
回归【李沐动手学深度学习】
目录1.从回归到多分类——均方损失
Softmax
回归2.
Softmax
和交叉熵损失损失梯度3.损失函数3.1均方损失(L2Loss)3.2绝对值损失函数(L1Loss)3.3鲁棒损失Huber'sRobustLoss4
iCiven
·
2023-01-25 10:39
李沐动手学深度学习
回归
数据挖掘
人工智能
学习率衰减、局部最优、Batch归一化、
Softmax
回归
目录1.学习率衰减(Learningratedecay)在训练初期,梯度下降的步伐大一点,开始收敛的时候,小一些的学习率能让步伐小一些。1epoch=遍历一遍训练集学习率衰减公式:例:假设衰减率decayrate=1,=0.2epochNumα10.120.06730.0540.04其它学习率衰减公式:α=0.(指数衰减)。。。等等2.局部最优(localoptima)的问题梯度下降的时候可能会困
劳埃德·福杰
·
2023-01-25 10:08
Deep
Learning
学习率衰减
局部最优
Batch
Norm
softmax
Cross-Domain Transformer用于无监督域自适应ICLR2022
前置内容:CrossAttention(Transformer的解码器部分)自注意力的计算回顾关于自注意力机制的思考;key-value注意力的计算为:Attention(Q,K,V)=
softmax
(
tzc_fly
·
2023-01-25 07:10
论文阅读笔记
深度学习
计算机视觉
机器学习之单标签多分类及多标签多分类
单标签二分类算法Logistic算法单标签多分类算法
Softmax
算法One-Versus-One(ovo):一对一One-Versus-All/One-Versus-the-Rest(ova/ovr)
奔跑的大西吉
·
2023-01-23 19:27
机器学习
深度学习: smooth L1 loss 计算
RPN的目标函数是分类和回归损失的和,分类采用交叉熵,回归采用稳定的SmoothL1,SmoothL1公式为:整体损失函数具体为:[1]FasterR-CNN原理介绍[2]深度网络中
softmax
_loss
strivinging
·
2023-01-23 08:12
杂七杂八的
深度学习
计算机视觉
劝你别把开源的AI项目写在简历上了!!!
项目一、京东健康智能分诊项目第一周:文本处理与特征工程|BagofWords模型|从tf-idf到Word2Vec|SkipGram与CBOW|Hierarhical
Softmax
与NegativeSampling
视学算法
·
2023-01-23 08:03
神经网络
人工智能
机器学习
编程语言
深度学习
4个可以写进简历的京东 NLP 项目实战
项目一、京东健康智能分诊项目第一周:文本处理与特征工程|BagofWords模型|从tf-idf到Word2Vec|SkipGram与CBOW|Hierarhical
Softmax
与NegativeSampling
woshicver
·
2023-01-23 08:32
神经网络
人工智能
机器学习
编程语言
深度学习
京东 | AI人才联合培养计划(NLP项目实战)
项目一、京东健康智能分诊项目第一周:文本处理与特征工程|BagofWords模型|从tf-idf到Word2Vec|SkipGram与CBOW|Hierarhical
Softmax
与NegativeSampling
深度强化学习实验室
·
2023-01-23 08:21
神经网络
人工智能
机器学习
编程语言
深度学习
详解京东商城智能对话系统(生成+检索)
项目一、京东健康智能分诊项目第一周:文本处理与特征工程|BagofWords模型|从tf-idf到Word2Vec|SkipGram与CBOW|Hierarhical
Softmax
与NegativeSampling
PaperWeekly
·
2023-01-23 08:20
神经网络
人工智能
机器学习
编程语言
深度学习
京东 | AI人才联合培养计划!
项目一、京东健康智能分诊项目第一周:文本处理与特征工程|BagofWords模型|从tf-idf到Word2Vec|SkipGram与CBOW|Hierarhical
Softmax
与NegativeSampling
Datawhale
·
2023-01-23 08:48
神经网络
人工智能
编程语言
机器学习
深度学习
Cs231n-assignment 2作业笔记
1.
softmax
_loss:log_prob
weixin_30799995
·
2023-01-21 16:33
人工智能
CS231n学习笔记--Assignment2/3
1.Assignment21.1全连接神经网络深度学习小白——CS231nAssignment2(FC)深度学习笔记8:
softmax
层的实现1.2卷积神经网络深度学习小白——CS231nAssignment2
Kuekua-seu
·
2023-01-21 16:03
深度学习
CS231n学习笔记
深度学习
cs231n
第五章 误差反向传播法——计算图&链式法则&反向传播&简单层的实现&激活函数层的实现&Affine/
Softmax
层的实现&误差反向传播法的实现
*数值微分虽然简单,也容易实现,但缺点是计算上比较浪费时间1.计算图*正向传播是从计算图出发点到结束点的传播*反向传播传递“局部导数”,将导数的值写在箭头的下方*计算图的优点是,可以通过正向传播和反向传播高效的计算各个变量的导数值2.链式法则*链式法则:如果某个函数由复合函数表示,则该复合函数的导数可以用构成复合函数的各个函数的导数的乘积表示3.反向传播(1)加法节点的反向传播加法节点的反向传播只
桃桃tao
·
2023-01-21 14:19
深度学习入门(已完结)
算法
深度学习
人工智能
深度学习入门(9)神经网络Affine与
Softmax
层的计算图表示方式及其误差反向传播的代码实现
《深度学习入门》系列文章目录深度学习入门(1)感知机深度学习入门(2)神经网络深度学习入门(3)神经网络参数梯度的计算方式深度学习入门(4)【深度学习实战】无框架实现两层神经网络的搭建与训练过程深度学习入门(5)如何对神经网络模型训练结果进行评价深度学习入门(6)误差反向传播基础---计算图与链式法则使用深度学习入门(7)误差反向传播计算方式及简单计算层的实现深度学习入门(8)激活函数ReLU和S
阿_旭
·
2023-01-21 14:18
深度学习入门
深度学习
人工智能
softmax层实现
python
Affine层实现
误差反向传播法--Affine/
Softmax
层的实现
2023.1.17Affine层:在神经网络的正向传播中,为了计算加权信号的总和,使用矩阵乘积运算。比如:importnumpyasnpx=np.arange(6).reshape(2,3)#(2,3)w=np.arange(6).reshape(3,2)#(3,2)b=np.arange(4).reshape(2,2)#(2,2)y=np.dot(x,w)+b#要符合线性代数运算规则print(
Anthony陪你度过漫长岁月
·
2023-01-21 14:46
深度学习
人工智能
python
SSD训练自己数据集
SSD训练自己数据集原理目标检测|SSD原理与实现损失函数:(1)类别损失(置信度误差)为
softmax
loss(2)位置损失为SmoothL1Loss训练1.数据制作(1)首先准备img与txt文件夹
鹅鹅_鹅
·
2023-01-21 09:29
“深度学习”学习日记。误差反向传播法--算法实现
2023.1.18经过学习了计算图、链式法则、加法层、乘法层、激活函数层、Affine层、
Softmax
层的反向传播的实现。
Anthony陪你度过漫长岁月
·
2023-01-21 08:27
深度学习
人工智能
python
MNIST
关于Attention的超详细讲解
思想步骤五、Self-Attention5.1Self-Attention的计算步骤5.2根据代码进一步理解Q、K、V5.3再来一个例子理解六、缩放点积中为什么要除以根号dk6.1为什么比较大的输入会使得
softmax
WGS.
·
2023-01-21 01:20
#
深度学习
#
NLP
机器翻译
自然语言处理
人工智能
RCNN模型Python实现笔记一
`log_
softmax
()`函数2.`contiguous()`函数3.`view()`函数4.`cv2.cvtColor()`函数5.`Variable()`函数6.
WHS-_-2022
·
2023-01-20 20:16
机器学习
python
深度学习
pytorch
cs231n assignment1 Two-Layer Neural Network
此次的作业的目的:了解NN的结构和搭建过程:本次实验的两层NN的结构:相当于使用了ReLu最后一层用
softmax
得出loss理解backpropagation:其目的是为了求任意函数的导数至于求导过程
likyoo
·
2023-01-20 18:33
Machine
Learning
machine
learning
双层网络(仿射层+ReLu层)
理论部分:2022Cs231n笔记-神经网络和反向传播_iwill323的博客-CSDN博客目录导包和处理数据仿射层网络层代码测试ReLu层仿射+ReLuLosslayers:
Softmax
andSVMTwo-layernetworkSGDSolver
iwill323
·
2023-01-20 18:32
CS231n代码
机器学习
算法
python
cs231n-2022-assignment1#Q4:Two-Layer Neural Network(Part1)
Forward3.Affinelayer:Backward4.ReLUactivation:Forward5.ReLUactivation:Backward6.SVMlossandgradient7.
Softmax
lossandgradient8
笨牛慢耕
·
2023-01-20 18:02
深度学习
人工智能
机器学习
深度学习
人工智能
python
分类器
Pytorch梯度下降优化
目录一、激活函数1.Sigmoid函数2.Tanh函数3.ReLU函数二、损失函数及求导1.autograd.grad2.loss.backward()3.
softmax
及其求导三、链式法则1.单层感知机梯度
Swayzzu
·
2023-01-20 09:51
深度学习
pytorch
人工智能
python
混合密集网络(Mixture Density Networks)
理论混合密集网络是一种将高斯混合模型和神经网络结合的网络,与一般的神经网络不同,它在网络的输出部分不再使用线性层或
softmax
作为预测值,为了引入模型的不确定性,认为每个输出是一种高斯混合分布,而不是一个确定值或者单纯的高斯分布
weiweiweimengting
·
2023-01-20 02:42
神经网络
机器学习
深度学习
PyTorch (三): 常见的网络层
目录全连接层卷积层池化层最大池化层平均池化层全局平均池化层激活函数层Sigmoid层ReLU层
Softmax
层Log
Softmax
层Dropout层BN层LSTM层损失函数层NLLLossCrossEntropyLoss
连理o
·
2023-01-19 18:13
#
PyTorch
深度学习
神经网络
卷积神经网络
Pytorch(八) --Pytorch实现多分类问题
所谓的多分类问题,实际上是使用了
softmax
函数,这一点和tensorflow是有区别的。tensorflow中的
softmax
和交叉熵函数是分开的,而pytorch是合并到一起的。
starlet_kiss
·
2023-01-19 16:51
Pytorch
pytorch
分类
深度学习
从tf.math.log_
softmax
和tf.keras.losses.SparseCategoricalCrossentropy看
softmax
的上溢和下溢问题
什么是
softmax
的上溢和下溢问题从公式可以看出,对于电脑计算指数函数exp(x)时,如果x过于大,比如1000,则会变为inf,无穷大,这就是
softmax
的上溢问题;同样,如果x过于小,比如-1000
会发paper的学渣
·
2023-01-19 13:22
深度学习基础
tensorflow2.x
深度学习
tf.keras.losses.SparseCategoricalCrossentropy()与CategoricalCrossentropy()简单说明
reduction=losses_utils.ReductionV2.AUTO,name='sparse_categorical_crossentropy')参数:from_logits:True就是需要经过
softmax
github_元宝
·
2023-01-19 13:51
tf
tensorflow
深度学习
BERT模型fine-tuning
文本分类的例子最典型了,最后加一个Dense层,把输出维度降至类别数,再进行sigmoid或
softmax
。
anshiquanshu
·
2023-01-19 10:47
深度学习
python
Softmax
Loss、AAM-
Softmax
(ArcFace)、Sub-center ArcFace的PyTorch实现与代码解读
,关于这些损失函数的理论部分,可参考说话人识别中的损失函数本文主要关注这些损失函数的实现,此外,文章说话人识别中的损失函数中,没有详细介绍基于多类别分类的损失函数,因此本文会顺便补足这一点本文持续更新
Softmax
Loss
DEDSEC_Roger
·
2023-01-19 10:13
说话人识别
pytorch
深度学习
语音识别
音频
【深度学习】01 - 图像识别
文章目录K最近邻法-KNNN折交叉验证法KNN总结:线性分类器得分函数损失函数(代价函数)损失函数1:hingeloss/支持向量机损失损失函数2:互熵损失(
softmax
分类器)K最近邻法-KNN现在用的比较少
李易安QSR
·
2023-01-19 09:48
人工智能
#
深度学习
深度学习
机器学习
人工智能
损失函数(loss function)
3.1.2L2损失函数3.1.3L1损失函数3.1.4SmoothL1损失函数3.1.5huber损失函数3.2基于概率分布度量的损失函数3.2.1KL散度函数(相对熵)3.2.2交叉熵损失3.2.3
softmax
iiiLISA
·
2023-01-19 06:40
机器学习
机器学习
深度学习目标检测基础_sigmoid和
softmax
函数
文章目录sigmoid和
softmax
sigmoid函数
softmax
函数总结sigmoid和
softmax
sigmoid和
softmax
都是分类函数,他们的区别如下sigmoid函数Sigmoid=多标签分类问题
python-码博士
·
2023-01-18 22:44
深度学习
深度学习
目标检测
深度学习目标检测_YOLOV3超详细解读
文章目录YOLOV3概述网络结构backbone:darknet-53特征细化(多scale)残差连接残差网络的发家史先验框
softmax
改进YOLOV3概述yolov3论文地址:https://pjreddie.com
python-码博士
·
2023-01-18 22:39
深度学习
深度学习
目标检测
计算机视觉
torch.nn.CrossEntropyLoss()
参考:torch.nn.functional和torch.nn去使用
softmax
,log
softmax
,crossentropy等的区别_LUQC638的博客-CSDN博客参考:
softmax
+log
LUQC638
·
2023-01-18 14:30
pytorch
pytorch
【机器学习】逻辑回归(理论)
逻辑回归(理论)目录一、概论1、何为逻辑回归2、映射函数的引入3、伯努利分布二、损失函数的推导三、用逻辑回归实现多分类1、间接法:HardMax2、直接法:
SoftMax
Ⅰ
SoftMax
的引入Ⅱ
SoftMax
酱懵静
·
2023-01-18 14:09
机器学习
逻辑回归
sigmoid函数
Softmax
交叉熵
RCNN算法理论
.建议框(RegionProposal)的确定2.CNN模型提取特征--预训练和微调(1).CNN模型预训练(2).CNN模型微调3.SVM分类训练扩展:为什么要用SVM分类,而不在CNN模型后面添加
softmax
Acewh
·
2023-01-18 11:25
算法
深度学习
目标检测
深度学习实验(二)
实验二多层感知机、欠拟合、过拟合一、实验目的多层感知机综述隐藏层首先,回想一下
softmax
回归的模型结构。该模型通过单个仿射变换将我们的输入直接映射到输出,然后进行
softmax
操作。
Qutter
·
2023-01-18 11:09
深度学习实验
深度学习
人工智能
Softmax
在Fashion-MNIST的实现(手动从0实现
softmax
回归(只借助Tensor和Numpy相关的库))
手动从0实现
softmax
回归##加载Fashion-MNISTimporttorchimporttorchvisionfromtorch.utilsimportdatafromtorchvisionimporttransforms
FakeOccupational
·
2023-01-18 11:08
深度学习
torch.nn.CrossEntropyLoss()使用注意
torch.nn.CrossEntropyLoss()使用注意CrossEntropyLoss(将nn.Log
Softmax
()和nn.NLLLoss()结合在一个类中)一般用于计算分类问题的损失值,可以计算出不同分布之间的差距
Unstoppable~~~
·
2023-01-18 07:36
深度学习
pytorch
深度学习
python
softmax
(三):
softmax
交叉熵的缺点
还是废话不说,直接上峰神的链接
Softmax
理解之Smooth程度控制
softmax
交叉熵我们经常使用,但是为啥有的任务,用
softmax
交叉熵效果很好,有的任务用效果却不怎么样。
仙女修炼史
·
2023-01-18 03:23
深度学习算法
机器学习
算法
深度学习
softmax
(二):
softmax
交叉熵不是真正的目标函数
从最优化的角度看待
Softmax
损失函数
Softmax
理解之Smooth程度控制一、优化的目标函数做分类的都知道,
softmax
交叉熵,是常用的分类损失函数,那么,它是怎么来的呢?
仙女修炼史
·
2023-01-18 03:22
深度学习算法
深度学习
机器学习
cnn
Multi-head Self-attention
使用同样的方法得到,,,在计算的时候和之前一样,注意只和同一种类型的QKV计算比如,,,,中bi1=
softmax
(*)*bi2=
softmax
(*)*最后把bi1和bi2接起来,再乘上一个矩阵得出bi
BEINTHEMEMENT
·
2023-01-18 01:30
深度学习
上一页
18
19
20
21
22
23
24
25
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他