E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SoftMax
【AI理论学习】理解词向量、CBOW与Skip-Gram模型
理解词向量、CBOW与Skip-Gram词向量基础知识One-hot表示Distributed表示word2vec基础知识CBOW和Skip-gram霍夫曼树基于Hierarchical
Softmax
的
镰刀韭菜
·
2022-12-23 06:11
NLP
自然语言处理
word2vec
CBOW
Skip-gram
负采样技术
斯坦福大学深度学习公开课cs231n学习笔记(9)
softmax
分类和神经网络分类代码实现
在前面的几节课中,讲述了神经网络的基本原理和参数的优化方法等,在这节课中,讲师前面的知识进行总结运用,通过构建
Softmax
分类器和一个小型的神经网络让我们有更加深入和直接的了解。
Naruto_Q
·
2022-12-23 06:04
深度学习(deep
learning)
深度学习公开课
斯坦福大学深度学习公开课cs231n学习笔记(3)最优化方法:梯度下降
损失函数有不同的实现方式(例如:
Softmax
或SVM)。线性函数的形式是:,而SVM实现的公式是:(1)对于图像数据xi,如果基于参数集W做出的分类预测与真实情况相一
Naruto_Q
·
2022-12-23 06:03
深度学习(deep
learning)
深度学习公开课
CS231N斯坦福计算机视觉公开课 02 - 损失函数和优化
CS231N斯坦福计算机视觉公开课02-损失函数和优化一、SVM铰链损失函数二、正则化1.引入原因三、
Softmax
交叉熵损失函数四、优化过程1.梯度下降算法一、SVM铰链损失函数分类错误的分数减去分类正确的分数再加
T4neYours
·
2022-12-23 06:56
计算机视觉
算法
【更新中】智能车的逻辑与决策——介绍、理论与应用
置顶资料1.状态机StateMachine2.支持向量机SupportVectorMachine(VSM)3.深度学习3.1“层”Layers3.1.1池化层3.1.2全连接层3.1.3卷积层3.1.4
SOFTMAX
3.1.5
你看不见我写的blog
·
2022-12-23 01:04
资料
车辆决策
深度学习中常见的10种激活函数(Activation Function)总结
Sigmoid函数4.2.Tanh函数4.3.ReLU函数4.4.LeakyRelu函数4.5.PRelu函数4.6.ELU函数4.7.SELU函数4.8.Swish函数4.9.Mish函数4.10.
Softmax
不想学习的打工人
·
2022-12-22 23:05
机器学习
深度学习
人工智能
各种activation function(激活函数) 简介
之前在使用activationfunction的时候只是根据自己的经验来用,例如二分类使用sigmoid或者
softmax
,多分类使用
softmax
,Dense一般都是Relu,例如tanh几乎没用过,
Mr_wuliboy
·
2022-12-22 23:29
深度学习
激活函数
Activation
function
CV-01-AlexNet学习笔记
0、背景知识在以往的数据分析任务中,人做特征工程,人做分类;机器学习中,人做特征工程,SVM等分类算法做分类;深度学习中,CNN做特征工程,
Softmax
或SVM做分类。
小杰.
·
2022-12-22 21:17
论文阅读总结
CV
baseline
alexnet学习笔记(代码篇)
1.知识回归01论文整体框架及神经网络处理图像分类问题的流程论文整体共包含了九个部分,详细讲的摘要,relu,dropout函数的优点图像分类包含两个阶段训练阶段和测试阶段,
softmax
,交叉熵02网络结构及部分参数计算网络包含
Ai扫地僧(yao)
·
2022-12-22 21:43
CV论文
深度学习
对比学习损失篇,从L-
softmax
到AM-
softmax
到circle-loss到PCCL
前言对比学习是一种比较学习,其主要目的为让模型学习到不同类别之间的特征,其被广泛应用于人脸识别,文本检索,图像分类等领域。对比学习的主要思想是增大不同类别间的距离,缩小相同类别间的距离,以此来学习到比较特征。普通的对比学习损失LCL=−logexp(si,p/τ)exp(si,p/τ)+∑n=1Nexp(si,n/τ)\mathcal{L_{CL}=-log\frac{exp(s_{i,p}/\t
hangguns
·
2022-12-22 19:02
algorithm
学习
机器学习
深度学习
CUDA WarpReduce 学习笔记
点击上方“计算机视觉工坊”,选择“星标”干货第一时间送达作者丨zzk来源丨GiantPandaCV前言之前看我司的如何实现一个高效的
Softmax
CUDAkernel?
Tom Hardy
·
2022-12-22 19:55
算法
java
人工智能
大数据
机器学习
CUDA ~ WarpReduce
又是一篇关于cuda的要好好学学哦,CUDA编程进阶分享,一些warp的使用如何实现一个高效的
Softmax
CUDAkernel?
whaosoft143
·
2022-12-22 19:21
人工智能
人工智能
机器学习中的损失函数
、L1_Loss和L2_Loss2.1L1_Loss和L2_Loss的公式2.2几个关键的概念1、鲁棒性(robustness)2、稳定性三、smoothL1损失函数四、Crossentropy损失和
Softmax
Wanderer001
·
2022-12-22 17:13
机器学习理论
机器学习
深度学习
目标检测
多标签分类怎么做?(Python)
常用的做法是OVR、
softmax
多分类多标签学习(Multi-label):对于每一个样本可能有多个类别(标签)的任务,不像多分类任务的
Python妙妙屋
·
2022-12-22 16:56
python
分类
Python实现
softmax
函数及注意事项
文章目录1.
Softmax
函数2.代码实现3.注意事项本文摘自《深度学习入门:基于Python的理论与实现》一书。
曹逗号
·
2022-12-22 15:24
Computer
vision
李沐-
softmax
+损失函数+图片分类数据集
softmax
分类vs回归一位有效编码:one-hot
softmax
交叉熵交叉熵用来衡量两个概率的区别总结损失函数L2Loss均方损失当y=0时,蓝色线表示函数曲线,橙色表梯度线,不同的地方梯度的值不同
暄染落墨
·
2022-12-22 14:50
深度学习
(四)关于loss的实现以及搭建网络过程中踩的一些坑
criterion=torch.nn.CrossEntropyLoss()交叉熵损失函数主要由三部分组成,
softmax
--->log---->nll_loss。具体的有时间在写篇文章介绍介绍。
小女孩真可爱
·
2022-12-22 11:21
Pytorch
pytorch
深度学习
python
人工智能
分类
YOLO系列-yolov3
文章目录YOLO-V3多scalescale经典方法残差链接-resnet思想核心网络架构先验框设计
softmax
改进YOLO-V3在yolov3中不论速度还是map值都比其他算法高出很多yolov3最大的改进就是网络结构
dzm1204
·
2022-12-22 10:45
深度学习
计算机视觉
深度学习
人工智能
卷积神经网络的深入理解-优化目标(损失函数)篇
卷积神经网络的深入理解-优化目标(损失函数)篇优化目标-损失函数(持续补充)一、分类任务损失1、0-1损失2、KL散度&交叉熵损失(crossentropyloss)&
softmax
loss(1)信息熵
燃烧吧哥们
·
2022-12-22 09:41
深度学习基础
机器学习
概率论
深度学习
人工智能
神经网络
循环神经网络RNN
循环神经网络RNN原理工作过程文本处理(训练)一个神经元,不同时刻每个时刻都有输出表达式1.正向传播a(t)=b+Wh(t−1)+Ux(t)h(t)=tanh(a(t))o(t)=c+Vh(t)y^(t)=
softmax
大树先生的博客
·
2022-12-22 08:25
Deep
Learning
循环神经网络
RNN
LSTM
【文献阅读】Deep Anomaly Detection with Outlier Exposure
Abstract1Introduction2RelatedWork3OutlierExposure4、Experiments4.1OOD检测器的评估4.2各种数据集的介绍(略)4.3多分类Maximum
Softmax
Probability
StatisticsLiu
·
2022-12-22 07:11
paper_note
大数据
计算机视觉
python
Tensorflow实现多层感知机及常见问题
Tensorflow实现多层感知机上上篇博客讲述了使用一个
softmax
Regression(无隐含层),取得了接近92%的手写字识别准确率。
进步一丢点everyday
·
2022-12-21 19:29
深度学习
神经网络
np.argmax()
针对
softmax
的输出是Ndarray,需要对one-hot类型输出标签进行转换,这个函数直接搞定。在运算时,相当于剥掉一层中括号,返回一个数组,分为一维和多维。
Keep-fight
·
2022-12-21 16:57
Python
python
Tensorflow 01: mnist-
softmax
今天介绍的是用tensorflow中的
softmax
实现mnist手写体数字的分类识别。mnist数据加载#coding=utf-8importtenso
cltdevelop
·
2022-12-21 14:31
深度学习
tensorflow
mnist
softmaxm
api
卷积神经网络-高级篇Advanced-CNN
卷积神经网络-高级篇Advanced-CNN在基础篇中我们学习了一个简单的CNN下面介绍其他几个网络结构GoogLeNet蓝色为卷积,红色是池化,黄色是
softmax
输出,绿色是一些拼接层。
Ricardo_PING_
·
2022-12-21 12:26
神经网络
Python深度学习
cnn
深度学习
计算机视觉
激活函数之
softmax
函数
1.
softmax
函数分类问题中使用的
softmax
函数可以用下面的式表示:exp(x)是表示ex的指数函数(e是纳皮尔常数2.7182…)。
小嘿黑15斤
·
2022-12-21 09:18
深度学习笔记
python
PyTorch 深度学习实践 第九讲 ---多分类问题
Demo9:多分类问题来源:B站刘二大人说明:
softmax
的输入不需要做非线性变换。也就是说
softmax
之前不再需要激活函数(relu)。
Vinsada
·
2022-12-21 09:47
Pytorch框架实践
深度学习
pytorch
python
Softmax
函数的特点和作用是什么
机器学习概率统计
Softmax
函数的特点和作用是什么?在看到LDA模型的时候突然发现一个叫
softmax
函数。
AiA_AiA
·
2022-12-21 09:16
softmax
神经网络
算法
人脸识别中的常见
softmax
函数总结(A-
Softmax
,AM-
Softmax
,ArcFace等)
本文整理、总结了常见
softmax
(如A-
Softmax
,AM-
Softmax
,ArcFace)的公式、论文出处等。
mjiansun
·
2022-12-21 09:15
人脸检测
配准
识别
激活函数层 && 神经网络的基本组成 && Sigmoid、ReLU及
Softmax
函数
在物体检测任务中,常用的激活函数有Sigmoid、ReLU及
Softmax
函数。目录一、常见的激活函数(1)Sigmoid函数(2)ReLU函数(3)LeakyReLU函数(4)
Softmax
函数二、
Flying Bulldog
·
2022-12-21 09:45
搭建神经网络
Pytorch_python
神经网络
深度学习
cnn
python
pytorch
激活函数---Sigmoid、Tanh、ReLu、softplus、
softmax
常见的激活函数包括SigmoidTanHyperbolic(tanh)ReLusoftplus
softmax
这些函数有一个共同的特点那就是他们都是非线性的函数。
dili8870
·
2022-12-21 09:13
人工智能
数据结构与算法
【深度学习基础】01激活函数:Sigmoid、Tanh、ReLU、
Softmax
系列及对应的变体
目录Sigmoid系列1.优点:输出[0,1]、平滑易于求导2.缺点:计算量大、梯度消失、不易收敛3.Sigmoid变体:HardSigmoid、Swish、Tanh系列1.优点:缓解梯度消失和不易收敛问题2.缺陷:运算复杂、仍存在梯度消失3.Tanh变体:HardTanh、TanhShrinkReLU系列1.优势:收敛速度快、避免梯度消失、稀疏性2.缺点:收敛效果差、梯度爆炸、神经元坏死3.Re
TianleiShi
·
2022-12-21 08:40
深度学习图像处理
297个机器学习彩图知识点(8)
1.最近邻分类器2.随机森林3.随机变量4.随机搜索5.召回率6.标量7.PCA8.灵敏度9.S型激活函数10.轮廓系数11.辛普森悖论12.松弛变量13.
Softmax
激活函数14.
Softmax
归一化
冷冻工厂
·
2022-12-21 07:10
NLP中的预训练方法总结 word2vec、ELMO、GPT、BERT、XLNET
文章目录一.文本的表示方法基于one-hot的词向量二.基于词向量的固定表征方法(词向量模型)2.1N-gram模型2.2NNLM2.3word2vecCBoWSkip-gram层次
Softmax
负采样三
iceburg-blogs
·
2022-12-20 19:03
自然语言处理
自然语言处理
算法
pytorch
机器学习
深度学习
基于卷积神经网络实现景区精准识别场景
激活:非线性多分类:
Softmax
分类器,将输出结果转化
Jin、焯
·
2022-12-20 15:31
人工智能
机器学习实验
python
cnn
机器学习实战(4)——训练模型
小批量梯度下降8多项式回归9学习曲线10正则线性模型10.1岭回归10.2套索回归10.3弹性网络10.4早期停止法10.5逻辑回归10.5.1概率估算10.5.2训练和成本函数10.5.3决策边界11
Softmax
WHJ226
·
2022-12-20 12:03
机器学习
机器学习
人工智能
python
深度学习秘籍
显式构造隐式构造loss通常是一个标量batchsize越小其实越好回归预测的是一个连续
softmax
回归是一个多分类问题分类预测是一个离散值HuberRoBustLoss,也就是通常所说SmoothL1
重糖爱好者
·
2022-12-20 10:01
pytorch学习
深度学习
人工智能
激活函数(Relu,sigmoid,Tanh,
softmax
)详解
目录1激活函数的定义2激活函数在深度学习中的作用3选取合适的激活函数对于神经网络有什么样的重要意义4常用激活函数4.1Relu激活函数4.2sigmoid激活函数4.3Tanh激活函数4.4
softmax
m0_53675977
·
2022-12-20 09:54
深度学习
人工智能
关于label smoothing(标签平滑)
意义:对于分类问题,我们通常使用one-hot编码,“非黑即白”,标签向量的目标类别概率为1,非目标类别概率为0:神经网络在分类任务中会输出当前输入对应每个类别的置信度分数,通过
softmax
对这些分数进行归一化处理
阿飞没有花福蝶
·
2022-12-20 05:13
关于pytorch的tip
深度学习
深度学习
人工智能
pytorch
深度学习基础知识——上采样
转置卷积,上池化上采样(unsampling)GAP上采样(unsampling)GAPGlobalaveragepooling就是平均所有的featuremap,然后将平均后的featuremap喂给
softmax
黑洞是不黑
·
2022-12-20 04:36
深度学习
人工智能
论文笔记--ImageNet Classification with Deep Convolutional Neural Networks
模型共有5个卷积层,其中一些之后有max-pooling层,有3个全连接层和最后的1000个头的
softmax
。使训练更快,使用非饱和神经元和两个GPU训
冰羽vee9
·
2022-12-19 18:30
人工智能
深度学习
神经网络
人工智能
机器学习----线性回归
而且对各类回归问题做一个总结,包括一元线性回归,多元线性回归,逻辑回归,岭回归,
softmax
回归。
Sunshine_in_Moon
·
2022-12-19 17:12
【分布外检测】ODIN ICLR‘18
ODIN的想法很简单,既然模型对ID和OOD样本输出的
softmax
预测概率分布不同,那么可不可以让它们分布差异变得更大呢?这样便可以更容易的检测OOD样本。
chad_lee
·
2022-12-19 16:56
论文解读
分布外检测
CV
概率论
机器学习
深度学习
Out of Distribution(OoD)检测相关方法综述
1.
Softmax
-based方法这类方法利用预训练模型输出的最大
softmax
概率进行统计分析,统计发现OOD样本和ID样本
softmax
概率的分布情况,试图将二者的分布差距加大,然后选取合适的阈值来判断一个样本属于
蓝鲸鱼BlueWhale
·
2022-12-19 16:23
计算机视觉
异常检测
机器学习
深度学习
人工智能
使用能量模型替代
Softmax
函数
点击上方“CVer”,选择加"星标"置顶重磅干货,第一时间送达本文转载自:AI科技评论作者|赛文编辑|陈大鑫
Softmax
置信度得分应该是大家再熟悉不过的加在神经网络最后面的一个操作。
Amusi(CVer)
·
2022-12-19 15:41
网络
计算机视觉
机器学习
人工智能
深度学习
【分布外检测】《Energy-based Out-of-distribution Detection》 NIPS‘20
《Energy-basedOut-of-distributionDetection》NIPS’20不改变模型结构,在任意模型上用能量函数替代
softmax
函数,识别输入数据是否为异常样本。
chad_lee
·
2022-12-19 15:08
论文解读
分布外检测
异常检测
机器学习
深度学习
python
前沿系列--Word2Vector[基础须知-附代码]
文章目录前言what转换word2vecCBOW与Skip-gram计算层次
softmax
全回归负采样实例数据集准备网络定义小结前言OK,今天的话,我们来说一下这个Word2Vector,其实这个东西咱们在说
Huterox
·
2022-12-19 14:29
人工智能
自然语言处理
word2vec
人工智能
四种线性分类模型
线性分类模型1回归和分类的区别2四种线性分类模型2.1logistic模型(二分类)2.1.1logistic模型原理2.1.2怎么求参数2.2
softmax
模型(多分类)2.2.1
softmax
模型定义
大头鹅鹅鹅
·
2022-12-19 12:39
笔记
逻辑回归
支持向量机
针对Dense Prediction提出的channel-wise知识蒸馏
论文针对denseprediction提出的channel-wise蒸馏方法,不同于以往的spatial蒸馏,将每个channel的激活层使用
softmax
标准化为probabilitymap,然后使用
杰读源码
·
2022-12-19 11:00
知识蒸馏
深度学习
损失函数小结 - Loss function
Lossfunc1.关联的激活函数1.1
Softmax
yi=exi/∑j=0nej,.y_i=e^{x_i}/\sum_{j=0}^ne^{j},.yi=exi/j=0∑nej,.多个结点的输出转换为概率
disanda
·
2022-12-19 11:13
GAN
CNN
分类
深度学习
机器学习
神经网络
上一页
26
27
28
29
30
31
32
33
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他