E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SoftMax
TypeError:
softmax
() got an unexpected keyword argument 'axis' 解决办法
最近研究keras库,根据网上教程输入源码后出现TypeError:
softmax
()gotanunexpectedkeywordargument'axis'错误,根据错误提示可知
softmax
方法中不包含
LOONGV
·
2020-08-17 02:54
机器学习
(笔记)第二章:一个案例吃透深度学习(中)
目录一、【手写数字识别】之网络结构数据处理经典的全连接神经网络卷积神经网络二、【手写数字识别】之损失函数
Softmax
函数交叉熵交叉熵的代码实现三、【手写数字识别】之优化算法设置学习率学习率的主流优化算法一
联言命题
·
2020-08-17 02:02
飞浆Paddle学习
深度学习(十五):目标定位 Object Localization
吴恩达老师的深度学习系列视频吴恩达老师深度学习笔记整理深度学习500问笔记下载:深度学习个人笔记完整版图像分类图片分类问题已经并不陌生了,例如,输入一张图片到多层卷积神经网络,它会输出一个特征向量,并反馈给
softmax
打不死的小黑
·
2020-08-17 00:39
深度学习
计算机视觉
深度学习
计算机视觉
Sess.run()解释下
例如:cost=tf.reduce_mean(tf.nn.
softmax
_cross_entropy_with_logits(logits=pred,labels=labels_placeholder)
BobKings
·
2020-08-16 23:19
小tip
定位、识别;目标检测,FasterRCNN
定位:针对分类利用
softmax
损失函数,针对定位利用L2损失函数(或L1、回归损失等)人关节点检测针对连续变量和离散变量需要采用不同种类的损失函数。
weixin_30611509
·
2020-08-16 21:09
Face R-CNN
T_T文章链接《FaceR-CNN》http://cn.arxiv.org/abs/1706.01061大体的框架保持不变:主要改进点:(1)Centerloss对于最后的二分类,在
softmax
的基础上增加了
shuzfan
·
2020-08-16 20:16
人脸检测(目标检测)
目标检测算法SSD-detector(pytorch实现)
对每一张图片的预测值分别进行如下处理:对每一个bbox取其分数最高(经过
softmax
)的一类作为其类别(注意要先把背景的分数剔除)。取分数排名前k个bbox进行解码。
xiaoju233
·
2020-08-16 20:12
python
深度学习
RPN网络
通过
softmax
判断anchors(9个框),是foreground还是background,再通过boundingboxregression进行修正anchors,也就是进一步确定p
菜鸟知识搬运工
·
2020-08-16 20:19
神经网络
【目标检测】Cascade R-CNN 论文解析
这是CVPR2018的一篇文章,这篇文章也为我之前读R-CNN系列困扰的一个问题提供了一个解决方案:R-CNN在fine-tuning使用IOUthreshold=0.5来防止过拟合,而在分类阶段,使用
softmax
急流勇进
·
2020-08-16 18:49
花书+吴恩达深度学习(一)前馈神经网络(多层感知机 MLP)
目录0.前言1.每一个神经元的组成2.梯度下降改善线性参数3.非线性激活函数4.输出单元4.1.线性单元4.2.sigmoid单元4.3.
softmax
单元5.神经网络宽度和深度的选择6.前向传播和反向传播如果这篇文章对你有一点小小的帮助
zhq9695
·
2020-08-16 17:50
深度学习
CS231n(Spring 2019)Assignment 1 -
Softmax
Preprocessingdefget_CIFAR10_data(num_training=49000,num_validation=1000,num_test=1000,num_dev=500):"""LoadtheCIFAR-10datasetfromdiskandperformpreprocessingtoprepareitforthelinearclassifier.Thesearethe
嫉妒的虚荣
·
2020-08-16 16:13
CS231n
机器学习(四)从信息论交叉熵的角度看
softmax
/逻辑回归损失
机器学习中会常见到
softmax
Loss,逻辑回归损失(或者叫交叉熵损失),这两种损失的来源可以由两方面考虑,一方面可以看做是来源于概率论中的极大似然估计,此部分可参见机器学习(二),另一方面可以看做是来源于信息论中的交叉熵损失
遍地流金
·
2020-08-16 15:13
机器学习
【北京大学】人工智能实践:Tensorflow笔记(二):优化
文章目录2.1损失函数2.2学习率2.3滑动平均2.4正则化2.1损失函数神经元模型:激活函数:神经网络复杂度:损失函数:
softmax
()函数使输出满足概率分布要求,因此可用下图中代码实现交叉熵损失函数
lxg0387
·
2020-08-16 14:38
DL
word embedding之skip gram理解
是由中心词到周围词小周亲手画的上图中,首先输入中心词的onehot编码,与矩阵W1相乘,获取中心词的词向量;接着与矩阵W2相乘,相当于中心词的词向量与每一个其他词的词向量相乘,向量内积可以代表余弦相似性,然后输入
softmax
fff2zrx
·
2020-08-16 14:22
机器学习
2019/6/1CS231n课程笔记(线性分类器)
作业:k-最近邻法线性分类器,svm和
softmax
两层卷积神经网络numpy,向量化张量计算。第二章semecticgapintraclassCIFAR10数据集。
荣荣闲不住
·
2020-08-16 12:32
神经网络优化方法 来自北京大学 人工智能实践视频
a.二次代价函数w,b梯度与激活函数梯度成正比b.对数释然代价函数c.交叉熵代价函数对数释然函数+
softmax
交叉熵+sigmoid2.激活函数3.学习率:4.滑动平均:滑动平均(影子值):记录了每个参数一段时间内过往值的平均
Yang8465
·
2020-08-16 11:47
人工智能
TensorFlow学习笔记(自用)
一、
softmax
层作用:将一个神经网络的输出变成一个概率分布。原始的输出被用作置信度来生成新的输出,这个输出满足概率分布的所有要求。
阳光非宅男
·
2020-08-16 11:31
机器学习/TensorFlow
统计学习方法 第6章:逻辑斯蒂回归
统计学习方法第6章:逻辑斯蒂回归1提出模型2参数估计2.1目标函数2.2梯度下降法3相关理论细节3.1广义线性模型3.2模型可解释性4logistics多分类模型4.1改进思路4.2学习策略4.3
softmax
zhanzi1538
·
2020-08-16 10:07
机器学习
统计学习方法
Tensorflow案例4:Mnist手写数字识别(线性神经网络)及其局限性
学习目标目标应用matmul实现全连接层的计算说明准确率的计算应用
softmax
_cross_entropy_with_logits实现softamx以及交叉熵损失计算说明全连接层在神经网络的作用应用全连接神经网络实现图像识别应用
Kungs8
·
2020-08-16 10:44
Tensorflow
人工智能
python
Mnist
cs231n作业(三)
softmax
分类
一、作业说明CS231n的第三次作业,要求写一个基于
softmax
的多分类程序,实现cifar10的多分类功能,程序中应当体现损失函数计算、梯度计算、交叉验证选择参数、权重可视化等功能。
wjp_ctt
·
2020-08-16 09:28
深度学习
深度学习
cs231n
python
cifar10
计算机视觉
tf.losses.
softmax
_cross_entropy()及相邻函数中weights参数的设置
label为0的像素点特别多,数据不平衡,所以考虑对label为0的sample设置权重为0.1,其他class权重为1.查看tensorflow文档(需要科学上网),该函数的参数为:tf.losses.
softmax
_cross_entropy
赤道6号转向发动机
·
2020-08-16 09:59
tensorflow
CS231n作业笔记2.1:两层全连接神经网络的分层实现
参考资料:CS231n课程笔记4.2:神经网络结构,CS231n课程笔记4.1:反向传播BP,CS231n作业笔记1.6:神经网络的误差与梯度计算,CS231n作业笔记1.5:
Softmax
的误差以及梯
silent56_th
·
2020-08-16 08:47
神经网络
cs231n
CS231n课程笔记
斯坦福CS231n项目实战(四):浅层神经网络
RedstoneWill的GitHub我的微信公众号:红色石头的机器学习之路(ID:redstonewill)神经网络(NeuralNetwork)是一种非线性分类器,有别于之前介绍的线性分类器SVM和
Softmax
红色石头Will
·
2020-08-16 08:39
机器学习
深度学习
斯坦福CS231n
斯坦福cs231n课程剖析
利用keras在时间步与维度上同时实现注意力机制的LSTM模型
目录注意力机制实现方法测试数据注意力层构造结果注意力机制实现方法现在已经有很多篇文章对注意力机制进行了介绍,简单来说,注意力机制可以通过下面操作实现:引入一层激活函数为
softmax
的全连接层,输出一组权重来代表注意力
zhiyouwoailingboli
·
2020-08-16 07:48
【机器学习】动手写一个全连接神经网络(三):分类
多分类神经网络使用
softmax
+crossentropy组成最终的多分类代价函数J。为什么要用这个代价函数,可能需要广义线性模型的知识。简单来说就是最大化分类函数的熵。
artzers
·
2020-08-16 07:49
python
模式识别与机器学习
TensorFlow - 手写数字识别 (MNIST), 多类分类 (multiclass classification) 问题
TensorFlow-手写数字识别(MNIST),多类分类(multiclassclassification)问题flyfish
softmax
版Python3.6编译importtensorflowastf
flyfish1986
·
2020-08-16 06:35
深度学习
mnist数据集tensorflow实现
TensorFlow——CNN实现MNIST手写体识别2019年04月08日21:46:19星空Ice_阅读数83文章目录TensorFlowCNN实现MNIST1,数据集2,回归模型——
Softmax
3
dibuxue3246
·
2020-08-16 06:29
机器学习(11.2)--神经网络(nn)算法的深入与优化(2) -- QuadraticCost、CorssEntropyCost、
SoftMax
的javascript数据演示测试代码
HTML和JS,把代码复制到一个文本文件中,文本文件命名为test.html,保存后双击运行即可本文包含QuadraticCost(二次方代价函数)、CorssEntropyCost(交叉商代价函数)、
SoftMax
雨落那秋林
·
2020-08-16 06:04
python
机器学习
javascript
机器学习(11.5)--神经网络(nn)算法的深入与优化(5) --
softmax
的代码实现
在前面的TensorFlow实例(4)--MNIST简介及手写数字分类算法中用到TensorFlow自带了一个
softmax
的激活函数同时机器学习(11.2)--神经网络(nn)算法的深入与优化(2)-
雨落那秋林
·
2020-08-16 06:04
python
机器学习
损失函数总结以及python实现:hinge loss(合页损失)、
softmax
loss、cross_entropy loss(交叉熵损失)...
所以先来了解一下常用的几个损失函数hingeloss(合页损失)、
softmax
loss、cross_entropyloss(交叉熵损失):1:hingeloss(合页损失)又叫Multiclass
ancihe9168
·
2020-08-16 05:54
网络模型(MLP-全连接神经网络)
损失函数:交叉熵(CrossEntropyLoss),自带one-hot类型和
softmax
。输出:one-hot类型,结果为最大的索引值。网络importtorchf
曲奇喵
·
2020-08-16 05:44
AI
TensorFlow入门(四)——MNIST入门
Softmax
回归介绍
softmax
回归(
softmax
regression)分两步:第一步为了得到一张给定图片属于某个特定数字类的证据(evidence),我们对图片像素值进行加权求和。
SmallSausage
·
2020-08-16 05:36
TensorFlow
MNIST机器学习入门
如果你已经了解MNIST和
softmax
回归(
softmax
regression)的相关知识,你可以阅读这个快速上手教程。当我们开始学习编程的时候,第一件事往往是学习打印”HelloWorld”。
两只橙
·
2020-08-16 05:38
机器学习
TensorFlow的MNIST手写数字分类问题 基础篇
目录数据集
softmax
模型实现回归模型训练模型评估模型数据集MNIST数据集的官网是YannLeCun’swebsite.在这里,我们提供了一份python源代码用于自动下载和安装这个数据集.你可以下载这份代码
一个双子座的洁宝
·
2020-08-16 04:42
tensorflow文档笔记
tensorflow笔记
【Python 3.6】任意深度BP神经网络综合练习(非卷积网络),根据斯坦福cs231n课程编写
隐含层使用的激活函数:ReLU函数输出层使用的损失函数:
Softmax
函数训练集数据特征数量(即维度):32×32×3,3表示有RGB三个色彩通道。训练集数据量:1000个验证集数据量:1000个由
WilliamS1995
·
2020-08-16 04:40
基本知识
TensorFlow之计算交叉熵的函数 tf.nn.sparse_
softmax
_cross_entropy_with_logits
tf.nn.sparse_
softmax
_cross_entropy_with_logitstf.nn.sparse_
softmax
_cross_entropy
hia_echo
·
2020-08-16 02:51
TensorFlow
论文研读笔记《OSLNet: Deep Small-Sample Classification with an Orthogonal
Softmax
Layer》
OSLNet:DeepSmall-SampleClassificationwithanOrthogonal
Softmax
LayerOSLNet:具有正交
Softmax
层的深小样本分类1、文章简述文章表明由多个非线性层组成的深层神经网络形成了一个大的函数空间
帅天(^▽^)o
·
2020-08-15 23:42
UFLDL教程的卷积神经网络(CNN)实现
最早的一个成功应用是在20世纪90年代,LeCun等人开发的读取支票的卷积网络LeNet-5.卷积神经网是由几个相互交替的卷积层(convolutionlayer)和池化层(poolinglayer),最后再是一个用作
softmax
凡小成
·
2020-08-15 23:36
机器学习
cnn
win10+GTX1050Ti+anaconda3+tensorflow1.12.0+cuda9.2+cudnn7.4.1
1tensorflow1.14.0与keras2.2.4不匹配导致的问题:TypeError:
softmax
()gotanunexpectedkeywordargument'axis’网络解决方法:https
larry_do
·
2020-08-15 15:49
深度学习
【论文整理】DNN-Face-Recognition-Papers Feature Normalization/Loss Function Method
FeatureNormalization/LossFunctionMethodLarge-Margin
Softmax
LossforConvolutionalNeuralNetworks(L-
Softmax
loss
DrogoZhang
·
2020-08-15 04:39
TensofFlow学习记录:全局均值池化
对于分类任务,最后一个卷积层得到的特征图被向量化然后送入全连接层,接一个
softmax
逻辑回归
Barcelooooooooona
·
2020-08-14 21:20
深度学习
TensorFlow
在keras中,centerloss实战lambda
blog.csdn.net/DumpDoctorWang/article/details/84204476代码可以直接拿来用,由于实验室服务器tensorflow版本比较旧,报错:TypeError:
softmax
William_Yue91
·
2020-08-14 20:10
深度学习
深度学习(deep learning)之一步一步实现编写深度神经网络(DNN)
分类器以
softmax
为例。第一步:准备数据1)将你需要分类的样本数据以每列的形式保存于矩阵中;->TrainData2)将每个样本的类
tdkufo
·
2020-08-14 19:20
算法
机器学习算法之SVM的多分类
同样是二分类的情况,logistic回归可以直接拓展为
softmax
多分类。
王里扬洛夫
·
2020-08-14 19:28
机器学习算法
机器学习学习笔记:用LeNet处理MNIST数据集
网络的结构是:INPUT=>CONV=>ACT=>POOL=>CONV=>ACT=>POOL=>FC=>ACT=>FC=>
SOFTMAX
见下
qq_27158179
·
2020-08-14 18:29
深度学习
AI——音乐分类器
假如做十分类,就用十个文件夹来存储然后首先要做的事情就是选用分类算法分类算法是有监督机器学习,常用的分类算法有logisticsregression,randomtree,xgboost,
softmax
驿无边
·
2020-08-14 16:02
AI学习
【第三周】论文学习笔记
本文设计了一个选择性内核单元(SK)的构建块,多个具有不同卷积核大小的分支,通过
Softmax
的分类后,根据权重进行融合。
陳半仙
·
2020-08-14 15:00
【ncnn】源码阅读理解(六)——net::forward
1.ncnn的3层封装ncnn在实现前向推理的时候主要进行了3层封装,分别是:具体的网络层类layer,如卷积层,池化层,concat层,split层,输出
softmax
层Net,将所有的layer和中间的数据
农夫山泉2号
·
2020-08-14 14:31
深度学习框架
解剖caffe:Forward 和 Backward
数据通过内积层传递到,然通过
softmax
函数传递到以及
softmax
损失给反向通路在损失函数处开始,并计算关于输出的梯度。关于模型其余部分的梯度通过链式规则逐层计算。
RornShi
·
2020-08-14 13:27
caffe
深度学习
caffe中backward过程总结
softmax
withlosslayer:按理说每一层应该都要求一层梯度,其中包括对权值
Buyi_Shizi
·
2020-08-14 13:16
Deep
Learning
上一页
62
63
64
65
66
67
68
69
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他