E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
ReLU激活函数
softmax
激活函数
与softmax损失函数
一、softmax()
激活函数
在二分类任务中,输出层使用的
激活函数
为sigmoid,而对于多分类的情况,就需要用到softmax
激活函数
给每个类都分配一个概率。
請叫我做雷锋
·
2022-12-11 15:26
深度学习
深度学习
Yolov3代码实现
Yolov3voc数据集构建文件VOC数据集dataset构建文件VOC2CSVYolov3配置文件模型backbone构建yolohead预测文件conv层模块代码文件残差模块
激活函数
模块损失函数模块特征金字塔
为算法工程师
·
2022-12-11 14:11
CV-图像处理
深度学习
目标检测
计算机视觉
深度学习20问--知识点1
这里写目录标题一级目录二级目录三级目录1、退化2、伪标签Pseudo-Label3、网格搜索Gridsearch4、
激活函数
总结ReluLeakyReLUPRelu(参数化修正线性单元)RReLU(随机纠正线性单元
飞翔的河马F
·
2022-12-11 14:55
20问系列
基于BP神经网络的交通安全预警模型及代码实例
二、模型构建1.模型输入输出指标的选取2.模型结构设计3.层数的确定4.各层神经元个数的确定5.
激活函数
及输出层的确定6.初始权重值、学习速率的确定三代码构成及原始数据训练结果总结前言本人小白,本博客仅用作本人学习记录使用
weixin_48557841
·
2022-12-11 13:55
神经网络
网络
人工智能
李宏毅seq2seq(RNN LSTM GRU seq2seq)
隐藏层的
激活函数
选用tanh函数(李沫大神的《动手学深度学习》是使用这个
激活函数
),对于分类问题输出层选用softmax为
激活函数
。笔者还看过另一种说法,是直接将隐藏状态连结,计算最终输出。
qq_43501578
·
2022-12-11 11:40
算法
rnn
nlp
深度学习
MATLAB算法实战应用案例精讲-【神经网络】
激活函数
:tanh(附MATLAB、R语言、Python和C++代码)
目录前言几个高频面试问题1.sigmoid和tanh的区别与联系2.tanh相比sigmoid的优势有哪些?
林聪木
·
2022-12-11 10:56
matlab
算法
神经网络
神经网络与深度学习 作业4:第四章课后题
目录五道习题习题4-2习题4-3习题4-7习题4-8习题4-9参考文献心得体会五道习题习题4-2 试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用
ReLU
红肚兜
·
2022-12-11 09:39
Lecture6:
激活函数
、权值初始化、数据预处理、批量归一化、超参数选择
目录1.最小梯度下降(Mini-batchSGD)2.
激活函数
2.1sigmoid2.2tanh2.3
ReLU
2.4LeakyReLU2.5ELU2.6最大输出神经元2.7建议3.数据预处理4.如何初始化网络的权值
Courage2022
·
2022-12-11 09:34
计算机视觉与深度学习
深度学习
人工智能
深度学习理论知识
小卷积代替大卷积vs深度可分离卷积深度学习笔记(二):Normalization(原因、BN、WN、LN、IN、权重数据伸缩不变性)_呆呆象呆呆的博客-CSDN博客_wn和in的关系材料力学深度学习笔记(三):
激活函数
比较分析
m0_61899108
·
2022-12-11 09:01
知识学习系列
深度学习
cnn
神经网络
人工智能
作业4:第四章课后习题
目录习题4-2试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用
ReLU
作为
激活函数
。
cdd04
·
2022-12-11 09:00
深度学习
人工智能
神经网络
构建RNN(Recurrent Neural Network)
RNN网络每次读取一个输入X(t),输入信息从当前时间步传到下一步的过程中,网络隐含层的
激活函数
会“记住”一些信息或上下文内容。这种机制允许单向RNN从前面的输入中获取信息以处理后续输
冲动老少年
·
2022-12-11 07:51
吴恩达《深度学习》
RNN
LSTM
吴恩达
基础篇:简单神经网络模型的构建
文章目录1.TensorFlow基础知识1.张量的构建2.张量的转换3.张量的运算2.神经网络模型建立1.线性神经网络2.
激活函数
3.损失函数4.优化器5.构建神经网络模型6.梯度消失与梯度爆炸1.TensorFlow
雪薇儿
·
2022-12-11 07:18
机器学习
python
使用人工神经网络预测股票价格
《PythonMachineLearningByExample》ThirdEdition第八章笔记文章目录1本章内容介绍2从浅层神经网络到深度学习2.1神经层2.2
激活函数
2.3反向传播2.4深度学习3
jsBeSelf
·
2022-12-11 07:46
机器学习笔记
神经网络
机器学习
人工智能
李宏毅深度学习笔记——深度学习基本概念
Activationfunction:
激活函数
。1958年,计算科学家Rosenblatt提出了由两层神经元组成的神经网络。在“感知器”中,有两个层次。分别是输入层和输出层。
在水一方_果爸
·
2022-12-11 04:51
神经网络
算法
深度学习
NNDL 作业4:第四章课后题
习题4-2 试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用
ReLU
作为
激活函数
。
HBU_Hbdwhb
·
2022-12-11 01:14
深度学习
人工智能
神经网络
对抗攻击常见方法汇总
www.cnblogs.com/tangweijqxx/p/10615950.html2、参数解释详细:https://blog.csdn.net/qq_35414569/article/details/80770121
激活函数
学习链接
^码农翻身^
·
2022-12-11 00:26
深度学习
人工智能
【ML】逻辑回归(LogisticRegression)原理+实践(基于sklearn)
逻辑回归最核心的便是
激活函数
,而最常用的便是sigmoid函数:P(x)=11+e−xP(x)=
胡子哥_
·
2022-12-10 21:38
机器学习
算法
sklearn
逻辑回归
LR多分类与softmax分类
,其实现思路如下:将多分类模型拆分成多个二分类模型分别训练二分类模型将多个二分类模型进行集成,选取概率值最大的那个作为最终的分类结果.logistic函数(sigmoid函数)该函数常被用作神经网络的
激活函数
han_liwei
·
2022-12-10 20:57
深度学习
python
深度学习模型训练完之后预测的数据差不多(模型预测输出数据一样)(训练结果一样)
模型训练之后输出的内容一样第一种可能性是某一种数据的分布过多造成数据分布不均匀第二种可能性是开头的标签被mask掉了第三种可能性:模型结构问题第四种情况:模型的
激活函数
出现问题第五种情况:对于padding
唐僧爱吃唐僧肉
·
2022-12-10 18:03
kaggle比赛感悟
报错问题解决
深度学习
人工智能
机器学习
AIIC学习日记-CNN篇
文章目录AI吴恩达(DL部分)记录一下,2019-11-x初识CNN记录一下,2020-1-x
激活函数
ReLu
记录一下,2020-2-1神经网络有关名词记录一下,2020-2-10大体结构和历史记录一下
木兮梓淅伏所伊
·
2022-12-10 17:14
AIIC
神经网络
算法
机器学习
深度学习入门-03 实现一个简单的神经网络
文章目录1.神经网络2.
激活函数
2.1sigmoid
激活函数
和阶跃函数对比2.2
激活函数
为什么使用非线性的2.3另一常用
激活函数
-
ReLU
函数2.4leakyrelu函数2.5softmax函数2.6tanh
我不止三岁
·
2022-12-10 15:23
深度学习
深度学习
神经网络
人工智能
分类
深度学习—
激活函数
(一)
神经元神经元通常具有多个树突,主要用来接受传入信息;而轴突只有一条,轴突尾端有许多轴突末梢可以给其他多个神经元传递信息。轴突末梢跟其他神经元的树突产生连接,从而传递信号。这个连接的位置在生物学上叫做“突触”。人脑中的神经元形状可以用下图做简单的说明:感知器是最古老的神经网络,由FrankRosenblatt于1958年创建。它有一个神经元,是神经网络最简单的形式,它们由输入层、一个或多个隐藏层以及
楠树已成舟
·
2022-12-10 15:51
深度学习
深度学习
人工智能
YOLOv4:目标检测的最佳速度和精度
2020CVPR目录1.YOLOv4介绍2.YOLOv4网络结构2.1Backbone改进2.2Neck改进3.YOLOv4训练策略3.1BackBone训练策略4.BackBone推理策略4.1Mish
激活函数
深度之眼
·
2022-12-10 15:26
深度学习干货
深度学习
人工智能
计算机视觉
注意力机制模块
为通道注意力机制模块实现方式:1.首先对输入进来的特征层进行一个全局池化,将【b,c,h,w】->【b,c,1,1】2.对全局池化后的特征条进行两次全连接操作,第一次全连接操作生成一个较为短的特征条,之后用一个非线性的
ReLU
香菇炸酱面
·
2022-12-10 14:06
深度学习
人工智能
nn.Module模型搭建
pytorch搭建模型和layers(2022*7*16)"""层是数据操作的基本单位,一个层将输入数据做一些操作(张量乘除Y=W*X,
激活函数
A=F(W*X+B))输出给下一层模型就是一些层堆叠起来,
qq_43625764
·
2022-12-10 14:31
小助手
笔记
深度学习
python
机器学习
深度学习系列之随机梯度下降(SGD)优化算法及可视化
补充在前:实际上在我使用LSTM为流量基线建模时候,发现有效的
激活函数
是elu、
relu
、linear、prelu、leaky_
relu
、softplus,对应的梯度算法是adam、mom、rmsprop
XOR酸菜鱼
·
2022-12-10 14:55
深度学习
机器学习
深度学习
pytorch
tensorflow
神经网络
RNN-LSTM-GRU学习笔记
RNN与bptt推导过程2.rnn一些基本概念以及问题分析参考文章-1RNN中为什么要采用tanh而不是
ReLu
作为
激活函数
?常见问题:1.RNN是什么?RNN是循环神经网络的简称。
kingsam_
·
2022-12-10 11:05
机器学习理论学习
机器学习
RNN-BPTT 笔记
我主要是参考如下文章理解的:数学·RNN(二)·BPTT算法-知乎其中:这一步划红线的地方是如何理解的:从这张图可以大概看出Lt和W的关系:我一开始单纯的理解成Lt是W的高次项函数(这里将所有
激活函数
当线性函数去简化推导的复杂性
fire_lch316
·
2022-12-10 11:33
机器学习
rnn
深度学习
神经网络
BPTT
resnet(3)------卷积层与
激活函数
与池化层
文章目录一.卷积层二.
激活函数
1.Sigmoid函数2.tanh函数3.
Relu
函数三.池化层一.卷积层上一篇文章我们讲到过可以通过控制卷积层的个数来提取图像的不同特征,但是事实上卷积是一种线性运算,更准确的说是一种线性加权运算
WFForstar
·
2022-12-10 11:01
笔记
深度学习
神经网络
AI-机器学习(11)-神经网络-前向传播
1.我们构建的过程图2.符号说明3.每步公式3.1输入到第一个隐藏层3.2第二个隐藏层3.3第二个隐藏层到输出3.4
激活函数
4.过程图代码5.损失函数公式与对应代码(L2正则
多云的夏天
·
2022-12-10 08:41
AI基础算法
机器学习实战11-训练深层神经网络
目录一、梯度消失/爆炸问题1.1、Xavier(Glorot)初始化(使用逻辑
激活函数
):1.2、He初始化(
ReLU
激活函数
及其变体,包括简称ELU激活):1.3、非饱和
激活函数
leakyReLUELUSELU1.4
菜鸟知识搬运工
·
2022-12-10 08:41
神经网络
caffe不支持
relu
6_国产AI框架再进化!百度Paddle Lite发布:率先支持华为NPU在线编译,全新架构更多硬件支持...
乾明边策发自凹非寺量子位报道|公众号QbitAI国产AI框架飞桨刚刚带来新进化:PaddleLite正式发布!高扩展、高性能、轻量化,还是首个支持华为NPU在线编译的深度学习端侧推理框架,剑指加大力度攻占移动端侧场景。而且大环境如此,这样的自主研发基础框架进展,也有了更多的寄寓。诚意和实力方面也值得称道。针对更广泛、更异构的AI硬件支持,是PaddleLite的核心亮点之一。此次升级发布,Padd
weixin_39611413
·
2022-12-10 08:07
caffe不支持relu6
2021SC@SDUSC YOLO5源码分析 (6)
激活函数
2021SC@SDUSC2021/10/27第一次修改本文分析yolov5的uitls.activations.pyutil包中的activation.py中定义了一些便于导出的
激活函数
,其中不少
激活函数
是近两年新出的
zzzlnb
·
2022-12-10 07:20
计算机视觉
深度学习
神经网络
目标检测
cnn
YOLOv5 网络组件与
激活函数
Pythonisinstance()函数【3】python-理解python嵌套一行for循环【4】python单斜杠/和双斜杆//的区别【5】in的详解【6】groupconvolution(分组卷积)【7】SILU
激活函数
weixin_42036268
·
2022-12-10 07:16
目标检测
python
深度学习
Yolov5
激活函数
这个activation.py文件,这个文件是Yolov5中使用的全部
激活函数
,不同版本可能里面的函数命名方式不一样,但是实现原理是一样的。
反正也没人看我的昵称
·
2022-12-10 07:33
YOLO
深度学习
人工智能
CS231n-Lecture9:CNN架构
深度残差学习referenceAlexNet1.CONV1输入数据:227×227×3卷积核:11×11×3(步长:4;数量:96)卷积后数据:55×55×96
relu
1后的数据:55×55×96Maxpool1
二叉树不是树_ZJY
·
2022-12-10 06:25
CS231n
卷积
神经网络
人工智能
神经网络——Python实现RBF 网络模型的实际应用
其特点是隐节点数等于输人样本数,隐节点的
激活函数
为Green函数,常具有式a(r)=exp(-r的平方/2*σ的平方)的Gauss形式,并将所有输入样本设为径向基函数的中心,各径向基函数取统一的扩展常数
小凌Candy
·
2022-12-10 06:19
神经网络
机器学习
算法
深度学习
python
神经网络
轻量级网络MicroNet--低FLOPs的实现:卷积与
激活函数
的改进
论文地址:《MicroNet:TowardsImageRecognitionwithExtremelyLowFLOPs》亮点卷积:稀疏连通性,避免了网络宽度的大幅度缩减;
激活函数
:动态
激活函数
,减轻了网络深度缩减
胖虎记录学习
·
2022-12-10 03:35
目标分类网络
cnn
深度学习
人工智能
【读点论文】MicroNet: Towards Image Recognition with Extremely Low FLOPs,在极高限制下的轻量化网络
提出了一个新的动态
激活函数
--DynamicShiftMax,通过最大化输入特征图与其循环通道移位之间的多个动态融合来改善非线性。在这两个新操作的基础上,得到
羞儿
·
2022-12-10 02:31
论文笔记
网络
深度学习
人工智能
轻量化网络
【目标检测】ObjectDetection结构组成理解
1.1Backbone1.2Neck1.3Head1.4总结2.目标检测其他组成部分2.1Bottleneck2.2GAP2.3Embedding2.4Skip-connections2.5正则化和BN方式2.6损失函数2.7
激活函数
Delv_Peter
·
2022-12-10 02:28
深度学习——目标检测
神经网络
计算机视觉
算法
卷积
深度学习
【目标检测算法】YOLO-V5网络框架与代码分析
网络架构与组件1.1Focus模块1.2CSPNet模块1.3SPP(SpatialPyramidPooling)1.4PANet(Path-AggregationNetwork)二YOLOv5代码2.1
激活函数
及代码
三木今天学习了嘛
·
2022-12-10 01:26
#
目标检测
目标检测
算法
网络
对残差网络(ResNet/Residual Network)的基础理解
普通网络:假设有一个神经网络如上图所示,包含两个层(weightlayer1、weightlayer2,无
激活函数
)那么对这个神经网络进行一次正向传播+反向传播的过程为:正向传播:输入x,经过第一层,f
JunyiChen_robot
·
2022-12-10 00:05
深度学习
学习
深度学习
神经网络
深度学习:神经网络中为什么需要使用
激活函数
?(超详细)
一、百度百科我们先看下百度百科的解释:如果不用
激活函数
,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptron)。
JJJasmine的H君
·
2022-12-09 22:19
深度学习
激活函数
神经网络
Keras自定义模型
shape=(32,))#构建一个输入张量#层layer的实例对象是callable的,他接受一个tensor,并返回一个处理之后的tensorx=layers.Dense(64,activation='
relu
kang0709
·
2022-12-09 18:55
Tensorflow
tensorflow
机器学习
深度学习
resnet
《深度学习 第五章 深度学习用于计算机视觉3》
卷积神经网络可视化深度学习模型很多很难可视化,但卷积神经网络学到的表示非常适合可视化1.可视化中间激活可视化中间激活,指对于给定输入,展示网络中各个卷积层,池化层的输出特征图,(输出通常被称为该层的激活,即
激活函数
的输出
逆夏11111
·
2022-12-09 17:00
深度学习
浅谈卷积神经网络
1、
激活函数
在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为
激活函数
(又称激励函数)。
大家都要开心
·
2022-12-09 16:07
cnn
人工智能
神经网络
论文阅读:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
BN是对CNN中间层featuremap在
激活函数
前进行归一化操作,让他们的分布不至于那么散,这样的数据分布经过
激活函数
之后更加有效,不至于进入到Tanh和
贾小树
·
2022-12-09 16:14
论文阅读
深度学习
目标检测
Transformer综述1——《A Survey on Visual Transformer》
《ASurveyonVisualTransformer》摘要将视觉Transformer应用到不同的任务中,分析优缺点,回顾自注意力机制背景介绍多层感知和全连接层是经典的神经网络,有多线性层和非线性
激活函数
白日梦想家April_Liu
·
2022-12-09 15:40
Transformer相关
transformer
神经网络
深度学习
深度学习相关基础理论
反向传播与梯度下降算法在深度学习中最重要的算法莫过于反向传播算法(BackPropagation,BP)和梯度下降算法(GradientDescent,GD),从宏观上理解深层神经网络中的这两个算法,前项传播经
激活函数
输入到后一层
Reflect2022
·
2022-12-09 15:09
AI进阶之路
深度学习
神经网络
机器学习
pytorch导出onnx简单易懂(固定输入尺寸以及动态输入尺寸)
self.ClassifierLayer=nn.Sequential(nn.Conv2d(in_channels=3,out_channels=4,kernel_size=3,stride=1),nn.
ReLU
木辛叔叔
·
2022-12-09 15:12
pytorch
python
深度学习
上一页
52
53
54
55
56
57
58
59
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他