E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
ReLU激活函数
Hopfield神经网络的通俗理解
前馈型神经网络通过引入隐层及非线性转移函数(
激活函数
)使得网络具有复杂的非线性映射能力。前馈网络的输出仅由当前输入和权矩阵决定,而与网络先前的输出状态无关。
changdejie
·
2022-12-08 00:39
ResNet18实现——MNIST手写数字识别(突破0.995)
4.设置nn.
ReLU
()的参数inplace=
专注认真努力
·
2022-12-07 21:45
CNN
深度学习
pytorch
人工智能
Tensorflow框架——keras.layers 各种网络层介绍
所有的层都包含一个输入端和一个输出端,中间包含
激活函数
以及其他相关参数等。1Dense层(全连接层)参考的是“nick_0126”的博客“k
谜底是你_
·
2022-12-07 20:52
Tensorflow深度学习
python
深度学习
神经网络
卷积神经网络
数据仓库与数据挖掘-神经网络 个人笔记
神经网络感知机(M-P神经元模型)感知机
激活函数
BP神经网络异或问题多层神经网络下的异或问题p、q为输入,OR、NAND为隐藏层,AND为输出多层神经网络的
激活函数
:Sigmoid(x)BP神经网络的结构
大寒_Zz
·
2022-12-07 20:48
神经网络
数据挖掘
机器学习
NNDL 实验五 前馈神经网络(2)自动梯度计算 & 优化问题
利用预定义算子重新实现前馈神经网络4.3.2完善Runner类4.3.3模型训练4.3.4性能评价4.4优化问题4.4.1参数初始化4.4.2.1模型构建4.4.2.2使用Sigmoid型函数进行训练4.4.2.3使用
ReLU
.星.
·
2022-12-07 20:47
关于CNN的可解释性
1.认识CNNCNN主要就是由Conv、
ReLU
、Pooling层堆叠而成。当输入图片给CNN网络,经过不同的操作,会产生各种中间图,如下图。
CV算法恩仇录
·
2022-12-07 20:12
python
深度学习
计算机视觉
机器学习
人工智能
【pytorch函数笔记(二)】torch.nn.Sigmoid()
importtorch.nnasnntorch.nn.Sigmoid()一、sigmoid介绍 sigmoid是
激活函数
的一种,它会将样本值映射到0到1之间。
榴莲味的电池
·
2022-12-07 18:56
pytorch
torch
Sigmoid
深度学习
pytorch
初识神经网络(Neural Networks)——快速入门神经网络和重要概念
更多视频访问:https://b23.tv/gCAuMHP1.1神经元——最小的神经网络特征x和权重W相乘,f为
激活函数
,b为偏移值1.2神经网络的训练流程2.1神经网络的矩阵运算(前向计算)神经网络=
Ivy_law
·
2022-12-07 17:45
深度学习
神经网络
【学习经验分享NO.15】python画Sigmoid,
ReLU
,Tanh等
激活函数
文章目录前言一、
激活函数
介绍1.Sigmoid2.tanh3.
ReLU
二、实现代码三、曲线图展示总结前言大论文理论部分需要介绍
激活函数
,需要自己贴图,用python画图比matlab好很多,推荐,可以根据自己的需要对代码进行注释得到相应的
激活函数
曲线
人工智能算法研究院
·
2022-12-07 14:20
学习经验分享
python
学习
开发语言
pytorch学习笔记03-nn.Module-卷积-池化-
激活函数
nn.functional(4)nn.init3.Containers(1)nn.Sequential(2)nn.ModuleList(3)nn.ModuleDict4.卷积5.转置卷积6.池化7.线性层8.
激活函数
marvel2018
·
2022-12-07 12:18
pytorch
深度学习
pytorch学习(五)---torch.nn模块
本节介绍一些torch.nn模块的常用层,包括卷积层、池化层以及
激活函数
等。首先是卷积层:torch.nn.Conv2d():主要参数有:in_channel:输入的通道数;out
橘春十三99
·
2022-12-07 12:46
pytorch
学习笔记
python
深度学习
pytorch
【Tensorflow学习一】神经网络计算过程: 搭建第一个神经网络模型
tensorflow中的数学运算函数Tensorflow的数据标签和特征配对函数tf.GradientTape某函数对指定参数进行求导运算enumerate枚举tf.one_hot独热编码tf.nn.softmax
激活函数
Chen的博客
·
2022-12-07 12:46
Tensorflow
tensorflow
python
学习
PyTorch【5】torch.nn模块常用层与
激活函数
一.卷积层1.Conv2d参数conv2d=torch.nn.Conv2d(in_chinnels,#(整数)输入图像的通道数out_channels,#(整数)经过卷积后输出的通道数kernel_size,#(整数或数组)卷积核的尺寸stride=1,#(整数或数组)卷积的步长padding=0,#(整数或数组)在输入两边进行0填充的数量dilation=1,#(整数或数组)卷积核元素之间的步幅
Acewh
·
2022-12-07 12:15
PyTorch框架学习
pytorch
深度学习
计算机视觉
算法实习准备之三:(优化方法)梯度下降/正则化(过拟合)/
激活函数
动量法Momentum自适应学习率算法AdagradAdam自适应矩估计正则化过拟合overfitting与欠拟合如何判断过拟合参数范数惩罚L1正则化L2正则化L1和L2的区别Dropout神经网络的
激活函数
雾容
·
2022-12-07 12:14
算法实习准备
算法
机器学习
神经网络
深度学习
torch.nn.functional
非线性
激活函数
torch.nn.functional.threshold(input,threshold,value,inplace=False)torch.nn.functional.
relu
(input
big_matster
·
2022-12-07 12:44
模块复现
人工智能
深度学习
python
torch.nn神经网络(2)--池化层+非线性
激活函数
(
ReLU
和Sigmiod)+Sequential()函数的使用
nn.Module神经网络4.池化层池化层:池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。本质是降采样,减少网络的参数量还是老规矩,导入模块及数据集,CIFAR10,batchsize=64:importtorchimporttorchvisionfromtorchimportnnfromtorch.nnimportMaxPool2dfromtorch.utils.data
CYHR_2489
·
2022-12-07 12:43
神经网络
pytorch
深度学习
神经网络入门(一)
神经网络入门(一)文章目录神经网络入门(一)1.神经元2.网络结构3.
激活函数
2.1
激活函数
的作用与性质2.2Sigmoid型函数2.3Hard-Logistic函数和Hard-Tanh函数2.4
ReLU
叫我胡萝北
·
2022-12-07 12:42
神经网络
深度学习
【Tensorflow学习二】神经网络优化方法学习率、
激活函数
、损失函数、正则化
tf.wheretf.random.RandomState.rand()返回一个[0,1)之间的随机数np.vstack()将数组按照垂直方向叠加np.mgrid[]np.ravel()np.c_[]一起使用可以生成网格坐标点复杂度、学习率复杂度指数衰减学习率
激活函数
Chen的博客
·
2022-12-07 12:12
Tensorflow
神经网络
学习
numpy
【目标检测】YOLO v1白话理解
YOLOv1网络结构:VGG16+YOLO检测头[[conv+leaky_
relu
]*n+maxPooling]*n+FC-->>7×7×301次下采样通过convs=2实现,5次下采样通过maxpooling
ayitime
·
2022-12-07 12:30
目标检测
深度学习
人工智能
机器学习与深度学习的基本概念
StructedLearing机器学习怎么找这个函数定义含未知参数的函数定义loss损失函数定义优化器optimization写出一个更复杂的有未知参数的函数sigmoid基本推理过程sigmoid函数介绍继续推导
ReLU
尘心平
·
2022-12-07 11:52
#
机器学习——李宏毅
机器学习
深度学习
人工智能
python
回归
alexnet实验偶遇:loss nan, train acc 0.100, test acc 0.100情况,通过bn层加快收敛速度,防止过拟合,防止梯度消失、爆炸
场景:数据集:官方的fashionminst+网络:alexnet+pytroch+
relu
激活函数
源代码:https://zh-v2.d2l.ai/chapter_convolutional-modern
ddrrnnpp
·
2022-12-07 09:53
深度学习
人工智能
机器学习
lenet实验结果对比
调整
激活函数
(如
ReLU
)。relulr=0.1epoch=90调整卷积层的
candylu1009
·
2022-12-07 09:52
深度学习
人工智能
神经网络
神经网络(model.summary())模型层的转换与层参数详解
fromkerasimportlayersfromkerasimportmodelsmodel=models.Sequential()model.add(layers.Conv2D(32,(3,3),activation='
relu
鸠苑
·
2022-12-07 07:25
卷积神经网络
神经网络
tensorflow
Keras model.summary()模型结构计算详解
model.add(Flatten(input_shape=(32,32,3)))#将二维扁平化为一维model.add(Dropout(0.1))model.add(Dense(2048,activation='
relu
番茄Salad
·
2022-12-07 07:54
keras深度学习
keras
深度学习
Logistic回归及其python代码实现
之所以叫Logistic回归,是因为它的算法和线性回归基本上是完全一致的,不同之处在于Logistic回归在线性回归的最后一步的基础上引入了
激活函数
—sigmoid函数
化石草
·
2022-12-07 06:03
机器学习
GNN知识整理
目录1.2.3.4.5.6.7.8.9.10.GCN1.1基础公式:符号解释HlH^lHl表示第l层的输入特征;Hl+1H^l+1Hl+1表示输出特征;wlw^lwl表示线性变换矩阵;σσσ表示非线性
激活函数
hei_hei_hei_
·
2022-12-07 05:07
GNN
深度学习
学习GNN-持续更新中
1.GNN及其他演变算法2.BN层3.内部协变量偏移(InternalCovariateShift)和批归一化(BatchNormalization)4.
激活函数
Relu
及leakyRelu5.转置卷积
河马小白
·
2022-12-07 05:03
深度学习
学习
深度学习
中科大软件学院人工智能2021秋期末考试涉及知识点(回忆版)
激活函数
是sigmoid输入图片size(64,64,3),经过一个有一个隐藏层(100个神经元)的两层全连接,需要多少bits来存储参数?(float64过拟合是什么?怎么判别?
红拂与我奔
·
2022-12-07 02:33
深度学习
机器学习
神经网络
卷积神经网络各层的意义,卷积神经网络各层作用
输入层:输出特征矩阵卷积层:进行卷积运算池化层:进行pooling缩小维度中间激活层:可有可无,一般为
ReLU
类的计算简单的
激活函数
对特征值修正这里卷积层、池化层、中间激活层可以重复全连接层:将特征矩阵集合向量化最后激活层
普通网友
·
2022-12-06 22:34
神经网络
(几种归一化)一文读懂BN、LN、IN、GN
这就造成,上一层数据需要适应新的输入分布,数据输入
激活函数
时,会落入饱和区,
one-莫烦
·
2022-12-06 18:35
深度学习
机器学习
深度学习
极限学习机(Extreme Learning Machine)学习笔记2019.11.15
g(z)为非线性
激活函数
,一般选
weixin_45876155
·
2022-12-06 17:57
《卷积神经网络与计算机视觉》笔记
文章目录1.随机森林(RDF)信息熵信息增益2.神经网络基础神经网络分类学习规则分类多层感知机(MLP)参数学习梯度不稳定问题(梯度爆炸或消失)——
激活函数
选择问题3.循环神经网络(RNN)4.卷积神经网络
DDDouble T
·
2022-12-06 15:35
卷积
神经网络
机器学习
NLP经典论文:TextCNN 笔记
NLP经典论文:TextCNN笔记论文介绍模型结构整体模型输入输出整体流程流程维度输入层输入输出卷积层和
ReLu
激活输入输出过程maxpooling池化层输入输出全连接dropout层与softmax层输入输出过程训练过程优化目标预测过程文章部分翻译
电信保温杯
·
2022-12-06 15:59
论文笔记
自然语言处理
cnn
深度学习
pytorch动手深度学习的笔记[三]
1.对全连接层做批量归一化位置:全连接层中的仿射变换和
激活函数
之间。2.对卷积层做批量归⼀化位
哈喽2020
·
2022-12-06 15:57
深度学习
神经网络
机器学习
数据挖掘
pytorch
NNDL 作业3:分别使用numpy和pytorch实现FNN例题
numpy程序pytorch程序2、
激活函数
Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。3、
激活函数
Sigmoid改变为
Relu
,观察、总结并陈述。
蒂洛洛
·
2022-12-06 15:54
numpy
pytorch
python
在CV/NLP/DL领域中,有哪些修改一行代码或者几行代码提升性能的算法?
圈圈回答:想起来些非常经典的东西1.
relu
:用极简的方式实现非线性激活,还缓解了梯度消失x=max(x,0)2.normalization:提高网络训练稳定性x=(x-x.mean())/x.std(
人工智能与算法学习
·
2022-12-06 15:50
深度学习
计算机视觉
人工智能
算法
神经网络
U-Net 模型改进和应用场景研究性综述
U-Net综述1文章介绍2U-Net介绍3结构改进4非结构改进4.1预处理——数据增强4.2训练——数据归一化4.3训练——
激活函数
4.4训练——损失函数4.5结构改进总结5U-Net应用场景5.1视网膜血管分割
Philo`
·
2022-12-06 13:00
医学图像分割
论文研读
深度学习
python
人工智能
图像处理
神经网络
核函数和
激活函数
和异常检测和聚类(outlier detection)
1.1Linear核函数1.2RBF高斯核函数1.3sigmoid核函数1.4多项式核函数1.5选择核函数的方法1.6核函数对应的参数1.7聚类初始质心的选取1.8聚类算法停止条件1.9聚类距离的度量二、
激活函数
小麦粒
·
2022-12-06 12:17
基本概念
交叉熵损失函数优缺点_交叉熵损失函数的优点(转载)
第一篇:利用一些饱和
激活函数
的如sigmoid激活时,假如利用均方误差损失,那么损失函数向最后一层的权重传递梯度时,梯度公式为可见梯度与最后一层的
激活函数
的导数成正比,因此,如果起始输出值比较大,也即
激活函数
的导数比较小
weixin_39529903
·
2022-12-06 12:57
交叉熵损失函数优缺点
李宏毅机器学习课程笔记
课程资源B站视频课程网址课程笔记问答整理下面仅记录自己的所得所感第一节Regression从单变量回归引入,再sigmoid/
RELU
拟合函数从而一步步到深度学习的框架,介绍的非常巧妙。
三つ叶
·
2022-12-06 11:43
深度学习基础
机器学习
人工智能
机器学习——神经网络
,用程序设计算法模仿大脑的思考方式,提高计算能力人在外接传感器的情况下,大脑可以通过学习来适应,神经网络算法的目的也是为了学习这方面3.神经网络的搭建一个输入单位代表一个神经元输入层、隐藏层、输出层、
激活函数
矩阵参
荒野的雄狮
·
2022-12-06 11:11
机器学习
神经网络
算法
深度学习——AlexNet模型(笔记)
AlexNet是改进的LeNet1.改进的措施:①丢弃法(对模型的控制)②
ReLu
(可以让模型更深层)③MaxPooling(输出的比较大,梯度大,训练的更容易)特征是由卷积提取的2.AlexNet的架构
jbkjhji
·
2022-12-06 11:21
深度学习
人工智能
神经网络
人工智能导论-神经网络篇——反向传输计算及代码实现
0.05,i2=0.10;输出数据o1=0.01,o2=0.99;初始权重w1=0.15,w2=0.20,w3=0.25,w4=0.30;w5=0.40,w6=0.45,w7=0.50,w8=0.55
激活函数
baimuchu
·
2022-12-06 11:45
人工智能导论课
神经网络
深度学习
python
人工智能
PyTorch的模型定义
直接写书写下来即可,不需要写初始化__init__和前向传播forward;importtorchimporttorch.nnasnnnet1=nn.Sequential(nn.Linear(512,256),nn.
ReLU
橙子@橙子
·
2022-12-06 08:13
pytorch
深度学习
pycharm
python
神经网络
总结2-深度学习网络搭建学习
github网页:ConvolutionalNeuralNetwork常用
激活函数
(激励函数)理解与总结------------------Pytorch学习--------------书籍,深度学习框架与
三世
·
2022-12-06 07:59
Pytorch
深度学习
Pytorch
深度学习 - 调参
关于归一化的好处请参考:为何需要归一化处理3.
激活函数
要视样本输入选择(多层神经网络一般使用
relu
)4.minibatch很重要,几百是比较合适的(很大数据量的情况下)5.学习速率(learningrate
KeeJee
·
2022-12-06 07:54
深度学习
deep
learning
深度学习
embedded electronic systems for AI/ML 笔记第二篇
NearestNeighborLogisticRegressionLinearSupportVectorMachineSoftLinearSupportVectorMachineNon-LinearSupportVectorMachineDecisionTrees决策树总结NeuralNetworks
激活函数
神经元层数
无规则@lucio
·
2022-12-06 07:50
AI/ML
复习笔记
人工智能
决策树
Sequential() 模型:搭建神经网络
)2搭建神经网络通过model.add()叠加一些网络层如LSTM和Dense#单层LSTMmodel=Sequential()model.add(LSTM(units=50,activation='
relu
方如一
·
2022-12-06 07:15
Python内置函数
lstm
深度学习
神经网络
自我总结神经计算
每个神经元作为主要的计算单位,它仅执行一个非常简单的操作:将其加权输入求和,对总和应用特定的
激活函数
。然后,该值表示神经元的输出。
你今天机器学习了么
·
2022-12-06 07:10
机器学习
深度学习
一文带你了解【深度学习】中CNN、RNN、LSTM、DBN等神经网络(图文解释 包括各种
激活函数
)
觉得有帮助请点赞关注收藏~~~一、深度学习概述深度学习算法属于机器学习算法的范畴,深度学习一般具有自主学习能力基于深度学习的自然语言处理基本操作步骤包括:将原始信息输入神经网络模型,通过自主学习算法识别输入特征;将特征作为深度神经网络输入;根据不同需求选用合适的学习模型;通过训练得出的模型预测未知场景。神经元模型深度学习涉及神经网络的概念,其中最基本的神经元模型,可以使用下图表示,主要由输入变量权
showswoller
·
2022-12-06 06:58
NLP自然语言处理
深度学习
深度学习
神经网络
rnn
lstm
cnn
上一页
54
55
56
57
58
59
60
61
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他