E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
relu
Tensorflow笔记-神经网络优化
常用的激活函数有
relu
、
ATM006
·
2022-05-13 07:42
机器智能
[作业/人工智能] 作业3:例题程序复现 PyTorch版
作业2程序修改、展示对比【作业2】与【作业3】的反向传播的实现方法激活函数使用Pytorch自带的torch.sigmoid()再修改激活函数为
Relu
损失函数MSE用PyTorch自带函数t.nn.MSELoss
車鈊
·
2022-05-13 07:00
机器学习
pytorch
人工智能
深度学习
TensorFlow笔记_神经网络优化
目录1.预备知识2.神经网络复杂度3.学习率4.激活函数4.1Sigmoid函数4.2Tanh函数4.3
ReLU
函数4.4LeakyReLU函数5.损失函数5.1均方差5.2交叉熵6.欠拟合与过拟合7.
精灵耶
·
2022-05-13 07:27
深度学习
tensorflow
深度学习
人工智能
Pytorch官方文档学习笔记 —— 3. Build Model
目录1.建立神经网络2.获取训练设备3.定义类4.模型层4.1nn.Flatten4.2nn.Linear4.3nn.
ReLU
4.4nn.Sequential4.5nn.Softmax5.模型参数1.建立神经网络
Coding_Qi
·
2022-05-11 07:43
Pytorch笔记
pytorch
深度学习
深度学习之激活函数
转自[深度学习中常用激活函数总结-知乎]0.前言本文总结了几个在深度学习中比较常用的激活函数:Sigmoid、
ReLU
、LeakyReLU以及Tanh,从激活函数的表达式、导数推导以及简单的编程实现来说明
light169
·
2022-05-11 07:43
深度学习
神经网络
深度学习
人工智能
【书籍】《PyTorch深度学习》——深度学习之计算机视觉
文章目录神经网络简介从零开始构建CNN模型卷积池化非线性激活
ReLU
视图(view)训练模型狗猫分类问题利用迁移学习对狗猫分类创建和探索VGG16模型冻结层微调训练计算预卷积特征理解CNN模型如何学习CNN
_Summer tree
·
2022-05-11 07:35
PyTorch
Pytorch
深度学习
机器学习
计算机视觉
CV
机器学习(18)——卷积神经网络(三)
2012年Alex等提出AlexNet,提出一些训练深度网络的重要方法或技巧,如Dropout、
ReLu
、GPU、数据增强方法等,随后各种各样的深度卷积神经网络模型相继
进击的南方仔
·
2022-05-10 08:11
深度学习
cnn
机器学习
深度学习
网络模型
resnet
[机器学习导论]——第三课——神经网络Ⅱ
反向传播的一般情形反向传播方程反向传播算法神经网络模型参数求解步骤mini-batch方程证明BP1的证明BP2的证明BP3的证明BP4的证明神经网络模型改进改进损失函数:对数似然示例反向传播方程权重初始化减少过拟合:dropout缓解梯度消失:
ReLU
雨落俊泉
·
2022-05-10 08:10
#
机器学习入门
机器学习
神经网络
PyTorch学习笔记4—— 深度学习计算
最简单的开始分析importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFnet=nn.Sequential(nn.Linear(20,256),nn.
ReLU
Moon_Boy_Li
·
2022-05-10 07:21
python
深度学习
神经网络
Pytorch学习第一天
1.神经网络2.激活函数(1)
ReLu
函数(2)Sigmoid(3)tanh3.简单神经网络(1)前向神经网络(2)RNN(3)CNN4.Pytorch框架的优点(1)动态计算图(2)Pytorch代码通俗易懂
咭咭熊
·
2022-05-09 07:35
PyTorch
机器学习
深度学习
pytorch
深度学习图像处理入门
目标检测3、图像分割进tensorflow官网用tensorflow.google.cn1.1卷积神经网络基础全连接层:BP算法(信号的前向传播和误差的反向传播)卷积层:卷积核(激活函数sigmoid,
Relu
###_###_###
·
2022-05-08 07:13
深度学习
深度学习
图像处理
计算机视觉
PyTorch实现卷积神经网络的搭建详解
目录PyTorch中实现卷积的重要基础函数1、nn.Conv2d:2、nn.MaxPool2d(kernel_size=2)3、nn.
ReLU
()4、x.view()全部代码PyTorch中实现卷积的重要基础函数
·
2022-05-07 10:59
深度学习激活函数与正则化问题
深度学习激活函数与正则化问题–潘登同学的深度学习笔记文章目录深度学习激活函数与正则化问题--潘登同学的深度学习笔记梯度消失问题(VanishingGradients)
Relu
的缺点其他
Relu
变形参数初始化问题
PD我是你的真爱粉
·
2022-05-07 07:49
机器学习
深度学习
tensorflow
rnn
浅析BP神经网络
激活函数有很多种,比较常见的有符号函数,
ReLU
函数,Sigmoid函数,Softmax函数等。实际上激活函数就是模拟大脑神经元的响应,而最简单的单层单个神经元构成的就是感知机。
sssleverlily
·
2022-05-07 07:28
可爱小笔记
BP神经网络
机器学习
python人工智能tensorflow常用激活函数Activation Functions
目录前言常见的激活函数种类及其图像1sigmoid(logsig)函数2tanh函数3
relu
函数4softplus函数tensorflow中损失函数的表达1sigmoid(logsig)函数2tanh
·
2022-05-05 12:20
Pytorch --- nn.Sequential()模块
简而言之,nn.Sequential()可以将一系列的操作打包,这些操作可以包括Conv2d()、
ReLU
()、Maxpool2d()等,打包后方便调用吧,就相当于是一个黑箱,forward()时调用这个黑箱就行了
real小熊猫
·
2022-05-05 11:40
pytorch
pytorch
神经网络
机器学习
深度学习
python
卷积神经网络(高级篇)《PyTorch深度学习实践》
InceptionModule1*1卷积核:输入不同通道相同位置的信息的融合作用:改变通道数量以减低运算量实现InceptionModule(如下图)构建网络:先是1个卷积层(conv,maxpooling,
relu
weixin_44040169
·
2022-05-05 07:59
Python
深度学习
pytorch
cnn
Pytorch之反向传播
神经网络中,最基本的优化方式就是反向传播本文介绍了Pytorch中一个简单的例子:importtorchimporttorch.nnasnnfromtorch.nnimportMaxPool2d,
ReLU
It is a deal️
·
2022-05-02 07:52
小项目
pytorch
深度学习
神经网络
自己动手写神经网络(一)——初步搭建全连接神经网络框架
实验题目需要实现的网络结构如下,有一个输入层、一个隐藏层和一个输出层,并且隐藏层的激活函数为
Relu
函数,输出层的激活函数为softmax函数,损失函数为交叉熵函数:步骤1数据集的下载与处理2构造全连接层
stepondust
·
2022-05-02 07:21
#
自己动手写人工智能
神经网络
python
tensorflow
深度学习
卷积神经网络CNN各种模型(李沐老师的课程笔记——动手学)
其实大部分是李沐老师ppt的内容,我只是整理了一下不同神经网络模型LeNetAlexNet20122012年sigmoid变成了
ReLU
(减缓梯度消失)隐藏全连接层后加入了丢弃层数据增强新加入丢弃法,最大池化层
望寒秋
·
2022-05-02 07:50
神经网络
深度学习
人工智能
计算机视觉
算法
自己动手实现一个全连接神经网络模型
自己动手实现一个全连接神经网络模型代码实现激活函数函数实现单层网络实现全连接神经网络模型实现数据集加载进行训练与预测模型性能统计数学推导梯度下降链式求导法则写在最后代码实现激活函数函数实现神经网络模型中常用的激活函数有Sigmoid,
Relu
灵刃酒水管理员
·
2022-05-02 07:01
人工智能
python
深度学习
机器学习
DNN反向传播计算过程
根据初始化参数,正向计算各个神经元输出1.使用
relu
作为激活函数,如果输入值是小于等于,偏导将会是0,也就是不会更新梯度;如果输入是大与0,梯度是1以LR为例,假设使用
relu
作为激活函数,继续学习。
yisun123456
·
2022-04-29 07:02
ML
卷积神经网络初识
卷积神经网络结构数据输入层池化层卷积计算层FC全连接层CNN解决的问题关于滤波器(卷积核)CNN的优缺点激活函数参数(权值)共享参考链接结构CNN有的层级:输入层,卷积层,
RELU
激励层,池化层,全连接层
Passion6378
·
2022-04-28 13:41
深度学习
深度学习
机器学习——深度学习之卷积神经网络(CNN)——AlexNet卷积神经网络结构
目录一、AlexNet卷积神经网络结构模型1、数据库ImageNet2、AlexNet第一层卷积层二、AlexNet卷积神经网络的改进1、非线性变化函数的改变——
ReLU
2、最大池化(MaxPooling
有情怀的机械男
·
2022-04-28 07:55
机器学习
卷积
神经网络
深度学习
机器学习
Resnet网络及其变种
然而梯度弥散/爆炸在很大程度上被合适的激活函数(
ReLU
)、流弊的网络初始化(
zone_chan
·
2022-04-27 07:02
深度学习
网络
神经网络
深度学习
三、深度学习基础(激活函数2)
以下是常见的选择情况:1、如果输出是0、1值(二分类问题),则输出层选择sigmoid函数,然后其它的所有单元都选择
Relu
函数。2、如果在隐藏层上不确定使用哪个激活函数,那么通常会使用
Relu
激活
满满myno
·
2022-04-26 07:22
深度学习
机器学习
深度学习
opencv
人工智能
深度学习基础知识之激活函数
在深度视觉的三大基本任务中,我们构建一个卷积神经网络,激活函数是必不可少的,例如sigmoid,
relu
等,下面我们来介绍下激活函数。什么是激活函数?
柏拉图工作室-AI学科
·
2022-04-26 07:52
深度学习基础知识
深度学习:激活函数、损失函数、优化函数的区别
常见的激活函数包括:sigmoid,tanh,
relu
等。
三石目
·
2022-04-26 07:59
深度学习
机器学习
深度学习
神经网络
Python深度学习基础(一)——激活函数的介绍与对比
激活函数的介绍与对比神经网络与感知机激活函数阶跃函数(step_function)sigmoid函数tanh函数
relu
函数mish函数softmax函数函数图像对比神经网络与感知机感知机即阈值逻辑单元
艾醒
·
2022-04-26 07:26
深度学习方法
神经网络
python
深度学习
激活函数
OneFlow 学习笔记:从 Python 到 C++ 调用过程分析
进行相关操作,下面是一个最最简单的reluop的使用示例:>>>importoneflowasof>>>x=of.tensor([-3,-2,-1,0,1,2,3],dtype=of.float)>>>of.
relu
·
2022-04-24 15:52
c++python
深度学习基础知识汇总,以及模型调试技巧
传递函数(激活函数),如由
ReLU
,使非线性关系的学习成为可能。池化,如最大池化(下采样),以产生空间的粗特征映射,减小图像尺寸。深度学习模型通常使用a-c中三个操作的迭代组合来产生图像的低维表示。
程序媛JD
·
2022-04-23 07:10
深度学习
深度学习
训练
神经网络
动手学深度学习(三、深度学习基础--多层感知机、基础知识)
动手学深度学习(三、深度学习基础--多层感知机、基础知识)1.隐藏层2.激活函数
ReLU
函数sigmoid函数tanh函数一、多层感知机的从零开始实现多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络
jiangchao98
·
2022-04-23 07:37
深度神经网络
神经网络
python
机器学习
深度学习
动手学深度学习笔记(六)——多层感知机及实现
文章目录1.1隐藏层1.2激活函数1.2.1
ReLU
函数1.2.2sigmoid函数1.2.3tanh函数1.3简洁实现1.1隐藏层通过在网络中加入一个或多个隐藏层来克服线性模型的限制,使其能处理更普遍的函数关系类型
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
pytorch
python
GCN编码器
另外节点之间的关系信息用邻接矩阵,以及图关于节点的度的矩阵,那么一个GCN编码器为其中是一个激活函数,例如
ReLU
飞机火车巴雷特
·
2022-04-17 11:56
机器学习与深度学习
图卷积神经网络
GCN
卷积神经网络[CNN]笔记(六)—— 卷积层结构
我们还将把
RELU
激活函数显式地写为一个层,它使用非线性函数对数据进行处理。下面,我们将讨论如何将这几个层堆叠在一起以形成整个网络。 ConvNet架构最常见的形式是堆叠几个CO
zeeq_
·
2022-04-16 07:52
CNN
#
CS231n课程笔记
卷积
神经网络
网络
深度学习
深度学习学习笔记——keras搭建网络模型
defgenerator_model():model=Sequential()model.add(Dense(input_dim=100,output_dim=1024))model.add(Activation('
relu
phily123
·
2022-04-16 07:11
深度学习学习笔记
深度学习
OneFlow学习笔记:从Python到C++调用过程分析
进行相关操作,下面是一个最最简单的reluop的使用示例:>>>importoneflowasof>>>x=of.tensor([-3,-2,-1,0,1,2,3],dtype=of.float)>>>of.
relu
OneFlow深度学习框架
·
2022-04-15 11:09
业界观点
python
深度学习
人工智能
机器学习
系统架构
PyTorch学习笔记(1)nn.Sequential、nn.Conv2d、nn.BatchNorm2d、nn.
ReLU
和nn.MaxPool2d
文章目录一、nn.Sequential二、nn.Conv2d三、nn.BatchNorm2d四、nn.
ReLU
五、nn.MaxPool2d一、nn.Sequentialtorch.nn.Sequential
张小波
·
2022-04-12 07:15
pytorch
python
神经网络
python
pytorch
机器学习笔记——神经网络与深度学习
机器学习笔记——神经网络与深度学习一、神经网络引言二、神经元模型与激活函数2.1神经元模型2.2激活函数2.2.1sigmoid&tanh2.2.2
ReLU
激活函数2.2.3LeakyRelu&ParametricReLU
AgentSmart
·
2022-04-12 07:17
机器学习
神经网络
机器学习
深度学习pytorch代码:非线性激活
Relu
()
input为
ReLu
()中的一个参数,默认为Faluse,保留输入数据importtorchfromtorch.nnimportReLUfromtorchimportnninput=torch.tensor
学好迁移Learning
·
2022-04-10 08:39
pytorch学习
人工智能
pytorch
机器学习
python
图像处理
深度学习面试复习总结整理
文章目录深度学习框架介绍PaddlePaddleTensorflowCaffeTheanoMXNetTorchPyTorchKeras激活函数sigmoidTanh激活函数
Relu
(修正线性单元)激活函数
程序媛JD
·
2022-04-10 08:26
深度学习
深度学习
神经网络
卷积神经网络
卷积神经网络与LeNet的应用——MNIST手写数字识别
误差调整(损失函数),eg:
Relu
(校正的线性单元)、PRelu(前面的改进版)。两个函数都可减少sigmod函数导致的水波现象。
longlivesmdc
·
2022-04-05 07:31
python
卷积神经网络
LeNet
MNIST
手写数字识别
python
深度学习吴恩达第一章——神经网络的初步了解和逻辑回归
一、引言1.什么是神经网络
Relu
——rectifiedlinearunit(修正线性单元)2.各种类型的神经网络SNN:标准神经网络,用于房价预测,在线广告是否点击CNN:卷积神经网络,用于图像识别RNN
梅小白的进阶之路
·
2022-04-04 07:08
神经网络
神经网络
狠补基础-数学+算法角度讲解卷积层,激活函数,池化层,Dropout层,BN层,全链接层
点这里直接跳读狠补基础-数学+算法角度讲解卷积层,激活函数,池化层,Dropout层,BN层,全链接层卷积层激活函数层Sigmoid函数
ReLU
函数Soft
翼达口香糖
·
2022-03-31 19:13
笔记
tensorflow
pytorch
caffe
pytorch网络可视化-查看每层网络的特征图
tensorboard来进行可视化这里采用另外一种方式defforward(self,x):outputs=[]x=self.conv1(x)outputs.append(x)x=self.bn1(x)x=self.
relu
Ivan's
·
2022-03-26 07:31
动手学深度学习笔记
关于CNN的可解释性
1.认识CNNCNN主要就是由Conv、
ReLU
、Pooling层堆叠而成。当输入图片给CNN网络,经过不同的操作,会产生各种中间图,如下图。
CV算法恩仇录
·
2022-03-23 14:28
经典的卷积神经网络
5AlexNetVGGGoogLeNetStackmorelayersResNetBasicBlockResBlockDenseNetLeNet-528*28Subsampling并不是maxpooling隔行采样或隔点采样--》没有参数AlexNet很多的创新Maxpooling引入
ReLu
天人合一peng
·
2022-03-23 08:13
cnn
人工智能
神经网络
DeepLearning:使用Pytorch搭建神经网络
sigmoid激活函数双曲正切函数
ReLu
函数(线性修正单元)线性层及其它层线性层正则化层(BatchNorm)正则化层优点官方解释代码实战t
RP_M
·
2022-03-22 17:56
CV
pytorch
神经网络
深度学习
深度学习Deep Learning(04):权重初始化问题2_
ReLu
激励函数
github地址:https://github.com/lawlite19/DeepLearning_Python三、权重初始化问题2_
ReLu
激励函数1、说明参考论文:https://arxiv.org
莫失莫忘Lawlite
·
2022-03-21 07:43
原创
深度学习
GitHub
github
深度学习
权重初始化
【机器学习基础】常用激活函数(激励函数)理解与总结
引言学习神经网络的时候我们总是听到激活函数这个词,而且很多资料都会提到常用的激活函数,比如Sigmoid函数、tanh函数、
Relu
函数。那么我们就来详细了解下激活函数方方面面的知识。
风度78
·
2022-03-21 07:22
神经网络
算法
人工智能
机器学习
深度学习
上一页
32
33
34
35
36
37
38
39
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他