E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
relu
python怎么使用预训练的模型_浅谈keras使用预训练模型vgg16分类,损失和准确度不变...
但是准确度一直是0.75.数据预先处理已经检查过格式正确再将模型中
relu
改成sigmoid就正常了。
weixin_39541750
·
2022-06-01 07:31
Image Classification (卷积神经网络基础)
目录1.激活函数1.1.sigmoid激活函数1.2.
ReLU
激活函数2.卷积层3.池化层4.误差的计算5.CrossEntropyLss交叉熵损失5.1.针对多分类问题(softmax输出,所有输出概率和为
Caoyy686868
·
2022-06-01 07:44
深度学习之图像分类
深度学习
人工智能
神经网络
vscode
深度神经网络之Keras(一)——从Keras开始
目录深度神经网络之Keras(一)——从Keras开始一、输入数据二、神经元三、激活函数四、Sigmoid与
ReLU
函数五、模型六、层1、核心层2、Dropout层3、其它层及编写自己的层七、
IGSzt
·
2022-05-30 07:35
Keras深度神经网络
keras
dnn
深度学习
神经网络
原来
ReLU
这么好用?一文带你深度了解
ReLU
激活函数
ReLU
是一个分段线性函数,如果输入为正,它将直接输出,否则,它将输出为零。它已经成为许多类型神经网络的默认激活函数,因为使用它的模型更容易训练,并且通常能够获得更好的性能。
晨xi的光
·
2022-05-28 15:41
cnn
神经网络
深度学习
程序人生
编程语言
PyTorch中的循环神经网络(RNN+LSTM+GRU)
输入xtx_txt的维度(2)hidden_size:输出hth_tht的维度(3)num_layers:网络的层数,默认为1层(4)nonlinearity:非线性激活函数,默认是tanh,也可以选择
relu
马苏比拉米G
·
2022-05-27 07:54
Pytorch
深度学习之神经网络基础
)从感知机到神经网络1、感知机2、基于感知机实现简单逻辑电路3、导入权重和偏置4、感知机的局限性5、多层感知机实现非线性6、从感知机到神经网络(二)激活函数1、什么是激活函数2、Sigmoid函数2、
ReLU
S.C.Dragon
·
2022-05-27 07:23
深度学习
cnn
神经网络
深度学习
深度学习-第一章 神经网络面试题(大厂必问,历经半年整理)
1.2为什么
ReLU
常用于神经网络的激活函数?1.3梯度消失和梯度爆炸的解决方案?梯度爆炸引发的问题?1.4如何确定是否出现梯度爆炸?1.5神经网络中有哪些正则化技术?
cc13186851239
·
2022-05-25 07:24
计算机视觉
神经网络
算法
tensorflow
什么是深度学习?
一、什么是深度学习二、深度学习需要解决的问题分类聚类回归监督学习无监督学习三、深度学习发展历程感知机激活函数阶跃函数
relu
函数线性函数sigmoid函数双曲正切函数一、什么是深度学习深度学习没有标准定义
大鹏的编程之路
·
2022-05-25 02:33
量化投资之强化学习
深度学习
人工智能
【2021-2022 春学期】人工智能-作业5:卷积-池化-激活
池化-激活1、定义卷积核2、完整代码3、运行结果三、可视化:了解数字与图像之间的关系1、代码2、运行结果a、原图b、卷积核1c、卷积核2d、卷积核3e、卷积后的特征图1f、卷积池化后的特征图1g、卷积+
relu
wuguanfengyue122
·
2022-05-24 07:54
人工智能和机器学习
人工智能
深度学习
cnn
【人工智能-作业3:例题程序复现 PyTorch版】
对比手动实现反向传播和使用PyTorch的结果3.手动计算和使用PyTorch求梯度的比较和总结二、更改激活函数1.激活函数改用PyTorch自带函数torch.sigmoid()2.激活函数Sigmoid改变为
Relu
wuguanfengyue122
·
2022-05-24 07:24
人工智能和机器学习
pytorch
人工智能
深度学习
【深度学习】激活函数和损失函数
常用的激活函数有Sigmoid、tanh,
ReLU
、leakyReLU等。除此以外还有线性激活函数如Linear。激
别来BUG求求了
·
2022-05-24 07:37
深度学习
深度学习
pytorch
深度学习--说一说卷积和池化
转载:http://www.cnblogs.com/zf-blog/p/6075286.html卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-
RELU
-POOL-FC
weixin_34162695
·
2022-05-23 07:16
人工智能
4. 卷积神经网络CNN
卷积层1)基本概念2)前期准备3)参数共享4)卷积运算a)二维卷积运算b)偏置c)填充d)三维卷积运算5)小结4.2.3池化层1)基本概念2)小结4.2.4全连接层1)基本概念2)例子4.2.5激活函数
RelU
4.2.6
說詤榢
·
2022-05-21 16:39
深度学习
cnn
神经网络
深度学习
SE-YOLOv5——布匹缺陷检测(注意力机制)
为提高缺陷检测性能,将SE模块添加到YOLOv5的主干网络,将激活函数
ReLU
替换为ACONYOLOv5YOLO算法将图像换分为多个区域,制定边界框并同时预测属于某个类的对象的概率,是一个基于深度学习的单阶段目标检测算法
Mr Dinosaur
·
2022-05-21 07:44
布匹检测
深度学习
人工智能
图像分类基本知识点
作用通过数据集的上面的精度表现图像分类模型图像分类的原理矩阵输入-------卷积(抽取特征)-------
relu
(激活函数,非线性拟合函数,拟合x,y映射)-----池化层(缓解对物体物质的过度依赖
仓小鼠
·
2022-05-17 16:28
人工智能
计算机视觉
深度学习机器学习笔试面试题——激活函数
写一下leakyReLU的公式,跟
ReLU
比有什么优势?了解
ReLU
6吗?sigmoid有什么缺点,有哪些解决办法?
relu
在零点可导吗,不可导如何进行反向传播?
冰露可乐
·
2022-05-17 07:04
深度学习
机器学习
神经网络
激活函数
softmax
卷积神经网络(CNN)详解与代码实现
目录1.应用场景2.卷积神经网络结构2.1卷积(convelution)2.2
Relu
激活函数2.3池化(pool)2.4全连接(fullconnection)2.5损失函数(softmax_loss)
草尖上的舞动
·
2022-05-17 07:22
MobileNetV2轻量化网络结构(TensorFlow-2.6.0实现结构)
MobileNetV1博客3.MobileNetV1的局限性4.模型之间的对比(1)MobileNetV1和MobileNetV2(2)ResNet和MobileNetV25.MobileNetV2采用了新的激活函数
ReLU
66
m0_54850604
·
2022-05-17 07:37
面试
学习路线
阿里巴巴
java
java进阶
后端
Keras深度学习实战(4)——深度学习中常用激活函数和损失函数详解
Keras深度学习实战(4)——深度学习中常用激活函数和损失函数详解常用激活函数Sigmoid激活函数Tanh激活函数
ReLU
激活函数线性激活函数Softmax激活函数损失函数均方误差平均绝对误差分类交叉熵系列链接常用激活函数使用激活函数可以实现网络的高度非线性
盼小辉丶
·
2022-05-15 13:29
深度学习
神经网络
人工智能
Tensorflow笔记_神经网络优化
,其中f表示为激活函数,神经网络是以神经元为基本单位构成#激活函数:引入非线性激活因素,提高模型的表达能力常用的激活函数有#激活函数relutf.nn.
relu
()#激活函数sigmoldtf.nn.sigmold
weixin_34082695
·
2022-05-13 07:30
人工智能
python
Tensorflow 笔记:神经网络优化(1)
常用的激活函数有
relu
、sigmoid、tanh等。
一个莫得感情的代码机器
·
2022-05-13 07:56
#
Tensorflow笔记
TensorFlow笔记之神经网络优化——损失函数
常用的激活函数有
relu
、sigmoid、tanh等。
ElephantFlySong
·
2022-05-13 07:54
TensorFlow
深度学习网络__tensorflow__第四讲__神经网络优化
常用的激活函数有
relu
、sigmoid、tanh等。
KGback
·
2022-05-13 07:49
人工智能
Tensorflow笔记-神经网络优化
常用的激活函数有
relu
、
ATM006
·
2022-05-13 07:42
机器智能
[作业/人工智能] 作业3:例题程序复现 PyTorch版
作业2程序修改、展示对比【作业2】与【作业3】的反向传播的实现方法激活函数使用Pytorch自带的torch.sigmoid()再修改激活函数为
Relu
损失函数MSE用PyTorch自带函数t.nn.MSELoss
車鈊
·
2022-05-13 07:00
机器学习
pytorch
人工智能
深度学习
TensorFlow笔记_神经网络优化
目录1.预备知识2.神经网络复杂度3.学习率4.激活函数4.1Sigmoid函数4.2Tanh函数4.3
ReLU
函数4.4LeakyReLU函数5.损失函数5.1均方差5.2交叉熵6.欠拟合与过拟合7.
精灵耶
·
2022-05-13 07:27
深度学习
tensorflow
深度学习
人工智能
Pytorch官方文档学习笔记 —— 3. Build Model
目录1.建立神经网络2.获取训练设备3.定义类4.模型层4.1nn.Flatten4.2nn.Linear4.3nn.
ReLU
4.4nn.Sequential4.5nn.Softmax5.模型参数1.建立神经网络
Coding_Qi
·
2022-05-11 07:43
Pytorch笔记
pytorch
深度学习
深度学习之激活函数
转自[深度学习中常用激活函数总结-知乎]0.前言本文总结了几个在深度学习中比较常用的激活函数:Sigmoid、
ReLU
、LeakyReLU以及Tanh,从激活函数的表达式、导数推导以及简单的编程实现来说明
light169
·
2022-05-11 07:43
深度学习
神经网络
深度学习
人工智能
【书籍】《PyTorch深度学习》——深度学习之计算机视觉
文章目录神经网络简介从零开始构建CNN模型卷积池化非线性激活
ReLU
视图(view)训练模型狗猫分类问题利用迁移学习对狗猫分类创建和探索VGG16模型冻结层微调训练计算预卷积特征理解CNN模型如何学习CNN
_Summer tree
·
2022-05-11 07:35
PyTorch
Pytorch
深度学习
机器学习
计算机视觉
CV
机器学习(18)——卷积神经网络(三)
2012年Alex等提出AlexNet,提出一些训练深度网络的重要方法或技巧,如Dropout、
ReLu
、GPU、数据增强方法等,随后各种各样的深度卷积神经网络模型相继
进击的南方仔
·
2022-05-10 08:11
深度学习
cnn
机器学习
深度学习
网络模型
resnet
[机器学习导论]——第三课——神经网络Ⅱ
反向传播的一般情形反向传播方程反向传播算法神经网络模型参数求解步骤mini-batch方程证明BP1的证明BP2的证明BP3的证明BP4的证明神经网络模型改进改进损失函数:对数似然示例反向传播方程权重初始化减少过拟合:dropout缓解梯度消失:
ReLU
雨落俊泉
·
2022-05-10 08:10
#
机器学习入门
机器学习
神经网络
PyTorch学习笔记4—— 深度学习计算
最简单的开始分析importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFnet=nn.Sequential(nn.Linear(20,256),nn.
ReLU
Moon_Boy_Li
·
2022-05-10 07:21
python
深度学习
神经网络
Pytorch学习第一天
1.神经网络2.激活函数(1)
ReLu
函数(2)Sigmoid(3)tanh3.简单神经网络(1)前向神经网络(2)RNN(3)CNN4.Pytorch框架的优点(1)动态计算图(2)Pytorch代码通俗易懂
咭咭熊
·
2022-05-09 07:35
PyTorch
机器学习
深度学习
pytorch
深度学习图像处理入门
目标检测3、图像分割进tensorflow官网用tensorflow.google.cn1.1卷积神经网络基础全连接层:BP算法(信号的前向传播和误差的反向传播)卷积层:卷积核(激活函数sigmoid,
Relu
###_###_###
·
2022-05-08 07:13
深度学习
深度学习
图像处理
计算机视觉
PyTorch实现卷积神经网络的搭建详解
目录PyTorch中实现卷积的重要基础函数1、nn.Conv2d:2、nn.MaxPool2d(kernel_size=2)3、nn.
ReLU
()4、x.view()全部代码PyTorch中实现卷积的重要基础函数
·
2022-05-07 10:59
深度学习激活函数与正则化问题
深度学习激活函数与正则化问题–潘登同学的深度学习笔记文章目录深度学习激活函数与正则化问题--潘登同学的深度学习笔记梯度消失问题(VanishingGradients)
Relu
的缺点其他
Relu
变形参数初始化问题
PD我是你的真爱粉
·
2022-05-07 07:49
机器学习
深度学习
tensorflow
rnn
浅析BP神经网络
激活函数有很多种,比较常见的有符号函数,
ReLU
函数,Sigmoid函数,Softmax函数等。实际上激活函数就是模拟大脑神经元的响应,而最简单的单层单个神经元构成的就是感知机。
sssleverlily
·
2022-05-07 07:28
可爱小笔记
BP神经网络
机器学习
python人工智能tensorflow常用激活函数Activation Functions
目录前言常见的激活函数种类及其图像1sigmoid(logsig)函数2tanh函数3
relu
函数4softplus函数tensorflow中损失函数的表达1sigmoid(logsig)函数2tanh
·
2022-05-05 12:20
Pytorch --- nn.Sequential()模块
简而言之,nn.Sequential()可以将一系列的操作打包,这些操作可以包括Conv2d()、
ReLU
()、Maxpool2d()等,打包后方便调用吧,就相当于是一个黑箱,forward()时调用这个黑箱就行了
real小熊猫
·
2022-05-05 11:40
pytorch
pytorch
神经网络
机器学习
深度学习
python
卷积神经网络(高级篇)《PyTorch深度学习实践》
InceptionModule1*1卷积核:输入不同通道相同位置的信息的融合作用:改变通道数量以减低运算量实现InceptionModule(如下图)构建网络:先是1个卷积层(conv,maxpooling,
relu
weixin_44040169
·
2022-05-05 07:59
Python
深度学习
pytorch
cnn
Pytorch之反向传播
神经网络中,最基本的优化方式就是反向传播本文介绍了Pytorch中一个简单的例子:importtorchimporttorch.nnasnnfromtorch.nnimportMaxPool2d,
ReLU
It is a deal️
·
2022-05-02 07:52
小项目
pytorch
深度学习
神经网络
自己动手写神经网络(一)——初步搭建全连接神经网络框架
实验题目需要实现的网络结构如下,有一个输入层、一个隐藏层和一个输出层,并且隐藏层的激活函数为
Relu
函数,输出层的激活函数为softmax函数,损失函数为交叉熵函数:步骤1数据集的下载与处理2构造全连接层
stepondust
·
2022-05-02 07:21
#
自己动手写人工智能
神经网络
python
tensorflow
深度学习
卷积神经网络CNN各种模型(李沐老师的课程笔记——动手学)
其实大部分是李沐老师ppt的内容,我只是整理了一下不同神经网络模型LeNetAlexNet20122012年sigmoid变成了
ReLU
(减缓梯度消失)隐藏全连接层后加入了丢弃层数据增强新加入丢弃法,最大池化层
望寒秋
·
2022-05-02 07:50
神经网络
深度学习
人工智能
计算机视觉
算法
自己动手实现一个全连接神经网络模型
自己动手实现一个全连接神经网络模型代码实现激活函数函数实现单层网络实现全连接神经网络模型实现数据集加载进行训练与预测模型性能统计数学推导梯度下降链式求导法则写在最后代码实现激活函数函数实现神经网络模型中常用的激活函数有Sigmoid,
Relu
灵刃酒水管理员
·
2022-05-02 07:01
人工智能
python
深度学习
机器学习
DNN反向传播计算过程
根据初始化参数,正向计算各个神经元输出1.使用
relu
作为激活函数,如果输入值是小于等于,偏导将会是0,也就是不会更新梯度;如果输入是大与0,梯度是1以LR为例,假设使用
relu
作为激活函数,继续学习。
yisun123456
·
2022-04-29 07:02
ML
卷积神经网络初识
卷积神经网络结构数据输入层池化层卷积计算层FC全连接层CNN解决的问题关于滤波器(卷积核)CNN的优缺点激活函数参数(权值)共享参考链接结构CNN有的层级:输入层,卷积层,
RELU
激励层,池化层,全连接层
Passion6378
·
2022-04-28 13:41
深度学习
深度学习
机器学习——深度学习之卷积神经网络(CNN)——AlexNet卷积神经网络结构
目录一、AlexNet卷积神经网络结构模型1、数据库ImageNet2、AlexNet第一层卷积层二、AlexNet卷积神经网络的改进1、非线性变化函数的改变——
ReLU
2、最大池化(MaxPooling
有情怀的机械男
·
2022-04-28 07:55
机器学习
卷积
神经网络
深度学习
机器学习
Resnet网络及其变种
然而梯度弥散/爆炸在很大程度上被合适的激活函数(
ReLU
)、流弊的网络初始化(
zone_chan
·
2022-04-27 07:02
深度学习
网络
神经网络
深度学习
三、深度学习基础(激活函数2)
以下是常见的选择情况:1、如果输出是0、1值(二分类问题),则输出层选择sigmoid函数,然后其它的所有单元都选择
Relu
函数。2、如果在隐藏层上不确定使用哪个激活函数,那么通常会使用
Relu
激活
满满myno
·
2022-04-26 07:22
深度学习
机器学习
深度学习
opencv
人工智能
深度学习基础知识之激活函数
在深度视觉的三大基本任务中,我们构建一个卷积神经网络,激活函数是必不可少的,例如sigmoid,
relu
等,下面我们来介绍下激活函数。什么是激活函数?
柏拉图工作室-AI学科
·
2022-04-26 07:52
深度学习基础知识
上一页
32
33
34
35
36
37
38
39
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他