E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Tanh激活函数
计算机竞赛 深度学习手势识别 - yolo python opencv cnn 机器视觉
文章目录0前言1课题背景2卷积神经网络2.1卷积层2.2池化层2.3
激活函数
2.4全连接层2.5使用tensorflow中keras模块实现卷积神经网络3YOLOV53.1网络架构图3.2输入端3.3基准网络
Mr.D学长
·
2023-10-02 03:41
python
java
激活函数
在同一figure上的实现
importmatplotlib.pyplotaspltimporttorchfrommatplotlib.pyplotimportMultipleLocatorimportnumpyasnpimportmathplt.rcParams['font.sans-serif']=['SimHei']plt.rcParams['axes.unicode_minus']=False#sigmoid
激活函数
xzwyb---
·
2023-10-01 19:28
python
开发语言
大规模语言模型--中文 LLaMA和Alpaca
之前已经对原始LLaMA技术进行了深入解读,LLaMA基于transformer结构进行了一些改进,比如预归一化、SwiGLU
激活函数
以及旋转embedding。LLaMA的
hanscalZheng
·
2023-10-01 11:54
大语言模型
语言模型
llama
人工智能
LeNet网络复现
文章目录1.LeNet历史背景1.1早期神经网络的挑战1.2LeNet的诞生背景2.LeNet详细结构2.1总览2.2卷积层与其特点2.3子采样层(池化层)2.4全连接层2.5输出层及
激活函数
3.LeNet
@kc++
·
2023-10-01 11:51
网络复现
#
LeNet
网络
python
计算机视觉
深度学习
神经网络
cnn
pytorch
机器学习之广义增量规则(Generalized Delta Rule)
对于任意
激活函数
,增量规则表示如下式它与前一节的delta规则相同,只是ei被替换为δi。
JNU freshman
·
2023-10-01 03:21
机器学习
人工智能
机器学习
人工智能
【读书1】【2017】MATLAB与深度学习——神经网络分层(4)
图2-9该示例神经网络等价于单层神经网络Thisexampleneuralnetworkisequivalenttoasinglelayerneuralnetwork请记住,当隐藏节点具有线性
激活函数
时
梅花香——苦寒来
·
2023-10-01 03:51
神经网络基础知识
本文由斯坦福CS224n翻译整理而来1.神经网络基础知识1.1单个神经元单个神经元是神经网络的基本单位,其主要接受一个n维的向量x,输出为一个
激活函数
的输出aa=11+exp(−(ωTx+b))每个神经元均可拟合一种非线性的变化形势
hqc888688
·
2023-10-01 03:49
神经网络和深度学习
激活函数
如果没有
激活函数
,神经网络只能做线性变换,
激活函数
可以引入非线形因素。
陈超Terry的技术屋
·
2023-10-01 02:00
RNN、LSTM TF源码
ThemostbasicRNNcell.Args:num_units:int,ThenumberofunitsintheRNNcell.activation:Nonlinearitytouse.Default:`
tanh
小透明苞谷
·
2023-10-01 00:32
深度学习——多层感知机二
深度学习——多层感知机二文章目录前言一、多层感知机的从零实现1.1.初始化模型参数1.2.
激活函数
1.3.模型1.4.损失函数1.5.训练二、多层感知机的简洁实现总结前言上一章对多层感知机的概念做了简单介绍
星石传说
·
2023-09-30 20:36
python篇
深度学习
人工智能
小白入门pytorch(二)----神经网络
学习记录博客文章目录前言一、神经网络的组成部分1.神经元2.神经网络层3.损失函数4.优化器二、Pytorch构建神经网络中的网络层全连接层2.卷积层3.池化层4.循环神经网络5.转置卷积层6.归一化层7.
激活函数
层三
yzhua_777
·
2023-09-30 10:41
深度学习
pytorch
神经网络
人工智能
机器学习之神经网络的层次
因此,他们不计算加权和和
激活函数
。这就是它们用正方形表示并与其他圆形节点不同的原因。相比之下,最右边的
JNU freshman
·
2023-09-29 19:22
机器学习
机器学习
神经网络
GraphSAGE
然后将得到的第k层的邻居的特征的向量hkN(v)与当前节点v的第k-1层的特征向量拼接在一起,乘一个权重,乘
激活函数
,得到当前节点v在第k层的特征向量表示。第7行表示对节点的特征向量做一个归一化处理。
刘某某.
·
2023-09-29 10:42
图神经网络
python
基于深度学习的农作物叶子病虫害检测python源码
然后通过批标准化(BatchNormalization)和ReLU
激活函数
进行处理。conv2:这一部分是第一个卷积块。它接收输入通道数为64,输出通道数为128。
强盛小灵通专卖员
·
2023-09-29 09:06
深度学习
计算机视觉
机器学习
深度学习-批量归一化
就是一个理想的状态,但是在信号的传播过程中,会发生漂移现象,即便是输入的时候经过了归一化,也很难在后续的传播过程种收敛,因此科学家提出了批量归一化(BatchNormalization).在每个隐藏层的
激活函数
之前或者之后增加一个标准归一化操作
歌者文明
·
2023-09-28 20:12
深度学习
人工智能
全面解析并实现逻辑回归(Python)
一、逻辑回归模型结构逻辑回归是一种广义线性的分类模型且其模型结构可以视为单层的神经网络,由一层输入层、一层仅带有一个sigmoid
激活函数
的神经元的输出层组成,而无隐藏层。
风度78
·
2023-09-28 00:23
算法
人工智能
python
神经网络
机器学习
【yolov2】原理详解 &与Yolov1对比 & batch norm详解
激活函数
如sigmoid和双曲正切
激活函数
,在0附近是非饱和区,如果输出太大或者太小,则会进入
激活函数
的饱和区(饱和区意味着梯度消失,难以训练)所以用batchnorm强行把神经元的输出集中在0附近。
computer_vision_chen
·
2023-09-27 14:42
目标检测
YOLO
深度学习
目标检测
load_model加载使用leaky_relu
激活函数
的网络报错
这个问题在之前已经有讲解如何解决了,但是今天准备修改源码的方式修复bug。之前文章load_model加载使用'leaky_relu'激活bug处理报错的主要因为这个方法tensorflow.python.keras.activations.deserialize这个方法最后调用方法tensorflow.python.keras.utils.generic_utils.deserialize_ke
small瓜瓜
·
2023-09-27 05:56
激活函数
总结(四十三):
激活函数
补充(ScaledSoftSign、NormLinComb)
激活函数
总结(四十三):
激活函数
补充1引言2
激活函数
2.1ScaledSoftSign
激活函数
2.2NormLinComb
激活函数
3.总结1引言在前面的文章中已经介绍了介绍了一系列
激活函数
(Sigmoid
sjx_alo
·
2023-09-27 05:34
深度学习
深度学习
人工智能
机器学习
python
激活函数
激活函数
总结(四十二):
激活函数
补充(SSFG、Gumbel Cross Entropy)
激活函数
总结(四十二):
激活函数
补充1引言2
激活函数
2.1SSFG
激活函数
2.2GumbelCrossEntropy
激活函数
3.总结1引言在前面的文章中已经介绍了介绍了一系列
激活函数
(Sigmoid、
Tanh
sjx_alo
·
2023-09-27 05:04
深度学习
深度学习
人工智能
机器学习
python
激活函数
激活函数
总结(四十一):
激活函数
补充(ShiLU、ReLUN)
激活函数
总结(四十一):
激活函数
补充1引言2
激活函数
2.1ShiLU
激活函数
2.2ReLUN
激活函数
3.总结1引言在前面的文章中已经介绍了介绍了一系列
激活函数
(Sigmoid、
Tanh
、ReLU、LeakyReLU
sjx_alo
·
2023-09-27 05:03
深度学习
深度学习
人工智能
机器学习
激活函数
python
激活函数
总结(四十四):
激活函数
补充(NLSIG、EvoNorms)
激活函数
总结(四十四):
激活函数
补充1引言2
激活函数
2.1NLSIG
激活函数
2.2EvoNorms
激活函数
3.总结1引言在前面的文章中已经介绍了介绍了一系列
激活函数
(Sigmoid、
Tanh
、ReLU、
sjx_alo
·
2023-09-27 05:33
深度学习
机器学习
深度学习
python
激活函数
Batch Normalization和Layer Normalization的区别是什么?
Normalization的核心思想是,把数据送入模型进行训练前,把不同量纲的特征数据归一化到同一的,无量纲的尺度范围,统一尺度范围后,让数据落在
激活函数
这种非线性函数的线性区域,有利于模型训练收敛。
LabVIEW_Python
·
2023-09-26 23:47
【卷积神经网络:Inception模型】
Inception模型的组成主要由不同卷积核大小的卷积层拼接而成,其中一种带维度缩减的Inception模型可以减少参数量,引入更多非线性,提高泛化能力,其核心思想是引入1卷积核大小为1*1的卷积层并经过ReLU
激活函数
提高了模型的泛化能力
知识推荐号
·
2023-09-26 18:40
深度学习
cnn
深度学习
神经网络
深度学习基础概念理解
如果说卷积层、池化层和
激活函数
层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。
盛世芳华
·
2023-09-26 14:39
深度学习
人工智能
机器学习
机器学习(19)---神经网络详解
神经网络一、神经网络概述1.1神经元模型1.2
激活函数
二、感知机2.1概述2.2实现逻辑运算2.3多层感知机三、神经网络3.1工作原理3.2前向传播3.3Tensorflow实战演示3.3.1导入数据集查看
冒冒菜菜
·
2023-09-26 10:16
机器学习从0到1
机器学习
人工智能
神经网络
笔记
打开深度学习的锁:(2)单隐藏层的神经网络
打开深度学习的锁导言PS:神经网络的训练过程一、数据集和包的说明1.1准备文件1.2需要导入的包二、构建神经网络的架构三、初始化函数四、
激活函数
4.1
tanh
(双曲正切函数)函数五,前向传播六、损失函数七
Jiashun Hao
·
2023-09-26 04:51
深度学习
神经网络
人工智能
Pytorch之AlexNet花朵分类
CSDN首发、需要转载请联系博主如果文章对你有帮助、欢迎关注、点赞、收藏(一键三连)和订阅专栏哦目录一、AlexNet1.卷积模块2.全连接模块3.AlexNet创新点1.更深的神经网络结构2.ReLU
激活函数
的使用
风间琉璃•
·
2023-09-25 21:06
Pytorch
pytorch
人工智能
python
Python深度学习入门 - - 人工神经网络学习笔记
文章目录前言一、神经网络原理1、输入层2、全连接层3、
激活函数
4、损失函数5、前向传播6、反向传播二、Python实战神经网络1.权重初始化技巧2.梯度问题技巧3.模型泛化技巧总结前言如果说机器学习是人工智能的皇冠
szu_ljm
·
2023-09-25 20:55
python
深度学习
学习
机器学习—非零中心化、非零中心化会带来的问题
众所周知,
激活函数
最好具有关于零点对称的特性,不关于零点对称会导致收敛变慢。这种说法看到几次了,但对于背后的原因却一直比较模糊,今天就来捋一捋。
做程序员的第一天
·
2023-09-25 10:35
机器学习
机器学习
人工智能
深度学习的初始化(暂时)
另外一点,不同的
激活函数
,使用的初始化方法也不一样。fan_in代表输入节点数,fan_out代表输出的节点数,fan_ave=(fan_in+fan_out)/2初始化
激活函数
方差Glorot
歌者文明
·
2023-09-25 05:39
神经网络
人工智能
深度学习
梯度爆炸问题和梯度消失问题的一种解释和相应的解决方案
1.梯度消失是指随着神经网路的层数增加,前向传播过程种梯度渐渐缩减为0,较低的连接层的参数已经无法再更新了;梯度爆炸是指梯度越来越大,逼近饱和,各层需要更新较大的权值,这可能是因为
激活函数
和初始化方法配合有问题
歌者文明
·
2023-09-25 05:39
机器学习
深度学习
人工智能
深度学习自学笔记五:浅层神经网络(二)
目录一、
激活函数
二、
激活函数
的导数三、神经网络的梯度下降四、反向传播五、随机初始化一、
激活函数
神经网络中常用的
激活函数
有以下几种:1.Sigmoid函数(Logistic函数):Sigmoid函数将输入值映射到
ironmao
·
2023-09-25 02:16
人工智能
深度学习自学笔记六:深层神经网络
每个隐藏层接收前一层的输出,并使用非线性
激活函数
对
ironmao
·
2023-09-25 02:16
深度学习
笔记
神经网络
PyTorch深度学习(六)【循环神经网络-基础】
(h1=linear(h0,x1))RNN计算过程:输入先做线性变换,循环神经网络常用的
激活函数
是
tanh
(±1区间)。
每天都是被迫学习
·
2023-09-25 00:55
pytorch
深度学习
pytorch
rnn
全连接层tf.keras.layers.Dense()介绍
函数原型tf.keras.layers.Dense(units,#正整数,输出空间的维数activation=None,#
激活函数
,不指定则没有use_bias=True,#布尔值,是否使用偏移向量kernel_initializer
K同学啊
·
2023-09-24 10:00
TensorFlow2简单入门
神经网络
tensorflow
Pytorch袖珍手册之九
的深度学习网络结构自主式开发前面章节我们主要通过pytorch提供的类,函数和各种库进行模型设计及训练,在本章节中我们将通过几个代码片断来向大家展示pytorch的灵活之处,即用户可以基于pytorch的一些基础函数构建自己的新模型,
激活函数
深思海数_willschang
·
2023-09-23 23:15
深度学习自学笔记二:逻辑回归和梯度下降法
它基于线性回归模型,并使用了sigmoid函数作为
激活函数
。假设我们有一个二分类问题,其中输入特征为x,对应的样本标签为y(0或1)。逻辑回归的目标是根据输入特征x预测样本标签y的概率。
ironmao
·
2023-09-23 21:54
深度学习
笔记
逻辑回归
吴恩达深度学习笔记-搭建多层神经网络
神经网络的结构可以有很多层,结构是输入层>隐藏层>隐藏层>>>输出层,在每一层中,首先计算的是矩阵相乘[linear_forward],然后再计算
激活函数
[linear_activation_forward
一技破万法
·
2023-09-23 13:40
超参数、验证集和K-折交叉验证
超参数参数:网络模型在训练过程中不断学习自动调节的变量,比如网络的权重和偏差;超参数:控制模型、算法的参数,是架构层面的参数,一般不是通过算法学习出来的,比如学习率、迭代次数、
激活函数
和层数等。
我是任玉琢
·
2023-09-23 11:31
20-4-4论文阅读:Conditional time series forecasting with convolutional neural networks
拟议的网络包含堆叠的卷积堆栈,使它们可以在预测时访问广泛的历史记录,ReLU
激活函数
和条件是通过将多个卷积滤波器并行应用于单独的时间序列来执行的,从而可以快速处理数据和利用多元时间序列之间的相关结构。
AllTimeStudy
·
2023-09-23 05:53
机器学习笔记11—机器学习/深度学习之
激活函数
及python代码实现
ML/DL之
激活函数
1、概述2、
激活函数
性质3、常用的
激活函数
3.1Sigmoid函数(Logistic函数)3.2
Tanh
函数3.3ReLU函数3.4LeakyReLU函数3.5PReLU函数3.6ELU
珞沫
·
2023-09-23 05:07
机器学习
#
深度学习
激活函数
机器学习
神经网络
softmax
激活函数
_深度学习中的
激活函数
,从softmax到sparsemax数学证明
softmax
激活函数
Theobjectiveofthispostisthree-fold.Thefirstpartdiscussesthemotivationbehindsparsemaxanditsrelationtosoftmax
weixin_26704853
·
2023-09-23 05:05
深度学习
python
神经网络
算法
人工智能
目标检测中的
激活函数
激活函数
是神经网络模型重要的组成部分,本文从
激活函数
的数学原理出发,详解了十种
激活函数
的优缺点。
YSUSE15w
·
2023-09-23 05:04
目标检测
深度学习
人工智能
深度学习中的
激活函数
激活函数
(ActivationFunction)是一种添加到人工神经网络中的函数,旨在帮助网络结构学习数据中内在的复杂模式或规律。
teresa_lin
·
2023-09-23 05:33
基本技能
深度学习领域最常用的10个
激活函数
,一文详解数学原理及优缺点
深度学习领域最常用的10个
激活函数
,一文详解数学原理及优缺点转自:数据派THU
激活函数
是神经网络模型重要的组成部分,本文作者SukanyaBag从
激活函数
的数学原理出发,详解了十种
激活函数
的优缺点。
山科智能信息处理实验室
·
2023-09-23 05:03
技术转载
#
基础理论
深度学习
神经网络
机器学习
深度学习中的
激活函数
– 完整概述
1.什么是
激活函数
?生物神经网络启发了人工神经网络的发展。然而,人工神经网络甚至不能近似代表大脑的工作方式。
TD程序员
·
2023-09-23 05:01
深度学习开发实践系列
深度学习
人工智能
【深度学习】LeNet网络架构
其中,每个卷积层都包含了一个卷积操作和一个非线性
激活函数
,用于提取输入图像的特征。池化层则用于缩小特征图
高 朗
·
2023-09-23 03:09
pytorch
深度学习
网络
人工智能
现代卷积网络实战系列3:PyTorch从零构建AlexNet训练MNIST数据集
1、AlexNetAlexNet提出了一下5点改进:使用了Dropout,防止过拟合使用Relu作为
激活函数
,极大提高了特征提取效果使用MaxPooling池化进行特征降维,极大提高了特征提取效果首次使用
机器学习杨卓越
·
2023-09-22 21:17
现代卷积网络实战
MNIST
深度学习
图像识别
PyTorch
计算机视觉
现代卷积神经网络
AlexNet
梯度消失、梯度爆炸
为了便于讨论,不考虑偏差参数,且设所有隐藏层的
激活函数
为恒等映射(ide
S思维
·
2023-09-22 14:20
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他