E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Relu激活函数
大创项目推荐 卷积神经网络手写字符识别 - 深度学习
文章目录0前言1简介2LeNet-5模型的介绍2.1结构解析2.2C1层2.3S2层S2层和C3层连接2.4F6与C5层3写数字识别算法模型的构建3.1输入层设计3.2
激活函数
的选取3.3卷积层设计3.4
laafeer
·
2023-12-15 22:36
python
卷积神经网络实现手势图像的识别
提取码:pcoi一、原理和框架这篇文章的卷积网络模型基于LeNet-5,也就是input→conv1→
relu
→maxpool1→conv2→
relu
→maxpool2→fc3→fc4→output(softmax
Mr.zwX
·
2023-12-15 22:21
【深度学习/神经网络】Deep
Learning
深度学习进阶篇-国内预训练模型[5]:ERINE、ERNIE 3.0、ERNIE-的设计思路、模型结构、应用场景等详解
【深度学习入门到进阶】必看系列,含
激活函数
、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等专栏详细介绍:【深度学习入门到进阶】必看系列,含
激活函数
、优化策略、损失函数
汀、人工智能
·
2023-12-15 22:07
#
深度学习入门到进阶
深度学习
人工智能
自然语言处理
transformer
ERNIE
斯坦福机器学习 Lecture12 (反向传播算法详细推导过程,如何提高神经网络性能(主要是
激活函数
的选择,还有输入数据归一化,权重矩阵初始化方法, 小批次梯度下降法,动量算法 ))
我们的目的就是更新权重矩阵利用部分公式,如下:计算之后,lossfunction针对w3矩阵的导数如下:如何提高神经网络性能通常使用简单的神经网络并不会得到好结果,我们需要提升它1.选用合适的
激活函数
(
shimly123456
·
2023-12-15 22:36
斯坦福机器学习
机器学习
激活函数
数学详解以及应用场景解释
文章目录
激活函数
1.Sigmoid
激活函数
例子及推导过程代码2.
ReLU
激活函数
例子及推导过程3.Tanh
激活函数
例子及推导过程代码4.Softmax
激活函数
例子及推导过程代码CNN中的卷积层工作原理卷积计算过程卷积后的输出及
h52013141
·
2023-12-15 22:29
机器学习
算法
人工智能
深度学习
python
【图像分类】【深度学习】【轻量级网络】【Pytorch版本】MobileNets_V3模型算法详解
模型算法详解文章目录【图像分类】【深度学习】【轻量级网络】【Pytorch版本】MobileNets_V3模型算法详解前言MobleNet_V3讲解SE模块(SqueezeExcitation)重新设计
激活函数
反向残差结构
牙牙要健康
·
2023-12-15 20:43
图像分类
深度学习
轻量级网络
深度学习
算法
分类
详解Keras3.0 Models API: Model class
keras.Model()将不同层组为具有训练/推理特征的对象的模型2、示例一inputs=keras.Input(shape=(37,))x=keras.layers.Dense(32,activation="
relu
缘起性空、
·
2023-12-15 19:11
深度学习
神经网络
keras
什么是神经网络的非线性
最近在写《计算机视觉入门与调优》(右键,在新窗口中打开链接)的小册,其中一部分说到
激活函数
的时候,谈到了神经网络的非线性问题。
董董灿是个攻城狮
·
2023-12-15 17:17
图像识别
and
Resnet
网络拆解
神经网络
人工智能
深度学习
算法……到底是干啥的?(摘自牛客网)
平常就是看论文技术分享接项目给方案跑模型部署到终端清洗数据打比赛写论文写专利面试一般问对应岗位方向前沿的算法paper2.面试问项目问论文,问深度学习和机器学习相关八股,比如transfomer、Bert、gpt、过拟合欠拟合、数据不平衡、梯度消失梯度爆炸、损失函数
激活函数
啥的
芒果香菠菠
·
2023-12-15 17:36
算法
《从GLM-130B到ChatGLM:大模型预训练与微调》笔记
增强大模型的逻辑推理能力第二部分GLM和LLaMA中采用RoPE旋转式编码BF16牺牲了数据精度(表示由10位降到7位),但扩大了数据的表示范围(有研究表明数据表示范围比精度更重要)LLaMA采用BF16训练的大部分内存占用为
激活函数
有个参数服务器
佛系调参
·
2023-12-15 13:01
自然语言处理
语言模型
自然语言处理
人工智能
阶段五:深度学习和人工智能(学习神经网络和深度学习的基本概念)
每个神经元接收输入信号,通过
激活函数
进行非线性转换,然后将输出传递给其他神经元。神经网络的主要特点是能够学习和优化自身的权重和偏置,以更好地完成特定的任务。
哈嗨哈
·
2023-12-15 04:14
深度学习
人工智能
学习
python
深度学习基础回顾
深度学习基础浅层网络VS深层网络深度学习常用的
激活函数
Sigmoid函数
ReLU
函数Softplus函数tanh函数归纳偏置CNN适用数据归纳偏置RNN适用数据归纳偏置浅层网络VS深层网络浅层神经网络参数过多
一根老麻花
·
2023-12-14 19:48
课程复习
深度学习
人工智能
Graph Attention Networks(GATs)
文章目录前言一、GATs原理1、线性变换2、
激活函数
3、Softmax归一化4、多层注意力5、改进注意力层二、Cora分类数据集1、导入数据库2、GATs类3、训练GATv
Authony.
·
2023-12-06 18:49
#
GNN
Fundamental
python
matplotlib
算法
均值算法
Yolov4 学习笔记
Yolov4学习笔记损失函数之前损失函数存在的问题GIOUDIOUCIOUBOSSPPnetCSPnetSAMPAN层mish
激活函数
损失函数666666之前损失函数存在的问题之前公式为1-IOUIOU
魏郴
·
2023-12-06 10:24
YOLO
学习
笔记
pytorch学习8-损失函数
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习9-优化器学习
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习10-网络模型的保存和加载
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习11-完整的模型训练过程
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习4-简易卷积实现
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习5-最大池化层的使用
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习7-序列模型搭建
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习1-数据加载以及Tensorboard可视化工具
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习2-Transforms主要方法使用
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习3-torchvisin和Dataloader的使用
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习6-非线性变换(
ReLU
和sigmoid)
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:45
吴恩达机器学习
pytorch
学习
人工智能
TORCH02-02:Torch常见机器学习函数
Function接口规范,会提升求导的效率;本主题主要梳理Torch与机器学习有关的函数运算; 1.Tensor中实现的函数运算 2.torch.nn.functional中封装的各类函数说明:其中的
激活函数
对机器学习的训练非常重要张量运算函数下面三个函数有两种使用方式
杨强AT南京
·
2023-12-06 03:20
【深度学习笔记】07 多层感知机
07多层感知机多层感知机在网络中加入隐藏层从线性到非线性
激活函数
ReLU
函数sigmoid函数tanh函数多层感知机的从零开始实现初始化模型参数
激活函数
模型损失函数训练多层感知机的简洁实现模型多层感知机在网络中加入隐藏层我们可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制
LiuXiaoli0720
·
2023-12-06 00:49
深度学习笔记
深度学习
笔记
人工智能
模型训练 出现NaN的原因以及解决方法
数值不稳定的
激活函数
:某
码农研究僧
·
2023-12-05 22:31
深度学习
深度学习
模型训练
NaN值
【PyTorch】多层感知机
文章目录1.模型与代码实现1.1.模型1.1.1.背景1.1.2.多层感知机1.1.3.
激活函数
1.2.代码实现1.2.1.完整代码1.2.2.输出结果2.Q&A1.模型与代码实现1.1.模型1.1.1
盛世隐者
·
2023-12-05 14:12
深度学习
pytorch
nn.Sequential
它允许您将多个神经网络层(例如卷积层、池化层、
激活函数
等)按顺序组合在一起。使用nn.Sequential可以轻松地构建复杂的神经网络结构,而无需手动连接各个层。
湫兮之风
·
2023-12-05 13:39
深度学习
深度学习
神经网络
人工智能
Batch Normalization
随着网络的深度增加,每层特征值分布会逐渐的向
激活函数
的输出区间的上下
无妄无望
·
2023-12-05 09:43
batch
人工智能
开发语言
Course2-Week2-神经网络的训练方法
Course2-Week2-神经网络的训练方法文章目录Course2-Week2-神经网络的训练方法1.神经网络的编译和训练1.1TensorFlow实现1.2损失函数和代价函数的数学公式2.其他的
激活函数
虎慕
·
2023-12-05 09:01
#
机器学习-吴恩达
神经网络
人工智能
深度学习
卷积神经网络中用1*1 卷积有什么作用或者好处呢?
一、来源:[1312.4400]NetworkInNetwork(如果1×1卷积核接在普通的卷积层后面,配合
激活函数
,即可实现networkinnetwork的结构)二、应用:GoogleNet中的Inception
Angelina_Jolie
·
2023-12-05 07:37
深度学习笔记
cnn
深度学习
神经网络
Activation funcions--Swish Mish
Swishf(x)=x·sigmoid(x)GoogleBrainTeam提出GoogleBrainTeam表示Swish的效果比
ReLU
好self-gating:其中gating其实就是公式里的sigmoid
江江江江枫渔火
·
2023-12-05 04:35
卷积神经网络入门
其基本结构如图2-1所示,大致包括:卷积层,
激活函数
,池化层,全连接层,输出层。
半截詩
·
2023-12-05 01:23
深度学习
cnn
深度学习
计算机视觉
神经网络
21、Resnet50 中包含哪些算法?
总共卷积算法、激活算法(
relu
)、最大池化算法、加法(主要是为了实现残差结构)、全局平均池化、全连接和softmax算法这几种算法。
董董灿是个攻城狮
·
2023-12-04 15:40
CV视觉算法入门与调优
深度学习
神经网络
人工智能
Linux系统配置深度学习环境之cudnn安装
cuDNN提供了一系列优化的基本算法和函数,包括卷积、池化、规范化、
激活函数
等,以及针对深度学习任务的高级功能,如循环神经网络(RNN)的支持。
番茄小能手
·
2023-12-04 08:51
Linux
linux
深度学习
运维
感知器(Perceptron)详解以及实现
感知器的核心概念感知器模型基于将输入特征加权求和,然后应用
激活函数
来决定输出类别。1.输入和权重输入:x1,x2,...,xnx_1,x_2,...,x_nx1,x2,...,xn是特征向量。
h52013141
·
2023-12-04 08:38
机器学习
算法
python
计算机视觉(OpenCV+TensorFlow)
计算机视觉的两大挑战4.计算机视觉的8大任务图像分类目标检测语义分割实例分割视频分类人体关键点检测场景文字识别目标追踪5.OpenCV在计算机视觉中扮演的角色十三.神经网络1.引子2.神经元3.MP模型4.
激活函数
Mayphyr
·
2023-12-04 05:44
计算机视觉
opencv
tensorflow
nn.
relu
和F.rulu的区别
先来看看nn.
ReLU
的源码,可以看到其实在forward中nn.
relu
是调用了F.
relu
函数的:classReLU(Module):r"""Appliestherectifiedlinearunitfunctionelement-wise
不是吧这都有重名
·
2023-12-04 05:07
pytorch
人工智能
pytorch
笔记
CV baseline概览|AlexNet:ImageNet Classification with Deep Convolutional Neural Networks基于深度卷积神经网络的图像分类
文章目录CVbaseline重要性CNN发展历程演化路径AlexNet概览AlexNet全文翻译摘要1引言2数据集3网络结构3.1
ReLU
非线性
激活函数
3.2在多GPU上训练3.3局部响应标准化LRN3.4
源代码•宸
·
2023-12-04 01:26
计算机视觉论文
分类
人工智能
经验分享
AlexNet
computer
vision
深度学习
神经网络
深度学习记录--logistic回归损失函数向量化实现
以更少的代码量和更快的速度来实现程序正向传播的向量化对于,用向量化来实现,只需要就可以完成,其中,,ps.这里b只是一个常数,但是依然可以加在每个向量里(python的广播(Broadcasting))
激活函数
蹲家宅宅
·
2023-12-03 20:09
深度学习记录
人工智能
深度学习
回归
python
神经网络的基本骨架--nn.Module的使用
__init__()self.conv1=nn.Conv2d(1,20,5)self.conv2=nn.Conv2d(20,20,5)defforward(self,x):x=F.
relu
(self.conv1
CODING_LEO
·
2023-12-03 12:02
深度学习
神经网络
深度学习
pytorch
多层感知机
relu
函数importtorchfromd2limporttorchasd2lx=torch.arange(-8.0,8.0,0.1,requires_grad=True)y=torch.
relu
(x
CODING_LEO
·
2023-12-03 12:01
深度学习
深度学习
pytorch
人工智能
神经网络(第三周)
一、简介1.1非线性
激活函数
1.1.1tanh
激活函数
使用一个神经网络时,需要决定在隐藏层上使用哪种
激活函数
,哪种用在输出层节点上。
叫小侯的小白程序员
·
2023-12-03 11:34
深度学习
神经网络
人工智能
每天五分钟计算机视觉:AlexNet网络的结构特点
2、Alex使用了
ReLu
激活函数
,使得模型收敛得更快,解决了sigmoid
激活函数
所存在的梯度弥散的问题。3、Alex使用了dropout层,这可以有效地防止过拟合的问题。4
幻风_huanfeng
·
2023-12-03 06:51
计算机视觉
计算机视觉
人工智能
深度学习
卷积神经网络
AlexNet
【动手学深度学习】(八)数值稳定和模型初始化
梯度爆炸的问题值超出阈值对于16位浮点数尤为严重对学习率敏感如果学习率太大->大参数值->更大的梯度如果学习率太小->训练无进展我们可能需要在训练过程中不断调整学习率5.梯度消失使用sigmoid作为
激活函数
释怀°Believe
·
2023-12-03 04:50
#
动手学深度学习
深度学习
人工智能
逻辑回归与正则化 逻辑回归、
激活函数
及其代价函数
逻辑回归、
激活函数
及其代价函数线性回归的可行性对分类算法,其输出结果y只有两种结果{0,1},分别表示负类和正类,代表没有目标和有目标。
小小程序○
·
2023-12-02 22:33
逻辑回归
算法
机器学习
Softmax与交叉熵:理解神经网络中的重要组成部分
第一部分:Softmax函数一、概念与定义Softmax函数是一种常用的
激活函数
,用于将神经网络的输出转化为概率分布。给定一个具有n个类别的样本,So
非著名程序员阿强
·
2023-12-02 19:28
神经网络
人工智能
深度学习
19、什么是 Resnet50 神经网络
在这一节实战中,我们构建了一个简单的识别数字的神经网络,这个网络结构之所以简单,一是因为层数少,二是因为结构是顺序的,没有其他分支结构,表示起来大概就像是:conv->
relu
->conv->
relu
-
董董灿是个攻城狮
·
2023-12-02 17:26
CV视觉算法入门与调优
神经网络
人工智能
深度学习
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他