E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
ReLU激活函数
pytorch学习10-网络模型的保存和加载
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习11-完整的模型训练过程
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:50
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习4-简易卷积实现
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习5-最大池化层的使用
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习7-序列模型搭建
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:19
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习1-数据加载以及Tensorboard可视化工具
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习2-Transforms主要方法使用
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习3-torchvisin和Dataloader的使用
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:49
吴恩达机器学习
pytorch
学习
人工智能
pytorch学习6-非线性变换(
ReLU
和sigmoid)
Transforms主要方法使用pytorch学习3-torchvisin和Dataloader的使用pytorch学习4-简易卷积实现pytorch学习5-最大池化层的使用pytorch学习6-非线性变换(
ReLU
Magic171
·
2023-12-06 07:45
吴恩达机器学习
pytorch
学习
人工智能
TORCH02-02:Torch常见机器学习函数
Function接口规范,会提升求导的效率;本主题主要梳理Torch与机器学习有关的函数运算; 1.Tensor中实现的函数运算 2.torch.nn.functional中封装的各类函数说明:其中的
激活函数
对机器学习的训练非常重要张量运算函数下面三个函数有两种使用方式
杨强AT南京
·
2023-12-06 03:20
【深度学习笔记】07 多层感知机
07多层感知机多层感知机在网络中加入隐藏层从线性到非线性
激活函数
ReLU
函数sigmoid函数tanh函数多层感知机的从零开始实现初始化模型参数
激活函数
模型损失函数训练多层感知机的简洁实现模型多层感知机在网络中加入隐藏层我们可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制
LiuXiaoli0720
·
2023-12-06 00:49
深度学习笔记
深度学习
笔记
人工智能
模型训练 出现NaN的原因以及解决方法
数值不稳定的
激活函数
:某
码农研究僧
·
2023-12-05 22:31
深度学习
深度学习
模型训练
NaN值
【PyTorch】多层感知机
文章目录1.模型与代码实现1.1.模型1.1.1.背景1.1.2.多层感知机1.1.3.
激活函数
1.2.代码实现1.2.1.完整代码1.2.2.输出结果2.Q&A1.模型与代码实现1.1.模型1.1.1
盛世隐者
·
2023-12-05 14:12
深度学习
pytorch
nn.Sequential
它允许您将多个神经网络层(例如卷积层、池化层、
激活函数
等)按顺序组合在一起。使用nn.Sequential可以轻松地构建复杂的神经网络结构,而无需手动连接各个层。
湫兮之风
·
2023-12-05 13:39
深度学习
深度学习
神经网络
人工智能
Batch Normalization
随着网络的深度增加,每层特征值分布会逐渐的向
激活函数
的输出区间的上下
无妄无望
·
2023-12-05 09:43
batch
人工智能
开发语言
Course2-Week2-神经网络的训练方法
Course2-Week2-神经网络的训练方法文章目录Course2-Week2-神经网络的训练方法1.神经网络的编译和训练1.1TensorFlow实现1.2损失函数和代价函数的数学公式2.其他的
激活函数
虎慕
·
2023-12-05 09:01
#
机器学习-吴恩达
神经网络
人工智能
深度学习
卷积神经网络中用1*1 卷积有什么作用或者好处呢?
一、来源:[1312.4400]NetworkInNetwork(如果1×1卷积核接在普通的卷积层后面,配合
激活函数
,即可实现networkinnetwork的结构)二、应用:GoogleNet中的Inception
Angelina_Jolie
·
2023-12-05 07:37
深度学习笔记
cnn
深度学习
神经网络
Activation funcions--Swish Mish
Swishf(x)=x·sigmoid(x)GoogleBrainTeam提出GoogleBrainTeam表示Swish的效果比
ReLU
好self-gating:其中gating其实就是公式里的sigmoid
江江江江枫渔火
·
2023-12-05 04:35
卷积神经网络入门
其基本结构如图2-1所示,大致包括:卷积层,
激活函数
,池化层,全连接层,输出层。
半截詩
·
2023-12-05 01:23
深度学习
cnn
深度学习
计算机视觉
神经网络
21、Resnet50 中包含哪些算法?
总共卷积算法、激活算法(
relu
)、最大池化算法、加法(主要是为了实现残差结构)、全局平均池化、全连接和softmax算法这几种算法。
董董灿是个攻城狮
·
2023-12-04 15:40
CV视觉算法入门与调优
深度学习
神经网络
人工智能
Linux系统配置深度学习环境之cudnn安装
cuDNN提供了一系列优化的基本算法和函数,包括卷积、池化、规范化、
激活函数
等,以及针对深度学习任务的高级功能,如循环神经网络(RNN)的支持。
番茄小能手
·
2023-12-04 08:51
Linux
linux
深度学习
运维
感知器(Perceptron)详解以及实现
感知器的核心概念感知器模型基于将输入特征加权求和,然后应用
激活函数
来决定输出类别。1.输入和权重输入:x1,x2,...,xnx_1,x_2,...,x_nx1,x2,...,xn是特征向量。
h52013141
·
2023-12-04 08:38
机器学习
算法
python
计算机视觉(OpenCV+TensorFlow)
计算机视觉的两大挑战4.计算机视觉的8大任务图像分类目标检测语义分割实例分割视频分类人体关键点检测场景文字识别目标追踪5.OpenCV在计算机视觉中扮演的角色十三.神经网络1.引子2.神经元3.MP模型4.
激活函数
Mayphyr
·
2023-12-04 05:44
计算机视觉
opencv
tensorflow
nn.
relu
和F.rulu的区别
先来看看nn.
ReLU
的源码,可以看到其实在forward中nn.
relu
是调用了F.
relu
函数的:classReLU(Module):r"""Appliestherectifiedlinearunitfunctionelement-wise
不是吧这都有重名
·
2023-12-04 05:07
pytorch
人工智能
pytorch
笔记
CV baseline概览|AlexNet:ImageNet Classification with Deep Convolutional Neural Networks基于深度卷积神经网络的图像分类
文章目录CVbaseline重要性CNN发展历程演化路径AlexNet概览AlexNet全文翻译摘要1引言2数据集3网络结构3.1
ReLU
非线性
激活函数
3.2在多GPU上训练3.3局部响应标准化LRN3.4
源代码•宸
·
2023-12-04 01:26
计算机视觉论文
分类
人工智能
经验分享
AlexNet
computer
vision
深度学习
神经网络
深度学习记录--logistic回归损失函数向量化实现
以更少的代码量和更快的速度来实现程序正向传播的向量化对于,用向量化来实现,只需要就可以完成,其中,,ps.这里b只是一个常数,但是依然可以加在每个向量里(python的广播(Broadcasting))
激活函数
蹲家宅宅
·
2023-12-03 20:09
深度学习记录
人工智能
深度学习
回归
python
神经网络的基本骨架--nn.Module的使用
__init__()self.conv1=nn.Conv2d(1,20,5)self.conv2=nn.Conv2d(20,20,5)defforward(self,x):x=F.
relu
(self.conv1
CODING_LEO
·
2023-12-03 12:02
深度学习
神经网络
深度学习
pytorch
多层感知机
relu
函数importtorchfromd2limporttorchasd2lx=torch.arange(-8.0,8.0,0.1,requires_grad=True)y=torch.
relu
(x
CODING_LEO
·
2023-12-03 12:01
深度学习
深度学习
pytorch
人工智能
神经网络(第三周)
一、简介1.1非线性
激活函数
1.1.1tanh
激活函数
使用一个神经网络时,需要决定在隐藏层上使用哪种
激活函数
,哪种用在输出层节点上。
叫小侯的小白程序员
·
2023-12-03 11:34
深度学习
神经网络
人工智能
每天五分钟计算机视觉:AlexNet网络的结构特点
2、Alex使用了
ReLu
激活函数
,使得模型收敛得更快,解决了sigmoid
激活函数
所存在的梯度弥散的问题。3、Alex使用了dropout层,这可以有效地防止过拟合的问题。4
幻风_huanfeng
·
2023-12-03 06:51
计算机视觉
计算机视觉
人工智能
深度学习
卷积神经网络
AlexNet
【动手学深度学习】(八)数值稳定和模型初始化
梯度爆炸的问题值超出阈值对于16位浮点数尤为严重对学习率敏感如果学习率太大->大参数值->更大的梯度如果学习率太小->训练无进展我们可能需要在训练过程中不断调整学习率5.梯度消失使用sigmoid作为
激活函数
释怀°Believe
·
2023-12-03 04:50
#
动手学深度学习
深度学习
人工智能
逻辑回归与正则化 逻辑回归、
激活函数
及其代价函数
逻辑回归、
激活函数
及其代价函数线性回归的可行性对分类算法,其输出结果y只有两种结果{0,1},分别表示负类和正类,代表没有目标和有目标。
小小程序○
·
2023-12-02 22:33
逻辑回归
算法
机器学习
Softmax与交叉熵:理解神经网络中的重要组成部分
第一部分:Softmax函数一、概念与定义Softmax函数是一种常用的
激活函数
,用于将神经网络的输出转化为概率分布。给定一个具有n个类别的样本,So
非著名程序员阿强
·
2023-12-02 19:28
神经网络
人工智能
深度学习
19、什么是 Resnet50 神经网络
在这一节实战中,我们构建了一个简单的识别数字的神经网络,这个网络结构之所以简单,一是因为层数少,二是因为结构是顺序的,没有其他分支结构,表示起来大概就像是:conv->
relu
->conv->
relu
-
董董灿是个攻城狮
·
2023-12-02 17:26
CV视觉算法入门与调优
神经网络
人工智能
深度学习
激活函数
——
Relu
,Swish
形式如下:
relu
公式-----steppedsigmoid-------softplusfunction-------Relfunction其中--------sigmoid下面解释上述公式中的softplus
乔大叶_803e
·
2023-12-02 14:51
深度学习——
激活函数
汇总
深度学习——
激活函数
汇总一、
ReLU
一、
ReLU
参考资料:https://zhuanlan.zhihu.com/p/428448728
William.csj
·
2023-12-01 20:03
计算机视觉
深度学习
激活函数
深度学习手势识别 - yolo python opencv cnn 机器视觉 计算机竞赛
文章目录0前言1课题背景2卷积神经网络2.1卷积层2.2池化层2.3
激活函数
2.4全连接层2.5使用tensorflow中keras模块实现卷积神经网络3YOLOV53.1网络架构图3.2输入端3.3基准网络
Mr.D学长
·
2023-12-01 18:54
python
java
机器学习——逻辑回归
回归问题:例如线性回归,用于拟合方程,预测趋势、曲线走势等分类问题:例如男女分类,猫狗大战等,用于解决类别区分问题sigmoid函数这里介绍一个特殊的函数,在深度学习中也称为
激活函数
,而在机器学习,或者说这篇博文中
SF-FCZ
·
2023-12-01 15:17
机器学习
机器学习
逻辑回归
人工智能
day1-多层感知机
内容包括:MLP简介与普通感知机的区别2.为什么需要多层感知机
激活函数
1.不同
激活函数
介绍relusigmoidtanh区别MLP简介与普通感知机区别加入了一个或多个隐藏层,并引入
激活函数
多层可以拟合更复杂的线性函数
wamgz
·
2023-12-01 12:48
pytorch中的
激活函数
详解
1
激活函数
介绍1.1什么是
激活函数
激活函数
是神经网络中引入的非线性函数,用于捕获数据中的复杂关系。
智慧医疗探索者
·
2023-11-30 23:32
人工智能初探
深度学习之pytorch
pytorch
人工智能
激活函数
深度学习毕设项目 深度学习 python opencv 动物识别与检测
文章目录0前言1深度学习实现动物识别与检测2卷积神经网络2.1卷积层2.2池化层2.3
激活函数
2.4全连接层2.5使用tensorflow中keras模块实现卷积神经网络3YOLOV53.1网络架构图3.2
DanCheng-studio
·
2023-11-29 20:41
毕业设计
python
毕设
python与机器学习1,机器学习的一些基础知识概述(完善ing)
人工智能、机器学习、深度学习、神经网络之间的关系:1.2人工智能的发展2ML机器学习的分类:SL,USL,RL2.1机器学习的分类2.2具体的应用举例2.3数据分类3关于阈值θ和偏移量b的由来4不同的
激活函数
奔跑的犀牛先生
·
2023-11-29 11:57
python
机器学习
2023-简单点-机器学习中常用的特殊函数,
激活函数
[sigmoid tanh ]
机器学习中的特殊函数Sigmoidsoftplus函数tanhReLu(x)Leaky-ReluELUSiLu/SwishMish伽玛函数beta函数RefSigmoid值域:【0,1】定义域:【负无穷,正无穷】特殊点记忆:经过[0,0.5]关键点[0,0.5]处的导数是0.025相关导数:softplus函数值域:(0,无穷大】定义域:【负无穷,正无穷】特殊点记忆:经过[0,1]关键点[0,1]
简单点好不好的仓库
·
2023-11-29 09:31
神经网络
机器学习
人工智能
吃瓜-TASK04 神经网络/1
它的组织能够模拟生物神经系统对真实世界物种所作出的交互反应M-P神经元模型:每个神经元收到nn个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接传递,神经元接收到的总输入值与该神经元阈值进行比较,然后通过
激活函数
处理
f9e1e1f76d8b
·
2023-11-29 06:50
深度学习之BP神经网络
1.说明现在使用深度学习算法都以调库为主,但在使用库之前,先用python写一个最基本的神经网络的程序,也非常必要,它让我们对一些关键参数:学习率,批尺寸,
激活函数
,代价函数的功能和用法有一个直观的了解
暗光anguang
·
2023-11-29 05:13
人工智能
机器学习
深度学习
神经网络
深度学习基础概念
激活函数
(ActivationFunction):学习常见的
激活函数
,如Sigmoid、
ReLU
等,以及它们在神经网络中的作用。
yuer629
·
2023-11-29 00:01
深度学习
人工智能
深度学习
激活函数
总结(sigmoid,tanh,
ReLU
,Leaky
ReLU
,EReLU,PReLU,Softmax,Swish,Maxout,Softplus)
摘要本文总结了深度学习领域最常见的10中
激活函数
(sigmoid、Tanh、
ReLU
、LeakyReLU、ELU、PReLU、Softmax、Swith、Maxout、Softplus)及其优缺点。
雪的期许
·
2023-11-29 00:30
深度学习
神经网络
机器学习
激活函数
EfficientViT:高分辨率密集预测的多尺度线性注意
EfficientViT:Multi-ScaleLinearAttentionforHigh-ResolutionDensePrediction1、介绍2、方法2.1多尺度线性注意模块2.1.1启用全局接收域与
ReLU
毕竟是shy哥
·
2023-11-28 22:49
CV前沿论文
深度学习
人工智能
不同
激活函数
与对应的初始化方法
1.
ReLu
.当使用
ReLu
激活函数
时,需要使用正态分布的初始化方法,给参数加一点噪声,来打破完全对称并且避免0梯度。有时还需要给偏置附上一些小的非0值来避免deadneuron,比如0.1。
zZ_efa3
·
2023-11-28 19:11
自己动手实现一个深度学习算法——八、深度学习
•
激活函数
是
ReLU
。•全连接层的后面使用Drop
千里之行起于足下
·
2023-11-28 19:13
机器学习
深度学习
pytorch
深度学习
算法
人工智能
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他