E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
激活函数
大创项目推荐 卷积神经网络手写字符识别 - 深度学习
文章目录0前言1简介2LeNet-5模型的介绍2.1结构解析2.2C1层2.3S2层S2层和C3层连接2.4F6与C5层3写数字识别算法模型的构建3.1输入层设计3.2
激活函数
的选取3.3卷积层设计3.4
laafeer
·
2023-12-15 22:36
python
深度学习进阶篇-国内预训练模型[5]:ERINE、ERNIE 3.0、ERNIE-的设计思路、模型结构、应用场景等详解
【深度学习入门到进阶】必看系列,含
激活函数
、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等专栏详细介绍:【深度学习入门到进阶】必看系列,含
激活函数
、优化策略、损失函数
汀、人工智能
·
2023-12-15 22:07
#
深度学习入门到进阶
深度学习
人工智能
自然语言处理
transformer
ERNIE
斯坦福机器学习 Lecture12 (反向传播算法详细推导过程,如何提高神经网络性能(主要是
激活函数
的选择,还有输入数据归一化,权重矩阵初始化方法, 小批次梯度下降法,动量算法 ))
我们的目的就是更新权重矩阵利用部分公式,如下:计算之后,lossfunction针对w3矩阵的导数如下:如何提高神经网络性能通常使用简单的神经网络并不会得到好结果,我们需要提升它1.选用合适的
激活函数
(
shimly123456
·
2023-12-15 22:36
斯坦福机器学习
机器学习
激活函数
数学详解以及应用场景解释
文章目录
激活函数
1.Sigmoid
激活函数
例子及推导过程代码2.ReLU
激活函数
例子及推导过程3.Tanh
激活函数
例子及推导过程代码4.Softmax
激活函数
例子及推导过程代码CNN中的卷积层工作原理卷积计算过程卷积后的输出及
h52013141
·
2023-12-15 22:29
机器学习
算法
人工智能
深度学习
python
【图像分类】【深度学习】【轻量级网络】【Pytorch版本】MobileNets_V3模型算法详解
模型算法详解文章目录【图像分类】【深度学习】【轻量级网络】【Pytorch版本】MobileNets_V3模型算法详解前言MobleNet_V3讲解SE模块(SqueezeExcitation)重新设计
激活函数
反向残差结构
牙牙要健康
·
2023-12-15 20:43
图像分类
深度学习
轻量级网络
深度学习
算法
分类
什么是神经网络的非线性
最近在写《计算机视觉入门与调优》(右键,在新窗口中打开链接)的小册,其中一部分说到
激活函数
的时候,谈到了神经网络的非线性问题。
董董灿是个攻城狮
·
2023-12-15 17:17
图像识别
and
Resnet
网络拆解
神经网络
人工智能
深度学习
算法……到底是干啥的?(摘自牛客网)
平常就是看论文技术分享接项目给方案跑模型部署到终端清洗数据打比赛写论文写专利面试一般问对应岗位方向前沿的算法paper2.面试问项目问论文,问深度学习和机器学习相关八股,比如transfomer、Bert、gpt、过拟合欠拟合、数据不平衡、梯度消失梯度爆炸、损失函数
激活函数
啥的
芒果香菠菠
·
2023-12-15 17:36
算法
《从GLM-130B到ChatGLM:大模型预训练与微调》笔记
增强大模型的逻辑推理能力第二部分GLM和LLaMA中采用RoPE旋转式编码BF16牺牲了数据精度(表示由10位降到7位),但扩大了数据的表示范围(有研究表明数据表示范围比精度更重要)LLaMA采用BF16训练的大部分内存占用为
激活函数
有个参数服务器
佛系调参
·
2023-12-15 13:01
自然语言处理
语言模型
自然语言处理
人工智能
阶段五:深度学习和人工智能(学习神经网络和深度学习的基本概念)
每个神经元接收输入信号,通过
激活函数
进行非线性转换,然后将输出传递给其他神经元。神经网络的主要特点是能够学习和优化自身的权重和偏置,以更好地完成特定的任务。
哈嗨哈
·
2023-12-15 04:14
深度学习
人工智能
学习
python
深度学习基础回顾
深度学习基础浅层网络VS深层网络深度学习常用的
激活函数
Sigmoid函数ReLU函数Softplus函数tanh函数归纳偏置CNN适用数据归纳偏置RNN适用数据归纳偏置浅层网络VS深层网络浅层神经网络参数过多
一根老麻花
·
2023-12-14 19:48
课程复习
深度学习
人工智能
Graph Attention Networks(GATs)
文章目录前言一、GATs原理1、线性变换2、
激活函数
3、Softmax归一化4、多层注意力5、改进注意力层二、Cora分类数据集1、导入数据库2、GATs类3、训练GATv
Authony.
·
2023-12-06 18:49
#
GNN
Fundamental
python
matplotlib
算法
均值算法
Yolov4 学习笔记
Yolov4学习笔记损失函数之前损失函数存在的问题GIOUDIOUCIOUBOSSPPnetCSPnetSAMPAN层mish
激活函数
损失函数666666之前损失函数存在的问题之前公式为1-IOUIOU
魏郴
·
2023-12-06 10:24
YOLO
学习
笔记
TORCH02-02:Torch常见机器学习函数
Function接口规范,会提升求导的效率;本主题主要梳理Torch与机器学习有关的函数运算; 1.Tensor中实现的函数运算 2.torch.nn.functional中封装的各类函数说明:其中的
激活函数
对机器学习的训练非常重要张量运算函数下面三个函数有两种使用方式
杨强AT南京
·
2023-12-06 03:20
【深度学习笔记】07 多层感知机
07多层感知机多层感知机在网络中加入隐藏层从线性到非线性
激活函数
ReLU函数sigmoid函数tanh函数多层感知机的从零开始实现初始化模型参数
激活函数
模型损失函数训练多层感知机的简洁实现模型多层感知机在网络中加入隐藏层我们可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制
LiuXiaoli0720
·
2023-12-06 00:49
深度学习笔记
深度学习
笔记
人工智能
模型训练 出现NaN的原因以及解决方法
数值不稳定的
激活函数
:某
码农研究僧
·
2023-12-05 22:31
深度学习
深度学习
模型训练
NaN值
【PyTorch】多层感知机
文章目录1.模型与代码实现1.1.模型1.1.1.背景1.1.2.多层感知机1.1.3.
激活函数
1.2.代码实现1.2.1.完整代码1.2.2.输出结果2.Q&A1.模型与代码实现1.1.模型1.1.1
盛世隐者
·
2023-12-05 14:12
深度学习
pytorch
nn.Sequential
它允许您将多个神经网络层(例如卷积层、池化层、
激活函数
等)按顺序组合在一起。使用nn.Sequential可以轻松地构建复杂的神经网络结构,而无需手动连接各个层。
湫兮之风
·
2023-12-05 13:39
深度学习
深度学习
神经网络
人工智能
Batch Normalization
随着网络的深度增加,每层特征值分布会逐渐的向
激活函数
的输出区间的上下
无妄无望
·
2023-12-05 09:43
batch
人工智能
开发语言
Course2-Week2-神经网络的训练方法
Course2-Week2-神经网络的训练方法文章目录Course2-Week2-神经网络的训练方法1.神经网络的编译和训练1.1TensorFlow实现1.2损失函数和代价函数的数学公式2.其他的
激活函数
虎慕
·
2023-12-05 09:01
#
机器学习-吴恩达
神经网络
人工智能
深度学习
卷积神经网络中用1*1 卷积有什么作用或者好处呢?
一、来源:[1312.4400]NetworkInNetwork(如果1×1卷积核接在普通的卷积层后面,配合
激活函数
,即可实现networkinnetwork的结构)二、应用:GoogleNet中的Inception
Angelina_Jolie
·
2023-12-05 07:37
深度学习笔记
cnn
深度学习
神经网络
卷积神经网络入门
其基本结构如图2-1所示,大致包括:卷积层,
激活函数
,池化层,全连接层,输出层。
半截詩
·
2023-12-05 01:23
深度学习
cnn
深度学习
计算机视觉
神经网络
Linux系统配置深度学习环境之cudnn安装
cuDNN提供了一系列优化的基本算法和函数,包括卷积、池化、规范化、
激活函数
等,以及针对深度学习任务的高级功能,如循环神经网络(RNN)的支持。
番茄小能手
·
2023-12-04 08:51
Linux
linux
深度学习
运维
感知器(Perceptron)详解以及实现
感知器的核心概念感知器模型基于将输入特征加权求和,然后应用
激活函数
来决定输出类别。1.输入和权重输入:x1,x2,...,xnx_1,x_2,...,x_nx1,x2,...,xn是特征向量。
h52013141
·
2023-12-04 08:38
机器学习
算法
python
计算机视觉(OpenCV+TensorFlow)
计算机视觉的两大挑战4.计算机视觉的8大任务图像分类目标检测语义分割实例分割视频分类人体关键点检测场景文字识别目标追踪5.OpenCV在计算机视觉中扮演的角色十三.神经网络1.引子2.神经元3.MP模型4.
激活函数
Mayphyr
·
2023-12-04 05:44
计算机视觉
opencv
tensorflow
CV baseline概览|AlexNet:ImageNet Classification with Deep Convolutional Neural Networks基于深度卷积神经网络的图像分类
文章目录CVbaseline重要性CNN发展历程演化路径AlexNet概览AlexNet全文翻译摘要1引言2数据集3网络结构3.1ReLU非线性
激活函数
3.2在多GPU上训练3.3局部响应标准化LRN3.4
源代码•宸
·
2023-12-04 01:26
计算机视觉论文
分类
人工智能
经验分享
AlexNet
computer
vision
深度学习
神经网络
深度学习记录--logistic回归损失函数向量化实现
以更少的代码量和更快的速度来实现程序正向传播的向量化对于,用向量化来实现,只需要就可以完成,其中,,ps.这里b只是一个常数,但是依然可以加在每个向量里(python的广播(Broadcasting))
激活函数
蹲家宅宅
·
2023-12-03 20:09
深度学习记录
人工智能
深度学习
回归
python
神经网络(第三周)
一、简介1.1非线性
激活函数
1.1.1tanh
激活函数
使用一个神经网络时,需要决定在隐藏层上使用哪种
激活函数
,哪种用在输出层节点上。
叫小侯的小白程序员
·
2023-12-03 11:34
深度学习
神经网络
人工智能
每天五分钟计算机视觉:AlexNet网络的结构特点
2、Alex使用了ReLu
激活函数
,使得模型收敛得更快,解决了sigmoid
激活函数
所存在的梯度弥散的问题。3、Alex使用了dropout层,这可以有效地防止过拟合的问题。4
幻风_huanfeng
·
2023-12-03 06:51
计算机视觉
计算机视觉
人工智能
深度学习
卷积神经网络
AlexNet
【动手学深度学习】(八)数值稳定和模型初始化
梯度爆炸的问题值超出阈值对于16位浮点数尤为严重对学习率敏感如果学习率太大->大参数值->更大的梯度如果学习率太小->训练无进展我们可能需要在训练过程中不断调整学习率5.梯度消失使用sigmoid作为
激活函数
释怀°Believe
·
2023-12-03 04:50
#
动手学深度学习
深度学习
人工智能
逻辑回归与正则化 逻辑回归、
激活函数
及其代价函数
逻辑回归、
激活函数
及其代价函数线性回归的可行性对分类算法,其输出结果y只有两种结果{0,1},分别表示负类和正类,代表没有目标和有目标。
小小程序○
·
2023-12-02 22:33
逻辑回归
算法
机器学习
Softmax与交叉熵:理解神经网络中的重要组成部分
第一部分:Softmax函数一、概念与定义Softmax函数是一种常用的
激活函数
,用于将神经网络的输出转化为概率分布。给定一个具有n个类别的样本,So
非著名程序员阿强
·
2023-12-02 19:28
神经网络
人工智能
深度学习
激活函数
——Relu,Swish
形式如下:relu公式-----steppedsigmoid-------softplusfunction-------Relfunction其中--------sigmoid下面解释上述公式中的softplus,NoisyReLU.softplus函数与ReLU函数接近,但比较平滑,同ReLU一样是单边抑制,有宽广的接受域(0,+inf),但是由于指数运算,对数运算计算量大的原因,而不太被人使用
乔大叶_803e
·
2023-12-02 14:51
深度学习——
激活函数
汇总
深度学习——
激活函数
汇总一、ReLU一、ReLU参考资料:https://zhuanlan.zhihu.com/p/428448728
William.csj
·
2023-12-01 20:03
计算机视觉
深度学习
激活函数
深度学习手势识别 - yolo python opencv cnn 机器视觉 计算机竞赛
文章目录0前言1课题背景2卷积神经网络2.1卷积层2.2池化层2.3
激活函数
2.4全连接层2.5使用tensorflow中keras模块实现卷积神经网络3YOLOV53.1网络架构图3.2输入端3.3基准网络
Mr.D学长
·
2023-12-01 18:54
python
java
机器学习——逻辑回归
回归问题:例如线性回归,用于拟合方程,预测趋势、曲线走势等分类问题:例如男女分类,猫狗大战等,用于解决类别区分问题sigmoid函数这里介绍一个特殊的函数,在深度学习中也称为
激活函数
,而在机器学习,或者说这篇博文中
SF-FCZ
·
2023-12-01 15:17
机器学习
机器学习
逻辑回归
人工智能
day1-多层感知机
内容包括:MLP简介与普通感知机的区别2.为什么需要多层感知机
激活函数
1.不同
激活函数
介绍relusigmoidtanh区别MLP简介与普通感知机区别加入了一个或多个隐藏层,并引入
激活函数
多层可以拟合更复杂的线性函数
wamgz
·
2023-12-01 12:48
pytorch中的
激活函数
详解
1
激活函数
介绍1.1什么是
激活函数
激活函数
是神经网络中引入的非线性函数,用于捕获数据中的复杂关系。
智慧医疗探索者
·
2023-11-30 23:32
人工智能初探
深度学习之pytorch
pytorch
人工智能
激活函数
深度学习毕设项目 深度学习 python opencv 动物识别与检测
文章目录0前言1深度学习实现动物识别与检测2卷积神经网络2.1卷积层2.2池化层2.3
激活函数
2.4全连接层2.5使用tensorflow中keras模块实现卷积神经网络3YOLOV53.1网络架构图3.2
DanCheng-studio
·
2023-11-29 20:41
毕业设计
python
毕设
python与机器学习1,机器学习的一些基础知识概述(完善ing)
人工智能、机器学习、深度学习、神经网络之间的关系:1.2人工智能的发展2ML机器学习的分类:SL,USL,RL2.1机器学习的分类2.2具体的应用举例2.3数据分类3关于阈值θ和偏移量b的由来4不同的
激活函数
奔跑的犀牛先生
·
2023-11-29 11:57
python
机器学习
2023-简单点-机器学习中常用的特殊函数,
激活函数
[sigmoid tanh ]
机器学习中的特殊函数Sigmoidsoftplus函数tanhReLu(x)Leaky-ReluELUSiLu/SwishMish伽玛函数beta函数RefSigmoid值域:【0,1】定义域:【负无穷,正无穷】特殊点记忆:经过[0,0.5]关键点[0,0.5]处的导数是0.025相关导数:softplus函数值域:(0,无穷大】定义域:【负无穷,正无穷】特殊点记忆:经过[0,1]关键点[0,1]
简单点好不好的仓库
·
2023-11-29 09:31
神经网络
机器学习
人工智能
吃瓜-TASK04 神经网络/1
它的组织能够模拟生物神经系统对真实世界物种所作出的交互反应M-P神经元模型:每个神经元收到nn个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接传递,神经元接收到的总输入值与该神经元阈值进行比较,然后通过
激活函数
处理
f9e1e1f76d8b
·
2023-11-29 06:50
深度学习之BP神经网络
1.说明现在使用深度学习算法都以调库为主,但在使用库之前,先用python写一个最基本的神经网络的程序,也非常必要,它让我们对一些关键参数:学习率,批尺寸,
激活函数
,代价函数的功能和用法有一个直观的了解
暗光anguang
·
2023-11-29 05:13
人工智能
机器学习
深度学习
神经网络
深度学习基础概念
激活函数
(ActivationFunction):学习常见的
激活函数
,如Sigmoid、ReLU等,以及它们在神经网络中的作用。
yuer629
·
2023-11-29 00:01
深度学习
人工智能
深度学习
激活函数
总结(sigmoid,tanh,ReLU,Leaky ReLU,EReLU,PReLU,Softmax,Swish,Maxout,Softplus)
摘要本文总结了深度学习领域最常见的10中
激活函数
(sigmoid、Tanh、ReLU、LeakyReLU、ELU、PReLU、Softmax、Swith、Maxout、Softplus)及其优缺点。
雪的期许
·
2023-11-29 00:30
深度学习
神经网络
机器学习
激活函数
不同
激活函数
与对应的初始化方法
1.ReLu.当使用ReLu
激活函数
时,需要使用正态分布的初始化方法,给参数加一点噪声,来打破完全对称并且避免0梯度。有时还需要给偏置附上一些小的非0值来避免deadneuron,比如0.1。
zZ_efa3
·
2023-11-28 19:11
自己动手实现一个深度学习算法——八、深度学习
•
激活函数
是ReLU。•全连接层的后面使用Drop
千里之行起于足下
·
2023-11-28 19:13
机器学习
深度学习
pytorch
深度学习
算法
人工智能
总结一下sigmoid函数
在二分类0,1任务中,经过卷积、正则化、
激活函数
ReLU等操作之后,假如生成了一个(B,1,1,1)的张量,每个值在(无穷小,无穷大)之间,经过sigmoid函
weixin_44194001
·
2023-11-28 00:48
人工智能
机器学习
深度学习
计算机视觉面试题-03
1、简单介绍一下sigmoid,relu,softplus,tanh,RBF及其应用场景这里简单介绍几个
激活函数
及其应用场景:Sigmoid函数(Logistic函数):公式:sigma(x)=11+e
普通研究者
·
2023-11-27 20:26
计算机视觉面试题
计算机视觉
人工智能
FGSM攻击机器学习模型
FGSM技术对抗攻击技术,因为网络的深层,很少的改变就有可能改变网络中
激活函数
的方向,进而直接大量改变输出。因此,从模型中得到特殊的输入X就能让模型产生严重的误判,这种就是神经网络攻击技术。
Hαlcyon
·
2023-11-27 19:03
深度学习
深度学习
cnn
卷积神经网络
FGSM
对抗攻击
人工智能理论
1.3人工智能与图灵机的关系1.4人工智能的基本解决方案1.5反向传播算法的推导1.6神经网络的可解释性的定义1.7梯度消失和梯度爆炸1.7.1解决方案——梯度截断和固定梯度1.8
激活函数
1.9梯度下降的步进问题
BoilingHotPot
·
2023-11-27 11:41
人工智能
人工智能
深度学习
机器学习
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他