E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
ReLU激活函数
目标检测之fasterRCNN:关于学习使用fasterRCNN做目标检测
首先大体采用的是迁移学习的思路,注主要是对模型迁移,在img做了切割和西工大及北航的数据集上进行一个交叉训练,这样使得RPN的网络外面的打分函数有了一个更好的0.7的结果,这个结果主要是通过对
reLu
这个网络进行求导发现这个函数的凸性问题从而得到局部最优
BigCowPeking
·
2022-12-25 17:46
目标检测
faster
RCNN
对卷积神经网络CNN的理解,一文读懂卷积神经网络
主要由:输入,权重,
激活函数
来构成一个简单的神经元模型。在这里面,最重要的便是
激活函数
,
激活函数
决定了信息能否成功传输或者激发。就相当于从一个神经元传输向下一个神经元的过程。
王仙限
·
2022-12-25 17:42
cnn
深度学习
人工智能
深度学习基础(一)
深度学习理论知识文章目录深度学习理论知识写在前面卷积神经网络发展机器学习分类器KNN线性分类器优化方法图像的特征介绍神经网络梯度反向传播——是链式法则的递归调用卷积神经网络卷积神经网络的历史——一些比较重要的网络卷积神经网络训练卷积神经网络
激活函数
数据处理训练优化
用户昵称还已存在
·
2022-12-25 17:26
没钱买显卡
深度学习
人工智能
人工智能期末复习:人工神经网络(详细笔记和练习题)
文章目录1.概述2.基本单元-神经元3.
激活函数
3.1.阶跃函数3.2.Sigmoid函数3.3.TanH函数3.4.
ReLU
函数3.5.Softplus函数4.多层前馈神经网络5.损失函数5.1.均方误差
北岛寒沫
·
2022-12-25 14:59
人工智能
人工智能
深度学习
python sklearn逻辑回归 sgd和lr_python之sklearn-分类算法-3.4 逻辑回归与二分类
一,逻辑回归的应用场景广告点击率是否为垃圾邮件是否患病金融诈骗虚假账号二,逻辑回归的原理1,输入逻辑回归的输入是线性回归的结果:2,
激活函数
1)sigmoid函数回归的结果输入到sigmod函数当中输出结果
weixin_39856208
·
2022-12-25 12:20
python
sklearn逻辑回归
sgd和lr
oracle max函数速度慢_神经网络之
激活函数
_Sigmoid和Tanh探索
Sigmoid是神经网络常用的
激活函数
,相信大家在学机器学习的时候都知道Sigmoid的值域在(0,1)区间,模型结果y_label值是概率值,那么今天就来谈谈别的。
weixin_39579726
·
2022-12-25 12:14
oracle
max函数速度慢
reshape函数
sigmoid函数
基于BP神经网络算法鸢尾花数据集的分类
基于BP神经网络算法鸢尾花数据集的分类BP神经网络算法分析单个神经元的结构图1单个神经元结构
激活函数
激活函数
是一种添加到人工神经网络中的函数,旨在帮助网络学习数据中的复杂模式。
UJN_Zgq
·
2022-12-25 12:41
数据结构和算法
python
算法
神经网络
机器学习 --- 神经网络
深度学习以神经网络为基础,神经网络由多个感知机组成,并引入
激活函数
,是一个比感知机更复杂,能解决更多问题的模型。
川师_King
·
2022-12-25 10:24
机器学习
人脸识别学习一(Keras: 基于 Python 的深度学习库)
Keras,(不准确之处欢迎批评指出):Keras是一个库,基于python的深度学习库(已经用python编写好的高级神经网络API),将一些机器学习常用方法(例如神经网络层、损失函数、优化器、初始化方法、
激活函数
和正则化方法等
Clark-dj
·
2022-12-25 08:21
python学习
人工智能杂七杂八
机器学习
pytorch深度学习实践-多维特征输入0106
目录1、多维特征的输入实践-糖尿病数据预测2、torch.nn.BCELoss相关参数含义3、更换
激活函数
对比效果1、多维特征的输入实践-糖尿病数据预测importnumpyasnpimporttorchimportmatplotlib.pyplotasplt
cq-lc
·
2022-12-25 03:58
pytorch
深度学习
机器学习
CNN的实现(附代码)
网络的构成是“Convolution-
ReLU
-Pooling-Affine-
ReLU
-Affine-Softmax”,我们将它实现为名为SimpleConvNet的类。
压垮草的骆驼
·
2022-12-25 01:30
深度学习
李沐动手学深度学习V2-VGG11模型和代码实现
1.1VGG块经典卷积神经网络的基本组成部分是下面的这个序列:带填充以保持分辨率(保持输入输出形状尺寸大小相同)的卷积层;非线性
激活函数
,如
ReLU
;汇聚层,如最大汇聚层。一个VGG块与之类
cv_lhp
·
2022-12-25 01:29
李沐动手学深度学习笔记
深度学习
神经网络
pytorch
机器学习
人工智能
手算推导BP神经网络
说白了,就是在输入端输入X1~X7这7个输入值,在感知机中乘以各自的权重矩阵、加上偏置值b后再放入
激活函数
f,最后输出结果y.图中黄圈也代表了一个“感知机”,黄圈中进行了1.矩阵点乘后求和,2.加偏置值
weixin_34403693
·
2022-12-24 20:55
人工智能
神经网络梯度是什么意思,神经网络梯度消失问题
ReLU
在一定程度上能够防止梯度消失,但防止梯度消失不是用它的主要原因,主要原因是求导数简单。
普通网友
·
2022-12-24 18:48
神经网络
神经网络
深度学习
机器学习
机器学习中各种损失函数对比总结
2.在用sigmoid作为
激活函数
小·幸·运
·
2022-12-24 17:14
机器学习
深度学习
损失函数
机器学习
神经网络权重是什么意思,bp神经网络怎么看结果
参数初始化要满足两个必要条件:1、各个激活层不会出现饱和现象,比如对于sigmoid
激活函数
,初
普通网友
·
2022-12-24 17:06
神经网络
TensorFlow入门(1)深度学习基础知识以及tf.keras
目录目录多层感知器MLP隐藏层的选择Dense层Activation层Dropout层Flatten层activation
激活函数
:relusigmoidTanhleakyrelu神经网络的拟合能力参数选择原则
Kristen+U
·
2022-12-24 16:21
深度学习
神经网络
算法
tensorflow
python
六、超参数调整, 批量正则化 和多元分类器
文章目录1、超参数调整1.1参数选取的流程1.2参数选取的范围2、批量正则化2.1
激活函数
的正则化2.2在神经网络中使用批正则化2.3batchnorm起作用的原因分析3、构建softmax多元分类器3.1lossfunction
Dragon Fly
·
2022-12-24 16:10
深度学习
人工智能
深度学习
python
AlexNet论文笔记
文章目录前言dropoutfilter和kernel
激活函数
论文笔记摘要Architecture关键技术/创新1.
ReLU
非线性2.TrainingonMultipleGPUs3.局部响应标准化4.OverlappingPooling
lingboboo
·
2022-12-24 14:51
计设
深度学习
神经网络
AlexNet学习记录-前言
AlexNet参考文献前期知识储备1.机器学习2.神经网络3.图像分类4.PyTorch论文总览学习目标1.模型结构设计:
ReLU
、LRN、OverlappingPooling、双GPU训练2.减轻过拟合
林嘉帅
·
2022-12-24 14:18
AlexNet
学习
深度学习
神经网络
pytorch hardswish
激活函数
Hardswish
激活函数
,在MobileNetV3架构中被提出,相较于swish函数,具有数值稳定性好,计算速度快等优点,具体原理请参考:https://arxiv.org/pdf/1905.02244
ynxdb2002
·
2022-12-24 12:23
pytorch
python:
激活函数
及其导数画图sigmoid/tanh/
relu
/Leakyrelu/swish/hardswish/hardsigmoid
frommatplotlibimportpyplotaspltimportnumpyasnpdefsigmoid(x):return1/(1+np.exp(-x))defdx_sigmoid(x):returnsigmoid(x)*(1-sigmoid(x))deftanh(x):return(np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))defdx_ta
我爱写BUG
·
2022-12-24 12:51
深度学习与Python
python
激活函数
sigmoid
relu
swish
swish
激活函数
激活函数
提出论文:swishf(x)=x⋅sigmoid(βx)β是个常数或可训练的参数.Swish具备无上界有下界、平滑、非单调的特性。Swish在深层模型上的效果优于
ReLU
。
椒椒。
·
2022-12-24 12:50
视觉CV
深度学习
Torch.nn.Hardswish
Torch.nn.Hardswish
激活函数
实现classHardswish(nn.Module):def__init__(self):super(Hardswish,self).
qzhenyu
·
2022-12-24 12:20
PYTORCH
深度学习
python
机器学习
pytorch
神经网络
Pytorch Swish()
激活函数
importtorchimporttorch.nnasnnimporttorch.optimasoptimclassNet(nn.Module):def__init__(self):super(Net,self).__init__()self.main=nn.Sequential(nn.Linear(2,20),Swish(),nn.Linear(20,20),Swish(),nn.Linear(
赛马丸子
·
2022-12-24 12:15
深度学习与机器学习
pytorch
深度学习
python
激活函数
Swish和Hardswish简介
前言Swish
激活函数
和Hardswish
激活函数
学习笔记。Swish论文SearchingforActivationFunctions,Google出品。
coder1479
·
2022-12-24 12:45
深度学习
深度学习
神经网络
LeNet5 pytorch实现
网络结构C1层-卷积层核大小:5x5核数目:6步长:1输出特征图大小:6x28x28
激活函数
采用sigmoidS2层-池化层采用平均池化核大小:2x2步长:2输出特征图大小:6x14x14C3层-卷积层核大小
明天一定早睡早起
·
2022-12-24 11:23
机器学习
pytorch
深度学习
python
lenet 学习 pytorch 代码
__init__()self.
relu
=nn.Re
绕灵儿
·
2022-12-24 11:16
pytorch
学习
深度学习
resnext和SEresnet代码详解(一行一行代码详解)
resnext是由resnet50演变而来,于resnet50的区别就是在卷积块和
激活函数
之间其增加了bn板块,是为了对数据进行归一化处理,还有就是增加了分组,在论文中是将resnet里的图像channel
jsy在学习
·
2022-12-24 11:36
深度学习
神经网络
pytorch
机器学习十天学习计划四—神经网络与深度学习
神经元模型M-P神经元模型:一个神经元接收到其他n个神经元传递过来的输入信号,这些信号通过带权重的连接进行传递,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过“
激活函数
”(一般是sig(x)阶跃函数或者
北海星
·
2022-12-24 10:34
神经网络
python
机器学习
kaldi-tdnn模型训练策略-pytorch实现
relu
:RectifiedLinearComponentself-repair-scale=1e-05affine:NaturalGradientAffineComponentmax-change=0.75norm
guocehnxi
·
2022-12-24 10:20
pytorch
深度学习
语音识别
神经网络的基本要素
激活函数
:起非线性映射的作用,其可将神经元的输出幅度限制在一定范围内,一般限制在(-1~1)或(0~1)之间。最常用的
激活函数
是Sigmoid函数,其可将(-∞,+∞)的数映射到(0~1)的范围内。
YJZ555
·
2022-12-24 08:01
神经网络
深度学习
机器学习
2020-SIGIR- Lightgcn: Simplifying and powering graph convolution network for recommendation
LightGCN当前RS中的GCN工作没有进行彻底的消融实验,本文实验发现GCN的两项设计**[特征转化]和[非线性
激活函数
]**不适用于协调过滤。
Dive_
·
2022-12-24 08:13
推荐系统
推荐系统
逻辑回归、
激活函数
sigmoid、损失及优化、案例代码实现
广告点击率、是否为垃圾邮件、是否患病、金融诈骗、虚假账号等,特点是都属于两个类别之间的判断,逻辑回归是解决二分类问题的利器原理:掌握逻辑回归,需知道输入值是什么以及如何判断其输出输入是一个线性回归的结果二、
激活函数
learning-striving
·
2022-12-24 08:04
ML
逻辑回归
python
pandas
数据分析
机器学习——逻辑回归
逻辑回归(LogisticRegression)目录逻辑回归(LogisticRegression)sigmoid
激活函数
边界判定代价函数梯度下降特征缩放正则化(Regularization)正则化代价函数正则化梯度下降拟合效果源数据散点图如下
翫淍
·
2022-12-24 08:02
机器学习
机器学习
逻辑回归
人工智能
机器学习逻辑回归介绍
目录1逻辑回归的应用场景2逻辑回归的原理2.1输入2.2
激活函数
3损失以及优化3.1损失3.2优化4小结1逻辑回归的应用场景逻辑回归(LogisticRegression)是机器学习中的一种分类模型,逻辑回归是一种分类算法
赵广陆
·
2022-12-24 08:29
machinelearning
机器学习
逻辑回归
人工智能
TensorFlow 手写实现卷积神经网络CNN
MNIST数据集三:卷积神经网络搭建过程一:卷积神经网络基础概念普通的深层神经网络,层与层之间通过全连接进行稠密矩阵运算,矩阵中的权重系数比较多(参数多),影响效率且容易出现过拟合卷积神经网络的结构:卷积层、
激活函数
顾城沐心
·
2022-12-24 07:42
cnn
tensorflow
深度学习
人工智能-数学基础-核函数变换,熵与
激活函数
目录核函数的目的线性核函数多项式核函数核函数实例高斯核函数(最常用的一种)参数的影响熵的概念
激活函数
Sigmoid函数Tanh函数
Relu
函数(实际用得最多)LeakyReLU核函数的目的如果我的数据有足够多的可利用的信息
南征_北战
·
2022-12-24 01:29
算法
AI-逻辑回归函数、
激活函数
、损失函数
z=dot(w,x)+b解释:假设有三个特征,即x可以表示为(x1,x2,x3),w表示权重,对应每个特征的重要程度,b表示阈值,z是预测值,展开公式,即z=(x1*w1+x2*w2+x3*w3)+b
激活函数
weixin_30371469
·
2022-12-24 01:59
数据结构与算法
人工智能
机器学习——sigmoid、tanh、
relu
等
激活函数
总结
一、什么是
激活函数
?一个神经元会同时接收多个信号,然后将这些信号乘以一定权重求和,再用函数处理后再输出新的信号。对神经元的输入进行处理,以获得输出的函数称为
激活函数
。二、为什么要用
激活函数
?
TopTAO-
·
2022-12-24 01:59
深度学习
机器学习
人工智能---神经网络
激活函数
恒等函数、sigmoid函数、softmax函数详解
系列文章目录人工智能—深度学习神经网络神经元的实现人工智能–深度学习两层全连接神经网络搭建文章目录系列文章目录前言一、输出层的意义二、不同
激活函数
的介绍和实现1.恒等函数2.sigmoid函数3.softmax
Foxerity
·
2022-12-24 01:59
人工智能
人工智能
神经网络
python
机器学习
深度学习
AI知识点(1)--
激活函数
2019年第84篇文章,总第108篇文章本文大约5000字,阅读大约需要15分钟AI知识点(AIKnowledge)系列第一篇文章--
激活函数
。
spearhead_cai
·
2022-12-24 01:23
激活函数
和最常用的10个
激活函数
1.什么是
激活函数
activationfunction
激活函数
是一种添加到ANN中的函数,它决定了最终要发射给下一个神经元的内容。
安和橋北
·
2022-12-24 01:51
深度学习
机器学习
人工智能
深度学习
[人工智能-深度学习-12]:神经网络基础 -
激活函数
之SoftMax与多分类神经网络模型
作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客本文网址:https://blog.csdn.net/HiWangWenBing/article/details/120575018目录第1章sigmoid函数在多分类中的困境第2章softmax函数在多分类中的应用2.1什么是softmax2.2softmax的几何意义2.3softmax在多分类中的应用2
文火冰糖的硅基工坊
·
2022-12-24 01:21
人工智能-深度学习
人工智能-TensorFlow
人工智能-PyTorch
神经网络
人工智能
深度学习
softmax
人工智能基础部分5-
激活函数
的概念
大家好,我是微学AI,今天给大家介绍一下深度学习中的
激活函数
。
微学AI
·
2022-12-24 01:51
人工智能基础部分
人工智能
深度学习
深度学习基础知识(
激活函数
,损失函数)
深度学习基础知识
激活函数
:作用是在线性变换后加入线性变换。非线性的
激活函数
可以使神经网络逼近复杂函数。如果没有
激活函数
,多层神经网络就跟单层神经网络没有区别。
Ferbc
·
2022-12-24 01:51
深度学习
深度学习
机器学习
人工智能
神经网络与深度学习笔记——梯度下降算法是什么?
主要介绍了神经网络的基础例如感知器
激活函数
等概念,最主要介绍了梯度下降算法。第二章反向传播算法如何工作——反向传播算法原理。主要介绍了反向传播算法的工作原理。
刘爱然
·
2022-12-23 22:55
神经网络与机器学习笔记
深度学习
神经网络
tf.GradientTape() 示例
tf.GradientTape()示例简单写写,代码请自行补全#定义模型model=keras.Sequential([layers.Dense(256,activation='
relu
'),layers.Dense
夏华东的博客
·
2022-12-23 19:20
python
深度学习
机器学习
小白笔记:深度学习之Tensorflow笔记(七:神经网络优化过程)
激活函数
激活函数
是用来加入非线性因素的,因为线性模型的表达能力不够。引入非线性
激活函数
,可使深层神经网络的表达能力更加强大。
my小马
·
2022-12-23 18:43
tensorflow
深度学习
神经网络
tensorflow
深度学习
人工智能实践:Tensorflow笔记 Class 2:神经网络优化
目录2.1基础知识2.2复杂度学习率1.复杂度2.学习率2.3
激活函数
1.sigmoid函数2.tanh函数3.
relu
函数4.leaky-
relu
函数2.4损失函数1.均方误差2.自定义损失函数3.交叉熵损失函数
By4te
·
2022-12-23 18:41
机器学习
Python
tensorflow
人工智能
神经网络
上一页
46
47
48
49
50
51
52
53
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他