E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络学习
神经网络学习
笔记(二)——循环神经网络RNN
循环神经网络RNN文章目录循环神经网络RNN一、概述二、背景三、RNN原理3.1模型结构3.2前向传播3.3反向传播BPTT(back-propagationthroughtime)3.4RNN的分类3.5RNN的改进双向RNN深度RNN四、RNN的简单使用五、总结一、概述 循环神经网络(Recurrentneuralnetwork,RNN)是一类以序列(sequence)数据为输入,在序列的演
Storm*Rage
·
2023-01-11 07:48
“深度学习”学习日记。神经网络的学习--损失函数
为了使
神经网络学习
,就得导入损失函数这一个指标。而学习的目的就是一该损失函数为基准,找出使它的值达到最小权重的参数。
Anthony陪你度过漫长岁月
·
2023-01-09 11:24
深度学习
神经网络
学习
利用pytorch来深入理解CELoss、BCELoss和NLLLoss之间的关系
对于神经网络而言,损失函数决定了
神经网络学习
的走向,至关重要。pytorch中的所有损失函数都可以通过reduction=‘mean’或者reduction=‘sum’来设置均值还是总值。
changxl.
·
2023-01-09 08:54
pytorch
深度学习
神经网络
残差网络
多层网络使用上面简单感知机的权重调整规则显然不够用了,BP神经网络算法即误差逆传播算法(errorBackPropagation)正是为学习多层前馈神经网络而设计,BP神经网络算法是迄今为止最成功的的
神经网络学习
算法
cdy艳0917
·
2023-01-08 10:03
卷积神经网络
图
神经网络学习
(一)-GCN及其应用
内容提要:GCN背景简介+torch_geometric库安装+GCN处理Cora数据集1.图神经网络1.1概念原有的卷积神经网络主要用来解决欧式空间中的数据(数据规整,形状固定),例如图像数据。无法应对非欧式空间中的数据,例如图数据。但是神经网络是规整的计算方式,所以图神经网络的目标就是,如何去用规整的神经网络去处理不规整的图数据。1.2应用场景非欧数据的场景很多,如:社交网络,计算机网络,病毒
Enoch Liu98
·
2023-01-08 07:51
机器学习
学习
pytorch
深度学习
Matlab之BP
神经网络学习
------ Day 1
一:BP神经网络概述BP神经网络是一种多层前馈神经网络,网络主要特点是信号前向传递,误差反向传递。BP神经网络传递基本流程为:输入层--->逐层处理--->输出层(媒介:隐含层)。值得注意的事:每一层神经元状态只影响下一神经元状态。若得不到期望的输出,则反向传播,根据预测误差调整网络权值与阀值,从而使BP神经网络预测预值不断逼近期望值。拓扑结构图:此结构图是经典网络结构图:x1、x2...xn作为
_Collapsar___
·
2023-01-07 18:33
matlab
神经网络
深度学习
神经网络学习
(三):解偏微分方程
前言在完成了常微分的数值解之后,我开始如法炮制的来解偏微分,我觉得解法上是一样的,都直接使用autograd就可以了,所以理论是难度并不大(虽然实际上我是花的时间最长的),只不过需要注意的细节比较多,所以模型卡了很久都没有效果,让我都怀疑人生了,今天终于找到了问题!所以把整个过程介绍一下今天选择的偏微分方程为Burgers方程,在Dirichlet条件下求数值解,具体形式为:训练流程1.定义网络这
LusinLee
·
2023-01-07 12:41
神经网络
神经网络
深度学习
机器学习
董彬教授:用深度
神经网络学习
偏微分方程及其数值求解的离散格式
2019年10月31日下午,在北京智源大会的“人工智能的数理基础专题论坛”上,北京大学副教授、智源学者董彬做了题为《LearningandLearningtoSolvePDEs》的主题演讲(编者注:PDE,PartialDifferentialEquation,偏微分方程)。早在加州大学圣地亚哥分校(UCSD)攻读博士后期间,董彬便在图像反问题领域做了一系列开创性的研究,他同合作者一起建立了小波框
智源社区
·
2023-01-07 12:10
神经网络求解偏微分方程时遇到的一些问题
方程的选择与处理首先,选取的偏微分方程参考了如下博客
神经网络学习
(三):解偏微分方程_LusinLee的博客-CSDN博客_神经网络求解偏微分方程这里的偏微分方程为:在设计损失函数时,我选择了通过改变网络输出函数
ion_ura
·
2023-01-07 12:09
pytorch
神经网络
神经网络学习
小记录24——卷积神经网络经典模型及其改进点汇总
神经网络学习
小记录24——卷积神经网络经典模型及其改进点汇总学习前言经典神经网络的改进点经典神经网络的结构汇总1、VGG162、ResNet503、InceptionV34、Xception5、MobileNet
Bubbliiiing
·
2023-01-07 11:50
神经网络学习小记录
卷积神经网络经典模型汇总
改进点
汇总
神经网络学习
——梯度下降算法
梯度下降算法。神经网络的学习的目的是找到是损失函数的值尽可能效的参数,这是寻找最优参数的问题,解决这个问题的过程称为最优化。遗憾的是这个问题非常难。这是因为参数空间非常复杂,无法轻易找到最优解。而且,在深度神经网络中,参数的数量非常庞大,导致最优化的问题更加复杂。下面给出几种最优化算法的优缺点算法优点缺点SDG避免冗余数据的干扰,收敛速度加快,能够在线学习。更新值的方差较大,收敛过程会产生波动,可
王木木呀!
·
2023-01-07 07:45
神经网络
算法
神经网络
python
深度学习
人工智能
注意力机制attention笔记
注意力机制attention笔记
神经网络学习
小记录63–Keras图像处理中注意力机制的代码详解与应用_Bubbliiiing的博客-CSDN博客_keras通道注意力attention介绍_纵雪者的博客
锦鲤柠檬
·
2023-01-04 09:27
#
机器学习
深度学习
keras
神经网络
GNN、GCN、GAT图卷积
神经网络学习
一、GNNGNN能干什么?二、GCN在GNN的基础上,GCN要解决的是一个什么问题呢?以求Xi的平均工资为例:更新后的节点信息=邻居节点的信息N+自身节点的信息但是A只与B关联,B与很多节点关联。当计算A的平均工资时,按照上面的公式把B的信息传给A,会使A的信息失真,因此GCN的目标就是解决这个信息传递时失真的问题。解释一下这个公式:A'矩阵代表A的关联矩阵(关联信息+自身信息),D'代表A'的度
在平凡生活中挣扎
·
2023-01-03 17:59
知识图谱
学习
人工智能
yolo系列理论补充(v4、v5、x)和瑞芯微
神经网络学习
小记录60——PytorchGhostNet模型的复现详解_Bubbliiiing的博客-CSDN博客Pytorch搭建自己的Ghostnet-YoloV4目标检测平台(Bubbliiiing
Jormungand123
·
2023-01-03 10:58
python
机器学习笔记------神经网络
神经网络学习
的过程就是根据训练数据来调整神经元之间的“连接权(connectionweight)”以及每个功能神经元的阈值——神经网络“学”到的东西,蕴涵在连接权与阈值中。
玉成226
·
2023-01-02 11:42
---------【机器学习】
吴恩达机器学习[9]-
神经网络学习
神经网络学习
NeuralNetwork非线性假设Non-linearhypotheses神经元与大脑Neuronsandthebrain模型展示1Modelrepresentation1模型展示2Modelrepresentation2
踏归1234
·
2023-01-02 07:19
机器学习
神经网络
学习
机器学习
吴恩达机器学习课程07——
神经网络学习
目录神经网络模型前向传播反向传播神经网络模型关于这一块的入门知识,比如什么是神经网络呀,等等抽象的入门概念,我不打算讲太多,准确的说,吴恩达老师的课程里已经陈述了一遍了,比较好理解,没有太多要讲的地方。今天的话,我主要想再讲一下前向传播和反向传播的知识(主要是反向传播),这一块其实吴恩达老师也拿出了很多的时间来讲解,但是说实话,这一块内容比较的绕,需要一定的数学功底,之前我也专门总结过很多次了,即
CtrlZ1
·
2023-01-02 07:45
吴恩达机器学习课程
神经网络
机器学习
人工智能
吴恩达
win10环境下配置pytorch深度学习环境(anaconda3 + cuda 11.1 + cudnn 8005 + pytorch 1.9)
参考链接:深度学习环境配置2——windows下的torch=1.2.0环境配置_Bubbliiiing的学习小课堂-CSDN博客_
神经网络学习
小记录Win10安装CUDA11.4和Torch1.9.0
tiger&sheep
·
2022-12-31 11:34
pytorch
深度学习
pytorch
windows
极限学习机ELM回归预测(MATLAB代码实现)
摘要极限学习机(ExtremeLearningMachine,ELM)作为前馈
神经网络学习
中一种全新的训练框架,在行为识别、情感识别和故障诊断等方面被广泛应用,引起了各个领域的高度关注和深入研究.ELM
我爱Matlab编程
·
2022-12-31 04:21
神经网络
matlab
开发语言
tensorflow入门(二)
TensorFlow实现卷积
神经网络学习
Tensorflow实战个人笔记,共大家学习交流,欢迎拍砖作者:谢中朝1.TensorFlow实现简单的卷积神经网络'''载入MNIST数据集,并创建默认的InteractiveSession
绿色的森林
·
2022-12-30 22:50
Tensorflow
Tensorflow
mnist
cifar
【基于Pytorch的手写汉字识别】
记录信息记录时间:2020.12.11记录地点:图书馆六楼LJ0972靠窗位置记录背景:基于之前对【手写汉字美学评估】的了解,认为手写汉字识别是
神经网络学习
入门的非常好的途径。
小书包@
·
2022-12-30 19:44
python
pytorch
动手学深度学习(现代卷积
神经网络学习
笔记)
现代卷积神经网络之前的传统的机器学习方式,是传入人工制作选取的图像特征作为输入,训练后送入分类器中,如今是原始图像(可能裁剪)输入网络进行训练。计算机视觉研究人员相信,从对最终模型精度的影响来说,更大或更干净的数据集、或是稍微改进的特征提取,比任何学习算法带来的进步要大得多。大纲主要有以下结构,学习这些结构,包含的思想,有助于以后自己网络模型的搭建AlexNet。它是第一个在大规模视觉竞赛中击败传
遥感人遥感魂
·
2022-12-30 07:14
动手学深度学习
深度学习
cnn
学习
神经网络学习
笔记9——循环神经网络中的LSTM模型和GRU模型
系列文章目录LSTM视频参考GRU视频参考文章目录系列文章目录前言一、LSTM模型结构二、GRU模型结构三、GRU与LSTM的比较前言循环神经网络(RecurrentNeuralNetwork,RNN)是一种用于处理序列数据的神经网络。相比一般的神经网络来说,他能够处理序列变化的数据。比如某个单词的意思会因为上文提到的内容不同而有不同的含义,RNN就能够很好地解决这类问题。LSTM是RNN的一种,
RanceGru
·
2022-12-29 17:23
深度学习
rnn
lstm
神经网络
顶会快讯 | 两篇多图
神经网络学习
跨域表示文章推荐
导读:本期论文分享两篇多图
神经网络学习
跨域表示的文章,一篇是图节点分类任务,另一篇是推荐任务的。
weixin_45519842
·
2022-12-29 13:37
神经网络学习
笔记(三)——长短期记忆网络LSTM
长短期记忆网络LSTM文章目录长短期记忆网络LSTM一、概述二、背景三、LSTM原理3.1模型结构3.2前向传播3.3反向传播3.4LSTM的变体3.4.1PeepholeConnection3.4.2Coupled四、LSTM的简单使用五、总结一、概述 长短期记忆网络——通常被称为LSTM,是一种特殊的RNN,能够学习长期依赖性。由Hochreiter和Schmidhuber(1997)提出,
Storm*Rage
·
2022-12-29 12:09
Pytorch:深度学习中的Normalization
BatchNormLayerNormInstanceNormGroupNorm1.1.Normalization的意义参考:ICS(internalcovariateshift)问题详解Normalization主要是解决ICS问题,我们常说深度学习
神经网络学习
到特征
Rui@
·
2022-12-29 12:06
Pytorch
深度学习
pytorch
机器学习
TensorRT入门介绍
它专注于推理任务,与常用的
神经网络学习
框架形成互补,包括TensorFlow、Caffe、PyTorch、MXNet等。可以直接载入这些框架的已训练模型文件,也提供了API接口通过编程自行构建模型。
Ango_Cango
·
2022-12-29 11:51
图像算法
神经网络
深度学习
TensorRT
ONNX
深度学习归一化方法
神经网络学习
的本质就是学习数据的分布。如果没有对数据进行归一化处理,那么每一批次训练的数据的分布就有可能不一样。
嘟嘟太菜了
·
2022-12-28 22:31
深度学习
机器学习
python
深度学习
神经网络
机器学习
【吴恩达机器学习笔记】第五章
神经网络学习
【吴恩达机器学习笔记】第五章
神经网络学习
1、神经网络模型我们将一个神经元模拟成一个逻辑单元,下图表示对hθ(x)h_{\theta}(x)hθ(x)进行计算的神经元,黄色圆圈代表一个神经元,蓝色圆圈代表树突或轴突传输的信号
毕君郁
·
2022-12-28 12:13
神经网络
吴恩达
机器学习
AI
人工智能
最成功的
神经网络学习
算法:反向传播
文章目录Back-propagationNeuralNetwork(BP神经网络)StructureofBP-NN(BP神经网络的结构)LearningAlgorithmofBP-NN(BP-NN的学习算法)AlgorithmofBack-propagation反向传播算法AStochasticGradientDescentAlgorithm随机梯度下降算法BackPropagationAlgor
步步咏凉天
·
2022-12-28 12:41
AI
神经网络
神经网络
深度学习入门(四)——神经网络是如何学习的?
所谓的
神经网络学习
过程是根据模型分类效果调整神经网络中上千个激活函数的所有权值和偏置值。直至模型分类精度符合要求,模型学习过程结束。前文曾经介绍,神经元是装有激活值的容器。
爱骑单车的阿鹏
·
2022-12-28 12:40
神经网络
python
机器学习
人工智能
深度学习
matlab交通标志神经网络识别,基于神经网络的交通标志识别方法
采用基于
神经网络学习
的
weixin_39955925
·
2022-12-28 07:42
小白的
神经网络学习
小白的
神经网络学习
笔记文章目录小白的
神经网络学习
笔记一.环境配置二.感知器(Perceptron)单层感知器多层感知器(MLP,MultilayerPerceptron)Keras实现三.逻辑回归与交叉熵关于
summer_bugs
·
2022-12-28 06:02
神经网络
机器学习
tensorflow
机器学习matlab代码整理--非
神经网络学习
器
概览本文给出了下面9种学习器的matlab代码(代码主要来自前人整理,外加自己编写),应用的例程(附带iris数据集),以及介绍算法原理优秀的链接。支持向量机k-近邻线性判别分析随机森林RSSBaggingBoosting逻辑回归朴素贝叶斯程序包链接:https://pan.baidu.com/s/1M_lzlJ5LqyGY96KTAYDakw提取码:oom7应用例程%%机器学习-例程%%简单介绍
25岁的学习随笔
·
2022-12-27 22:09
matlab编程
机器学习
matlab
机器学习
基于BP神经网络实现气凝胶加气混凝土抗压强度预测(附代码)
抗压强度测试方法1.3为什么选择BP神经网络2.MATLAB算法实现2.1训练集数据编辑2.2数据导入与整理2.3BP神经网络建立3.算法评价3.1算法运行结果3.2本算法的不足和待改进之处3.2.1BP
神经网络学习
不稳定
沉醉花海123
·
2022-12-26 17:20
神经网络
神经网络
深度学习
材料工程
matlab
经典
神经网络学习
笔记之LeNet(附带代码)
本文是对经典论文“Gradient-BasedLearningAppliedtoDocumentRecognition”的阅读笔记之一,主要介绍LeNet的结构以及参数个数的计算,结合“DeepLearningforComputerVisionwithPythonstarterbundle”所介绍的原理和实验所写。笔者才疏学浅,还望指教。一、理论部分LeNet首次出现是在1998年的论文中,基于梯
我很懒但我很软乎
·
2022-12-26 16:34
深度学习
lenet
神经网络学习
笔记——鸢尾花分类
TensorFlow笔记——鸢尾花分类代码笔记记录实验流程和代码功能,附上关于所涉及到的tensorflow库中函数的解释实验流程数据集读入数据集乱序生成训练集和测试集(即x_train/y_train)数据类型转换配成(输入特征,标签)对,每次读入一小撮(batch)搭建网络定义神经网路中所有可训练参数参数优化嵌套循环迭代,with结构更新参数,显示当前loss测试效果计算当前参数前向传播后的准
XL_0502
·
2022-12-26 13:02
神经网络学习笔记
神经网络
tensorflow
神经网络学习
笔记(3)——梯度下降公式讲解与反向传播算法
结合上上两篇文章的叙述,这一篇文章主要讲解梯度的公式的推导,笔记来自于3B1B的视频,链接会放在最后。同样的,这一篇文章依旧没有代码。上篇文章中稍稍写漏了点东西,就是说在梯度下降过程中,步长是与该点的斜率有关,如果无关的话,那么如果步长太大,是不是就从坑中心滚过去了呀?比如这样:下面开始正文。每层只有一个神经元根据上篇文章的内容,梯度会有正有负,代表的意思就是这个点该如何移动。而每一项的相对大小告
野指针小李
·
2022-12-26 10:57
数学
深度学习
神经网络
深度学习
神经网络
算法
神经网络学习
----训练模型过程中的内存不足错误
如果你的计算机GPU很差(比如我的就很差很差),在训练模型时你会发现刚开始训练正常,但后面就会报下图的错误。错误:numpy.core._exceptions.MemoryError:Unabletoallocate4.12MiBforanarraywithshape(600,600,3)anddatatypefloat32该错误是内存不足导致训练不能继续,我的bathsize==1了已经,但还是
红枣燕麦
·
2022-12-25 22:23
神经网络
深度学习
机器学习
目标检测学习--FPN(特征金字塔网络)-解决多尺度检测问题
论文地址《FeaturePyramidNetworksforObjectDetection》深度
神经网络学习
到的特征中,浅层特征学到的是物理信息,比如物体的角点、边缘的细节信息,而深层特征学到的是语义信息
胖虎记录学习
·
2022-12-25 19:20
目标检测网络
目标检测
学习
人工智能
神经网络学习
笔记8——FPN理论及代码理解
系列文章目录目标分割相关的RPNB站讲解文章目录系列文章目录前言一、金字塔结构图(a)图(b)图(c)图(d)二、FPN结构1、局部2、整体代码前言特征金字塔(FeaturePyramidNetworks,FPN)的基本思想是通过构造一系列不同尺度的图像或特征图进行模型训练和测试,目的是提升检测算法对于不同尺寸检测目标的鲁棒性。但如果直接根据原始的定义进行FPN计算,会带来大额的计算开销。为了降低
RanceGru
·
2022-12-25 19:12
深度学习
神经网络
学习
计算机视觉
人工智能期末复习:人工神经网络(详细笔记和练习题)
神经网络学习
北岛寒沫
·
2022-12-25 14:59
人工智能
人工智能
深度学习
基于BP神经网络算法鸢尾花数据集的分类
激活函数往往将线性的关系转换为非线性的关系,帮助
神经网络学习
更加
UJN_Zgq
·
2022-12-25 12:41
数据结构和算法
python
算法
神经网络
神经网络学习
笔记4——自动编码器(含稀疏,堆叠)(更新中)
目录配套讲解视频1.程序和数据集2.自动编码器2.1自编码器原理2.2代码实现3.堆叠式自编码器4.稀疏自编码器4.1稀疏编码4.2.稀疏自编码器配套讲解视频建议配合视频阅读博文10分钟学会自动编码器从原理到编程实现_哔哩哔哩_bilibili10分钟学会自动编码器从原理到编程实现1.程序和数据集链接:https://pan.baidu.com/s/1aSNq94BJuKsiKO5gNGF29Q提
奥利奥好吃呀
·
2022-12-25 04:07
学习
深度学习
神经网络
神经网络学习
笔记2.2 ——用Matlab写一个简单的卷积神将网络图像分类器
配套视频讲解10分钟学会matlab实现cnn图像分类_哔哩哔哩_bilibili10分钟学会matlab实现cnn图像分类整体代码链接:https://pan.baidu.com/s/1btnY-jZXMK9oj3ZQxDvz8g提取码:k4v8可以打开代码,我来一步一步为你讲解,每步的含义,还有你该如何使用!目录1.为了便于理解,这里说一些基本概念,会的直接跳过程序在后面1.1通道数1.2全连
奥利奥好吃呀
·
2022-12-25 04:05
matlab
cnn
分类
深度学习
神经网络
图卷积
神经网络学习
笔记
图卷积
神经网络学习
笔记前言整体看待从卷积、CNN、GCN的关系来切入GNN与GCN的关系图的特征图的特征分析特征提取方式spectraldomainGCN的特征提取方式从拉普拉斯矩阵的特征分解开始Graph
四十不嚯
·
2022-12-24 17:51
机器学习
神经网络
gcn
机器学习
深度学习
【毕业设计_课程设计】基于
神经网络学习
的在线纸币识别【源码+论文】
文章目录0项目说明1项目说明2系统设计2.1设计要求2.2设计方案3效果展示4论文目录5项目工程0项目说明基于
神经网络学习
的在线纸币识别提示:适合用于课程设计或毕业设计,工作量达标,源码开放1项目说明本系统旨在实时快速识别纸币面值
m0_71572237
·
2022-12-24 01:21
课程设计
毕业设计
神经网络
计算机视觉
在线纸币识别系统
AI入门笔记——感知机
因此,才有了感知机模型,以极度精简而粗糙的方式模拟
神经网络学习
的过程——实际上,就是参数调整的过程。
cjzcjl
·
2022-12-23 10:44
弱人工智能
感知机
Learning to Compare: Relation Network for Few-Shot Learning 作者解读
CVPR2018最前沿:让
神经网络学习
比较来实现少样本学习下文转载自雷锋网(仅供学校交流使用)雷锋网(公众号:雷锋网)AI科技评论按:本文作者FloodSung,他为雷锋网AI科技评论撰写了基于CVPR
努力奋斗-不断进化
·
2022-12-21 12:30
小样本学习
hrsc2016 下载 数据集_使用torchvision下载MINIST及配置踩坑笔记
1、MINIST简介MNIST数据集是在
神经网络学习
中一个被嚼烂的数据集MNIST数据集可在知乎-安全中心yann.lecun.com获取,它包含了四个部分:Trainingsetimages:train-images-idx3
weixin_39793708
·
2022-12-20 14:29
hrsc2016
下载
数据集
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他