E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络学习
深度学习卷积神经网络入门基础篇(神经网络与反向传播)
卷积
神经网络学习
笔记一神经网络模型1.1M-P神经网络模型M-P神经网络-激活函数1.2感知机1.3前馈神经网络1.4误差反向传播1.4.1神经网络前向传播1.4.2误差反向传播1.4.3梯度下降优化器
懒续缘
·
2022-12-05 17:57
神经网络
算法
深度学习
神经网络学习
笔记-自然语言处理方向-论文研读-阅读理解-NLP-MRC
本文目录概念引入机器阅读理解的简要介绍论文研究背景相关数据集的时间脉络问答系统的分类研究成果实验结果概念引入有关中文实体命名识别逻辑回归线性回归时间序列分析神经网络self-attention与softmax的推导word2evcglove双向LSTM机器阅读理解的简要介绍在2002年的一篇论文中,学者C.Snow将阅读理解定义为“通过互动从书面文本中提取和构建文本语义的过程”。机器阅读理解的目标
丰。。
·
2022-12-05 16:00
NLP-R
深度学习神经网络-NLP方向
神经网络
自然语言处理
深度学习
【matlab之BP神经网络图】
文章目录1.原理:2.数据:3.效果图:5.方差分析:4.代码1.原理:BP
神经网络学习
算法可以说是目前最成功的
神经网络学习
算法。显示任务中使用神经网络时,大多数是使用BP算法进行训练.
不会敲代码的破茧
·
2022-12-05 14:18
【回归预测-lssvm分类】基于最小二乘支持向量机lssvm实现数据分类代码
一个是非均衡问题,另一个就是高维问题.但是传统的数据方法在进行数据挖掘时,低维平衡数据被重点关注,传统分类方法有线性判别分析,Logistic判别模型,支持向量机算法,K近邻算法,决策树算法,随机森林算法,
神经网络学习
matlab科研助手
·
2022-12-05 07:50
神经网络预测
支持向量机
回归
分类
matlab神经网络1-单层感知器
MATLAB
神经网络学习
1神经网络的入门——单层感知器神经网络的入门——单层感知器第一次使用CSDN,操作还不太熟练,之后会一直在这里分享matlab,java,c,电路等的学习笔记单层感知器还是十分简单的
xiaoxiaoyushui
·
2022-12-04 10:27
神经网络算法
算法
神经网络
matlab
“无法将类型为 network 的值用作索引”——MATLAB神经网络训练函数train报错解决以及train函数弹窗介绍
一、报错解决1、场景:当使用MATLAB进行BP
神经网络学习
时,使用train函数对神经网络进行训练的时候,可能会出现如下报错2、报错内容:3、报错原因:可能是数据集文件名train与MATLB训练函数名
滋滋益达
·
2022-12-03 16:02
matlab
神经网络
机器学习
回归
卷积
神经网络学习
笔记-基础知识
1、卷积神经网络结构卷积神经网络结构包括:全连接层,卷积层,下采样层。全连接层是许许多多得神经元相互链接得到,输入xi×权重w求和加偏置,经过激活函数得到输出y。将神经元列与列排列,列于列之间全连接,就得到了bp(backpropagation)神经网络,算法包括前向传播和误差的反向传播。激活函数一般使用Sigmoid或是ReLu函数。引入非线性因素,让其有解决非线性的能力。卷积是一个卷积核在图像
h奕明
·
2022-12-03 13:05
分类网络
cnn
学习
分类
卷积
神经网络学习
笔记-分类网络(一)
目录1.1Alexnet1.2Alexnet构建2.1VggNet2.2VggNet构建3.1GoogleNet3.2GoogleNet构建4、引用1.1Alexnet网络亮点是基于ImageNet数据集的卷积神经网络,比起其他模型,卷积神经网络的分类错误指标明显减少。1.使用了多块GPU进行加速2.在全连接前两层使用了dropout随机失活的技术,减少过拟合其结构如下图所示:1.2Alexnet
h奕明
·
2022-12-03 13:05
分类网络
cnn
学习
人工智能
神经网络学习
笔记1
*打工人的第三周学习目标和渠道*#神经网络算法的学习看斯坦福计算机视觉课程,看完相关笔记并完成作业看吴恩达的机器学习(还没开始看)某博主总结:https://yoyoyohamapi.gitbooks.io/mit-ml/content/看andrejkapathy的博客和文章注1:课程和博客看起来的会有些晦涩难懂,建议辅助看些入门资料,如下:(1)什么是神经网络?https://blog.csd
vitalgirl
·
2022-12-03 13:58
神经网络
python
一位深度学习小萌新的学渣笔记(一)神经网络原理理解+pytorch框架理解
软工大一学生,9月升大二,在暑假期间申报项目,7月份开始学习,学习的项目关于到神经网络和注意力机制自学python首先通过廖雪峰老师的网站自学了python简单了解
神经网络学习
所需知识配置开发环境Anaconda3python3.7&
IntMain45
·
2022-12-03 13:52
深度学习
数据库
pycharm
python
神经网络
线性代数
d2l卷积
神经网络学习
笔记(1)
1.由于输入数据为图像,1024*1024*3水平的特征数量难以处理,通过引入卷积核进行对输入图像像素的批量卷积(或者按照d2l的说法,互相关运算,我觉得这个描述更能体现卷积核在其感受野内对图像小范围整体学习的特性)进行整体层面的特征学习。2.通过调节卷积核,可以方便的降低特征数量。单通道stride为1且不考虑填充情况下,对a*b尺寸的图像通过一个c*d尺寸的卷积核,能够将a*b像素代表的信息压
Tsparkle
·
2022-12-03 05:36
学习之路
cnn
学习
深度学习
自编码器的理解与应用
是一种无监督学习,基于反向传播算法和最优化方法,利用数据x本身作为监督来指导
神经网络学习
一个映射关系h,得到一个重构输出y。这个y近似等于x。自编码器可以理解为试图让输出和输入一样的神经网络。
dlut0427
·
2022-12-03 04:17
python
机器学习
数据挖掘
python神经网络编程 代码,python神经网络编程 豆瓣
如何用9行Python代码编写一个简易
神经网络学习
人工智能时,我给自己定了一个目标--用Python写一个简单的神经网络。为了确保真得理解它,我要求自己不使用任何神经网络库,从头写起。
普通网友
·
2022-12-02 15:34
python
神经网络
机器学习
1运行GCN和DeepWalk
百度飞浆PGL图
神经网络学习
心得-1目录PaddlepaddlePGL本地运行出现的问题第一课:图学习初印象习题1.环境搭建2.下载PGL代码库3.运行示例3.1GCN3.2DeepWalk4PGL相关信息
不是助词
·
2022-12-02 14:20
paddle深度学习训练营杂记
python
神经网络
深度学习
图
神经网络学习
笔记(2)——图滤波器
本文参考书目为《深入浅出图神经网络:GNN原理解析》图滤波器参考之前的学习笔记图
神经网络学习
笔记(1)——图信号与图傅里叶变换,图信号定义在图的节点上,图信号处理不仅需要考虑图的信号强度,也需要考虑图的拓扑结构
王志晗
·
2022-12-02 14:50
笔记
神经网络
深度学习
卷积
残差网络性能机制 ResNet、DenseNet及网络结构应用
深度学习在过去的
神经网络学习
中,理论上层数越高的网络准确率越高,层数越高的网络其实在当时并没有提升准确率,单纯的堆层并不能提升网络的表现,有时甚至网络的层数越多,准确率越低,而深度残差网络机制ResNet
daguantou
·
2022-12-02 13:18
python
神经网络
生成对抗网络
图像处理
深度学习
神经网络学习
小记录67——Pytorch版 Vision Transformer(VIT)模型的复现详解
神经网络学习
小记录67——Pytorch版VisionTransformer(VIT)模型的复现详解学习前言什么是VisionTransformer(VIT)代码下载VisionTransforme的实现思路一
Bubbliiiing
·
2022-12-01 13:49
神经网络学习小记录
pytorch
transformer
神经网络
吴恩达机器学习笔记 —— 9
神经网络学习
http://www.cnblogs.com/xing901022/p/9344621.html本章讲述了神经网络的起源与神经元模型,并且描述了前馈型神经网络的构造。更多内容参考机器学习&深度学习在传统的线性回归或者逻辑回归中,如果特征很多,想要手动组合很多有效的特征是不现实的;而且处理这么大的特征数据量,计算上也很复杂。神经网络最开始起源于生物信息中的大脑,在上世纪80-90年代的时候很火,后来
喜欢打酱油的老鸟
·
2022-12-01 13:17
人工智能
吴恩达
机器学习
神经网络学习
吴恩达机器学习——
神经网络学习
笔记
术语神经网络NeuralNetworks输入层inputlayer隐藏层hiddenlayer输出层ourputlayera(j)i第j层第i个激活项(具体的一个神经元输入或输出的值)θ(j)权重矩阵(控制从第j层到第j+1层映射)例子
左Ying
·
2022-12-01 13:12
机器学习
Make GNN Great Again:图神经网络上的预训练和自监督学习
通过设计基于GNN的模型,我们可以对结构化的数据(如社交网络图、分子图等)与对应的标签(点级别、边级别、图级别)进行有监督的端到端训练,使
神经网络学习
结构化数据与标签的联系。
数据派THU
·
2022-12-01 12:50
大数据
编程语言
机器学习
人工智能
深度学习
经典卷积
神经网络学习
笔记
第四章、卷积神经网络4.1卷积神经网络(上)为什么使用卷积神经网络一般的深度全连接神经网络,在较高分辨率的图像情况下,特征向量维度很大,导致每一个全连接层计算的权值数量是非常多的,如果数据不够,很容易训练出过拟合的情况,即使有庞大数据做支撑,那也会对硬件和内存造成很大的负担。而卷积神经网络就会改善这一问题。卷积层操作重要操作:卷积操作:利用卷积核/过滤器将原图像矩阵卷积为新的卷积矩阵padding
introversi0n
·
2022-12-01 09:52
30天入门人工智能
cnn
学习
深度学习
《机器学习》 第5章 神经网络总结
在机器学习中谈论神经网络时指的时"
神经网络学习
",或者说,是机器学习与神经网络这两个学科领域的交叉部分。详细内容请见人工神经网络维基百科
woxinpengpai
·
2022-11-30 20:45
机器学习
#今日论文推荐# 300+篇文献,一文详解基于Transformer的多模态学习最新进展
#今日论文推荐#300+篇文献,一文详解基于Transformer的多模态学习最新进展Transformer是一种很有前途的
神经网络学习
器,在各种机器学习任务中取得了巨大的成功。
wwwsxn
·
2022-11-30 19:48
深度学习
深度学习
机器学习
人工智能
(数据科学学习手札34)多层感知机原理详解&Python与R实现
而我们在机器学习中广泛提及的
神经网络学习
就是机器学习与神经网络的交叉部分,本篇就将介绍基本的神经元模型、感知机模型的知识以及更进一步的多层感知机的具体应用(注意,本篇介
weixin_30735745
·
2022-11-30 13:54
人工智能
ui
数据结构与算法
卷积
神经网络学习
笔记与经典卷积模型复现
卷积神经网络一.全连接神经网络的局限性二.卷积神经网络背景1962年Hubel和Wiesel通过对猫视觉皮层细胞的研究,提出了感受野(receptivefield)的概念。视觉皮层的神经元就是局部接受信息的,只受某些特定区域刺激的响应,而不是对全局图像进行感知。1984年日本学者Fukushima基于感受野概念提出神经认知机(neocognitron)。CNN可看作是神经认知机的推广形式。三.卷积
littlecar666
·
2022-11-30 13:33
深度学习之卷积神经网络
深度学习
神经网络
机器学习
tensorflow
逆势而上的技术:图
神经网络学习
来了!
要问这几年一直在逆势而上的技术有哪些?你一定不会忽略它——图神经网络。相比传统神经网络,图神经网络的优势非常明显:1、非顺序排序的特征学习:GNN的输出不以节点的输入顺序为转移的。2、两个节点之间依赖关系的学习:传统的神经网络中,这种依赖关系只能通过节点的特征来体现。3、推理能力:GNN能够从非结构化数据(例如:场景图片、故事片段等)中生成推理图。因此,图神经网络在生物学、地图、金融、搜索、推荐、
PaperWeekly
·
2022-11-30 11:12
神经网络
百度
人工智能
编程语言
大数据
DataWhale-西瓜书+南瓜书-第5章
神经网络学习
总结-Task04-202110
5.1神经元模型激活函数:5.2感知机与多层网络感知机由两层神经元组成。感知机只拥有一层功能神经元,其学习能力非常有限。要解决非线性可分问题,需要多层神经网络。5.3误差逆传播算法bp网络是指使用Bp算法训练的多层前馈神经网络。5.4全局最小与局部最小5.6深度学习
JZT2015
·
2022-11-30 02:16
神经网络
人工智能
深度学习
神经网络学习
4【误差传递与权重更新】
1.误差反馈1.1误差反馈校正权重矩阵可以理解,输出和误差都是多个节点共同作用的结果,那么该如何更新链接权重?思考一下,得到误差后,该怎么分配?平均分的话是否会有失公平?毕竟我们在之前的学习中了解到,前一层每个节点的贡献都是不一样的。考虑极端情况,当某权重为0时,它对下一个节点的贡献为0;这时如果误差仍然平均分配显然是不那么合适的。但我们很容易想到这个标准:较大链接权重的连接分配更多的误差。将同样
照妖镜!
·
2022-11-29 21:40
神经网络
python
【头歌】
神经网络学习
之前馈神经网络
第1关:单层感知器网络importnumpyasnpclassPerception(object):def__init__(self,lr=0.1,epochs=1000):"""初始化:paramlr:学习:paramn_iter:"""self.lr=lrself.epochs=epochsdeffit(self,X,y):"""训练:paramX:训练数据的输入:paramy:真实期望"""
MQiyirs
·
2022-11-29 21:40
头歌
神经网络
学习
python
PyTorch学习笔记——PyTorch模块和基础实战
——CUDA并行计算的方法2.3并行计算——扩展二、Pytorch模块和基础实践2.1
神经网络学习
机制2.2深度学习在实现上的特殊性2.3PyTorch深度学习模块2.3.1基本配置2.3.2数据读入2.3.3
但愿此生,从未邂逅
·
2022-11-29 16:51
笔记
人工智能
pytorch
学习
深度学习
卷积
神经网络学习
:使用pytorch反向传播
1.pytorch自动求导机制在Pytorch中,Tensor是其最重要的数据类型。每个Tensor都有一个requires_grad参数,代表这个Tensor是否会被跟踪自动微分。这里我们先介绍一个简单的前向计算的例子:importtorch#requires_grad代表此Tensor会被跟踪自动微分x=torch.tensor([[1,2],[3,4]],dtype=torch.double
Abel_____
·
2022-11-29 14:11
pytorch
深度学习
神经网络
卷积
神经网络学习
:CNN
CNN十分擅长图像处理工作。你可能会问,为什么我们之前学过的全连接神经网络不能用来处理图像呢?答案是:可以,但没必要。在图片处理工作中,我们把组成图片的每个像素点的信息当做输入层(inputlayer),对于黑白像素,可以用0和1来表示,对于彩色像素,可以用RGB值来表示。对于全连接神经网络,我们要将所有的像素点都输入神经网络,然后构建一个庞大的神经网络模型。如上图所示,第一层的神经元可能只能识别
Abel_____
·
2022-11-29 14:11
神经网络
cnn
深度学习
使用KNN根据深度自编码器降维特征识别MNIST数据集手写体数字(pytorch+scikit learn)
目标:实现无监督的数据降维,并根据降维信息实现KNN分类内容:1.自编码器降维自编码器是为使
神经网络学习
数据原始特征,将高维数据特征用低维数据特征表示,是一种无监督的表征学习方法。
上进的小菜鸟
·
2022-11-29 09:36
深度学习
机器学习
pytorch
Autoencoder自编码器
KNN(K近邻)
降维
分类
pytorch
【头歌】
神经网络学习
之机器学习基础
第1关:机器学习类型1、下列说法错误的的是A、监督学习不需要一定量级的数据作为训练数据。B、监督学习可以根据输出类型分为回归和分类两种类型。C、强化学习不需要训练数据。D、非监督学习的结果具有不确定性。【答案】AC2、下列关于回归和分类问题的说法错误的是:A、回归问题的输出y为离散的类别标记或者数值。B、分类问题的主要手段为概率计算。C、支持向量机解决的是回归问题。D、回归问题以距离计算为主。【答
MQiyirs
·
2022-11-29 07:24
头歌
神经网络
学习
深度学习之路(3)神经网络结构和参数优化
博文提要前面讲了
神经网络学习
过程的重要环节——梯度下降法,重点讲了该方法用的反向传播原理,它大大减小了梯度求算的时间复杂度。我们在了解机器学习算
NO_1967
·
2022-11-29 05:12
深度学习之路
《西瓜书》-5.神经网络
5.神经网络5.1.神经元模型在机器学习中,神经网络一般指的是“
神经网络学习
”,是机器学习与神经网络两个学科的交叉部分。
ruoqi23
·
2022-11-28 14:26
笔记
机器学习
神经网络
人工智能
神经网络学习
笔记7——目标检测,语义分割和实例分割中的FCN
系列文章目录RCNN系列参考视频FCN参考视频文章目录系列文章目录目标检测(ObjectDetection)语义分割(Semanticsegmentation)实例分割(Instancedivision)RCNN系列算法前言一、开山之作:RCNN1、候选区域生成2、CNN特征提取3、SVM分类器4、位置精修5、总体二、端到端:FastRCNN1、候选区域与特征提取2、RoI全连接、分类器与边界框回
RanceGru
·
2022-11-28 09:28
深度学习
目标检测
神经网络
计算机视觉
图像处理
深度学习导论(1)深度学习概述
人工智能、机器学习、神经网络、深度学习的相互关系浅层
神经网络学习
发展神经元模型深度学习的发展过程为什么从2012年至今深度学习那么火?
炎武丶航
·
2022-11-28 07:48
深度学习
深度学习
pytorch
机器学习
神经网络
基于keras采用LSTM实现多标签文本分类(一)
在采用
神经网络学习
时,最后一层的激活函数应采用sigmoid激活函数,相当于对这条语句做了多个二分类。
。。。。。。400
·
2022-11-27 22:36
keras
lstm
分类
速通8-DNN
神经网络学习
笔记
一个模型先看效果再了解原理。不懂原理也可以得到效果。深度学习原理不是非常清楚,解释性不够强,但是效果比较好。1980高峰,起始1995年,SVM/GBDT,深度学习进入低谷2014-2015,爆发。数据量暴增,计算机性能更好。二分类LR,大部分线性不可分,处理方式:多项式来搞增加维度SVM核方法非线性变换线性变换(例如向量乘以一个矩阵),在空间中表现出来是对一个点进行平移。无法解决线性不可分问题。
神洛华
·
2022-11-27 10:24
人工智能读书笔记
神经网络
dnn
【图
神经网络学习
笔记系列】01-Graph Attention Networks 学习笔记
GraphAttentionNetworks学习笔记这是一个excitingfield前提引入:1.图神经网络GNN介绍:https://www.bilibili.com/video/BV1Tf4y1i7Go8分钟小视频形态:就是《数据结构》、《离散数学》等所说的那个“图”的概念:节点、邻居、关系(有向、无向)、度、出度、入度然后,我们把邻接矩阵A,度矩阵D,特征矩阵X再有个印象就OK了。操作-1
Zach_菠萝侠
·
2022-11-27 08:23
图神经网络学习笔记
深度学习
人工智能
【学习笔记】TensorFlow2.0搭建
神经网络学习
笔记
1常用函数(1)tf.Variable()标记训练网络中的参数,如W,将变量标记为”可训练“,神经网络训练中,常用该函数标记待训练参数w=tf.Variable(tf.random.normal([2,2],mean=0,stddev=1))#标记w为待训练参数,初始化生成两行两列的正态分布的随机数,均值为0,标准差为1(2)tf.matmul,矩阵乘(3)tf.data.Dataset.from
徐呵呵297
·
2022-11-27 00:42
方法总结
tensorflow
学习
神经网络
java使用minist手写数据集,用滴滴云Notebook快速上手PyTorch-MINIST手写体
在本教程中,您将学习如何快速使用PyTorch训练一个
神经网络学习
如何识别手写数字。
可可子姐姐教英语
·
2022-11-26 21:56
卷积
神经网络学习
心得
卷积
神经网络学习
心得文章目录卷积
神经网络学习
心得一、卷积神经网络1、卷积2、池化3、激活函数3、全连接层3、训练过程二、传播过程1.卷积神经网络的前向传播过程1.1卷积层的前向传播过程1.2下采样层的前向传播过程
djh_hai
·
2022-11-26 14:16
机器学习与深度学习
神经网络
机器学习
深度学习
tensorflow
基于深度学习的大规模 MIMO电力系统功率分配研究(Matlab&Python代码实现)
受到最近机器学习技术[5]的成功应用爆炸式增长的启发,这些技术展示了深度
神经网络学习
丰富模式和近似任意函数映射的能力[5]、[6]。
@橘柑橙柠桔柚
·
2022-11-26 07:32
电气代码
python
深度学习
matlab
‘端云协同’是未来AI产业服务的重要形态,给各种业务算法带来新机遇
评审委员会评论称:“该项目研制难度大、创新性强,整体技术处于国际先进水平,其中在跨模态随机游走图内嵌向量表达、超大规模图自适应分区和综合存储、异构计算架构下图
神经网络学习
加速等方面达到国际领先水平。”
互联网志
·
2022-11-25 20:09
人工智能
【深入浅出PyTorch】4-基础实战-FashionMINIST
4-基础实战文章目录4-基础实战2.1-
神经网络学习
机制2.2-深度学习在实现上的特殊性2.3-PyTorch的深度学习模块2.3.1-基本配置2.3.2-数据读入2.3.3-模型构建2.3.4-损失函数
超级虚空
·
2022-11-25 16:34
深入浅出PyTorch
pytorch
深度学习
神经网络
神经网络学习
笔记3——LSTM长短期记忆网络
目录1.循环神经网络1.1循环神经网络大致结构1.2延时神经网络(TimeDelayNeuralNetwork,TDNN)1.3按时间展开1.4反向传播1.5梯度消失,梯度爆炸2.lstm门控原理3Matlab实现整个博文,原理和代码实现建议配合视频食用,口感更佳LSTM长短期记忆网络从原理到编程实现LSTM长短期记忆网络从原理到编程实现_哔哩哔哩_bilibili代码链接链接:https://p
奥利奥好吃呀
·
2022-11-25 16:01
神经网络
lstm
深度学习
长短时记忆网络
循环神经网络
[机器学习导论]——第三课——神经网络Ⅰ
神经网络引入逻辑回归的二阶段表示逻辑回归逻辑回归的二阶段表示神经元神经网络具有一个隐藏层的神经网络具有两个隐藏层的神经网络非线性激活函数训练神经网络损失函数二分类损失多分类损失回归损失反向传播数学符号说明回归示例二分类示例深度
神经网络学习
参考资料第三课
雨落俊泉
·
2022-11-25 10:13
#
机器学习入门
机器学习
神经网络
反向传播
visdom简易教程
如果想用pytorch来做
神经网络学习
和训练,那么不管想不想,你都得学visdom这个可视化工具,因为别人全部用这个玩意在进行可视化显示,如果不会用有时甚至别人的代码都跑不起来。
_寒潭雁影
·
2022-11-25 10:32
深度学习
visdom
可视化工具
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他