E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
锐捷网络学习
Pytorch搭建神经网络结构实现数据和图片的分类和回归任务(网络搭建部分)
举个例子,当网络知道很多狗的种类和样子,那么
网络学习
到狗的特征之后,会将这些特征当做知识。然后再遇到狗的图片的
一名不想学习的学渣
·
2022-11-30 10:23
神经网络入门
pytorch
深度学习
神经网络
算法
python
深度学习 训练集与验证集损失分析
网络正在学习(理想状态)训练集损失下降,验证集损失不变——>网络过拟合(尝试drpout,L2正则化等手段)训练集损失不变,验证集损失下降——>数据集有问题(检测数据集)训练集损失不变,验证集损失不变——>
网络学习
遇到瓶颈
一名CV界的小学生
·
2022-11-30 07:08
深度学习
深度学习
神经网络
DataWhale-西瓜书+南瓜书-第5章神经
网络学习
总结-Task04-202110
5.1神经元模型激活函数:5.2感知机与多层网络感知机由两层神经元组成。感知机只拥有一层功能神经元,其学习能力非常有限。要解决非线性可分问题,需要多层神经网络。5.3误差逆传播算法bp网络是指使用Bp算法训练的多层前馈神经网络。5.4全局最小与局部最小5.6深度学习
JZT2015
·
2022-11-30 02:16
神经网络
人工智能
深度学习
神经
网络学习
4【误差传递与权重更新】
1.误差反馈1.1误差反馈校正权重矩阵可以理解,输出和误差都是多个节点共同作用的结果,那么该如何更新链接权重?思考一下,得到误差后,该怎么分配?平均分的话是否会有失公平?毕竟我们在之前的学习中了解到,前一层每个节点的贡献都是不一样的。考虑极端情况,当某权重为0时,它对下一个节点的贡献为0;这时如果误差仍然平均分配显然是不那么合适的。但我们很容易想到这个标准:较大链接权重的连接分配更多的误差。将同样
照妖镜!
·
2022-11-29 21:40
神经网络
python
【头歌】神经
网络学习
之前馈神经网络
第1关:单层感知器网络importnumpyasnpclassPerception(object):def__init__(self,lr=0.1,epochs=1000):"""初始化:paramlr:学习:paramn_iter:"""self.lr=lrself.epochs=epochsdeffit(self,X,y):"""训练:paramX:训练数据的输入:paramy:真实期望"""
MQiyirs
·
2022-11-29 21:40
头歌
神经网络
学习
python
PyTorch学习笔记——PyTorch模块和基础实战
——CUDA并行计算的方法2.3并行计算——扩展二、Pytorch模块和基础实践2.1神经
网络学习
机制2.2深度学习在实现上的特殊性2.3PyTorch深度学习模块2.3.1基本配置2.3.2数据读入2.3.3
但愿此生,从未邂逅
·
2022-11-29 16:51
笔记
人工智能
pytorch
学习
深度学习
卷积神经
网络学习
:使用pytorch反向传播
1.pytorch自动求导机制在Pytorch中,Tensor是其最重要的数据类型。每个Tensor都有一个requires_grad参数,代表这个Tensor是否会被跟踪自动微分。这里我们先介绍一个简单的前向计算的例子:importtorch#requires_grad代表此Tensor会被跟踪自动微分x=torch.tensor([[1,2],[3,4]],dtype=torch.double
Abel_____
·
2022-11-29 14:11
pytorch
深度学习
神经网络
卷积神经
网络学习
:CNN
CNN十分擅长图像处理工作。你可能会问,为什么我们之前学过的全连接神经网络不能用来处理图像呢?答案是:可以,但没必要。在图片处理工作中,我们把组成图片的每个像素点的信息当做输入层(inputlayer),对于黑白像素,可以用0和1来表示,对于彩色像素,可以用RGB值来表示。对于全连接神经网络,我们要将所有的像素点都输入神经网络,然后构建一个庞大的神经网络模型。如上图所示,第一层的神经元可能只能识别
Abel_____
·
2022-11-29 14:11
神经网络
cnn
深度学习
使用KNN根据深度自编码器降维特征识别MNIST数据集手写体数字(pytorch+scikit learn)
目标:实现无监督的数据降维,并根据降维信息实现KNN分类内容:1.自编码器降维自编码器是为使神经
网络学习
数据原始特征,将高维数据特征用低维数据特征表示,是一种无监督的表征学习方法。
上进的小菜鸟
·
2022-11-29 09:36
深度学习
机器学习
pytorch
Autoencoder自编码器
KNN(K近邻)
降维
分类
pytorch
Knowledge Distillation with Conditional Adversarial Networks论文初读
目录摘要引言相关工作网络加速知识蒸馏GAN知识蒸馏的损失函数残差结构知识蒸馏用对抗
网络学习
知识实验实验设置GAN学习的优势GAN方法的分析分布可视化结论摘要提出了使用CAN(conditionaladversarialnetworks
待墨痕干
·
2022-11-29 08:17
知识蒸馏
Training Shallow and Thin Networks for Acceleration via Knowledge Distillation with Conditional Adve
Abstract二、相关介绍三、算法步骤3.1带有残余连接的神经网络3.2Knowledgedistillation3.3对抗网络的学习损失studentupdate总结一.Abstract1.提出使用条件对抗
网络学习
损失函数
l-mmf
·
2022-11-29 08:14
知识蒸馏论文阅读
python
人工智能
【头歌】神经
网络学习
之机器学习基础
第1关:机器学习类型1、下列说法错误的的是A、监督学习不需要一定量级的数据作为训练数据。B、监督学习可以根据输出类型分为回归和分类两种类型。C、强化学习不需要训练数据。D、非监督学习的结果具有不确定性。【答案】AC2、下列关于回归和分类问题的说法错误的是:A、回归问题的输出y为离散的类别标记或者数值。B、分类问题的主要手段为概率计算。C、支持向量机解决的是回归问题。D、回归问题以距离计算为主。【答
MQiyirs
·
2022-11-29 07:24
头歌
神经网络
学习
深度学习之路(3)神经网络结构和参数优化
博文提要前面讲了神经
网络学习
过程的重要环节——梯度下降法,重点讲了该方法用的反向传播原理,它大大减小了梯度求算的时间复杂度。我们在了解机器学习算
NO_1967
·
2022-11-29 05:12
深度学习之路
YOLOv3
网络学习
笔记
YOLOv3
网络学习
笔记v3是anchorbased算法,预先在图片上生成很多先验框,然后通过神经网络去判断放的框内有没有我们想要的特征物体,如果有,就用神经网络对先验框的中心和长和宽进行调整,最终输出物体的长和宽
~柠檬味~
·
2022-11-28 22:58
计算机视觉
笔记
神经网络
人工智能
深度学习
神经网络
计算机视觉
学习
《西瓜书》-5.神经网络
5.神经网络5.1.神经元模型在机器学习中,神经网络一般指的是“神经
网络学习
”,是机器学习与神经网络两个学科的交叉部分。
ruoqi23
·
2022-11-28 14:26
笔记
机器学习
神经网络
人工智能
神经
网络学习
笔记7——目标检测,语义分割和实例分割中的FCN
系列文章目录RCNN系列参考视频FCN参考视频文章目录系列文章目录目标检测(ObjectDetection)语义分割(Semanticsegmentation)实例分割(Instancedivision)RCNN系列算法前言一、开山之作:RCNN1、候选区域生成2、CNN特征提取3、SVM分类器4、位置精修5、总体二、端到端:FastRCNN1、候选区域与特征提取2、RoI全连接、分类器与边界框回
RanceGru
·
2022-11-28 09:28
深度学习
目标检测
神经网络
计算机视觉
图像处理
深度学习导论(1)深度学习概述
人工智能、机器学习、神经网络、深度学习的相互关系浅层神经
网络学习
发展神经元模型深度学习的发展过程为什么从2012年至今深度学习那么火?
炎武丶航
·
2022-11-28 07:48
深度学习
深度学习
pytorch
机器学习
神经网络
基于keras采用LSTM实现多标签文本分类(一)
在采用神经
网络学习
时,最后一层的激活函数应采用sigmoid激活函数,相当于对这条语句做了多个二分类。
。。。。。。400
·
2022-11-27 22:36
keras
lstm
分类
速通8-DNN神经
网络学习
笔记
一个模型先看效果再了解原理。不懂原理也可以得到效果。深度学习原理不是非常清楚,解释性不够强,但是效果比较好。1980高峰,起始1995年,SVM/GBDT,深度学习进入低谷2014-2015,爆发。数据量暴增,计算机性能更好。二分类LR,大部分线性不可分,处理方式:多项式来搞增加维度SVM核方法非线性变换线性变换(例如向量乘以一个矩阵),在空间中表现出来是对一个点进行平移。无法解决线性不可分问题。
神洛华
·
2022-11-27 10:24
人工智能读书笔记
神经网络
dnn
AlexNet
网络学习
及仿真
AlexNet
网络学习
及仿真文章目录AlexNet
网络学习
及仿真前言AlexNet相关知识1前言(Introduction)2数据集(TheDataset)3网络架构(TheArchitecture)3.1ReLU
madao10086+
·
2022-11-27 09:51
深度学习
python
深度学习
alexnet模型
【图神经
网络学习
笔记系列】01-Graph Attention Networks 学习笔记
GraphAttentionNetworks学习笔记这是一个excitingfield前提引入:1.图神经网络GNN介绍:https://www.bilibili.com/video/BV1Tf4y1i7Go8分钟小视频形态:就是《数据结构》、《离散数学》等所说的那个“图”的概念:节点、邻居、关系(有向、无向)、度、出度、入度然后,我们把邻接矩阵A,度矩阵D,特征矩阵X再有个印象就OK了。操作-1
Zach_菠萝侠
·
2022-11-27 08:23
图神经网络学习笔记
深度学习
人工智能
U-Net实战 -- 隧道裂缝的识别
U-Net
网络学习
算法,识别墙面裂缝准备工作:Win10GitminicondaPytorch步骤1.下载裂缝数据集Github原地址下载2.转换mat为jpg#!
z15d23
·
2022-11-27 02:03
教程
裂缝检测
深度学习
图像识别
网络
【学习笔记】TensorFlow2.0搭建神经
网络学习
笔记
1常用函数(1)tf.Variable()标记训练网络中的参数,如W,将变量标记为”可训练“,神经网络训练中,常用该函数标记待训练参数w=tf.Variable(tf.random.normal([2,2],mean=0,stddev=1))#标记w为待训练参数,初始化生成两行两列的正态分布的随机数,均值为0,标准差为1(2)tf.matmul,矩阵乘(3)tf.data.Dataset.from
徐呵呵297
·
2022-11-27 00:42
方法总结
tensorflow
学习
神经网络
java使用minist手写数据集,用滴滴云Notebook快速上手PyTorch-MINIST手写体
在本教程中,您将学习如何快速使用PyTorch训练一个神经
网络学习
如何识别手写数字。
可可子姐姐教英语
·
2022-11-26 21:56
机器学习-神经网络为什么需要非线性(激活函数)
但是有没有仔细思考过,引入非线性的原因呢,下面我简单谈谈自己的看法(纯属个人胡说,有不同见解评论区见)什么是激活函数简单地说,激活函数是添加到人工神经网络中的一个函数,目的是帮助
网络学习
数据中的复杂模式
Techyu
·
2022-11-26 20:47
深度学习
深度学习
神经网络
机器学习
为什么神经网络要使用激活函数?
激活函数是一种添加到人工神经网络中的函数,旨在帮助
网络学习
数据中的复杂模式。在神经元中,输入经过一系列乘加运算后作用于另一个函数,这个函数就是激活函数。
jinlin_
·
2022-11-26 20:47
机器学习
神经网络
人工智能
深度学习
Reverse attention for salient object detection阅读笔记
首先,使用残差
网络学习
侧向输出残差特征来进行显著性细化,其次,我们提出了反向注意,以自上而下的方式引导侧向输出残差特征。通过从侧面输出特征中删除当前预测的显著区域,网络可以最终发现丢失的对象部
Ma lidong
·
2022-11-26 19:54
显著性目标检测论文阅读
人工智能
计算机视觉
深度学习
原力计划
盘点13个值得程序员逛的论坛
作为程序员通过
网络学习
编程知识、与网友讨论交流太正常不过了。今天就给大家盘点13个我自己比较经常使用的、有用的网站,包括资源、论坛网站等。
编程乐趣
·
2022-11-26 19:11
.NetCore
程序员论坛
技术论坛
计算机
网络学习
笔记
写在读前:配套使用《计算机网络自顶向下法》与中国大学MOOC平台哈工大微课《计算机网络》。文中图片侵删,转载需笔者口头同意。更新日志:2022.1.22计网概述、传输层、应用层;1.计网概述1.通信系统模型信源->发送设备->信道(易被噪声源干扰)->接收设备->信宿。2.计算机网络的定义计算机网络是一个互连的、自治的计算机集合。3.交换网络(ISP)由交换节点(路由器或交换机)构成的网。4.In
Love_Jacques
·
2022-11-26 14:19
学习记录
网络
网络协议
服务器
卷积神经
网络学习
心得
卷积神经
网络学习
心得文章目录卷积神经
网络学习
心得一、卷积神经网络1、卷积2、池化3、激活函数3、全连接层3、训练过程二、传播过程1.卷积神经网络的前向传播过程1.1卷积层的前向传播过程1.2下采样层的前向传播过程
djh_hai
·
2022-11-26 14:16
机器学习与深度学习
神经网络
机器学习
深度学习
tensorflow
DCNv1 and DCNv2:Deformable Convolutional networks,可变形卷积
1背景2方法DCNv21背景2方法DCNv1论文解析创新点1、DeformableConv2、DeformableROIpooling1背景深度学习对图像处理往往需要大量的数据集训练,是因为我们需要让
网络学习
到所有可能存在的情况
weixin_38356756
·
2022-11-26 08:11
计算机视觉
深度学习
人工智能
基于深度学习的大规模 MIMO电力系统功率分配研究(Matlab&Python代码实现)
受到最近机器学习技术[5]的成功应用爆炸式增长的启发,这些技术展示了深度神经
网络学习
丰富模式和近似任意函数映射的能力[5]、[6]。
@橘柑橙柠桔柚
·
2022-11-26 07:32
电气代码
python
深度学习
matlab
论文基础常识摘录
一、有关深度学习部分的知识:1.有关卷积神经网络基础知识:①概述:卷积神经网络通过局部感受野、权值共享以及池化层操作用于减少网络的参数规模,并使得
网络学习
到的特征具有位置平移,尺度缩放等方面的不变性。
_Brooke_
·
2022-11-26 07:26
指静脉识别
深度学习
网络
人工智能
‘端云协同’是未来AI产业服务的重要形态,给各种业务算法带来新机遇
评审委员会评论称:“该项目研制难度大、创新性强,整体技术处于国际先进水平,其中在跨模态随机游走图内嵌向量表达、超大规模图自适应分区和综合存储、异构计算架构下图神经
网络学习
加速等方面达到国际领先水平。”
互联网志
·
2022-11-25 20:09
人工智能
干货|不同的损失函数会对深度神经网络带来什么样的影响?
二次损失函数会在神经元犯了明显错误的情况下使得
网络学习
缓慢,而使用交叉熵损失函数则会在明显犯错的时候学的更快。今天,我们主要来谈谈不同的损失函数会对深度神经网络带来什么样的影响?
weixin_33809981
·
2022-11-25 20:20
人工智能
c/c++
【深入浅出PyTorch】4-基础实战-FashionMINIST
4-基础实战文章目录4-基础实战2.1-神经
网络学习
机制2.2-深度学习在实现上的特殊性2.3-PyTorch的深度学习模块2.3.1-基本配置2.3.2-数据读入2.3.3-模型构建2.3.4-损失函数
超级虚空
·
2022-11-25 16:34
深入浅出PyTorch
pytorch
深度学习
神经网络
神经
网络学习
笔记3——LSTM长短期记忆网络
目录1.循环神经网络1.1循环神经网络大致结构1.2延时神经网络(TimeDelayNeuralNetwork,TDNN)1.3按时间展开1.4反向传播1.5梯度消失,梯度爆炸2.lstm门控原理3Matlab实现整个博文,原理和代码实现建议配合视频食用,口感更佳LSTM长短期记忆网络从原理到编程实现LSTM长短期记忆网络从原理到编程实现_哔哩哔哩_bilibili代码链接链接:https://p
奥利奥好吃呀
·
2022-11-25 16:01
神经网络
lstm
深度学习
长短时记忆网络
循环神经网络
[机器学习导论]——第三课——神经网络Ⅰ
神经网络引入逻辑回归的二阶段表示逻辑回归逻辑回归的二阶段表示神经元神经网络具有一个隐藏层的神经网络具有两个隐藏层的神经网络非线性激活函数训练神经网络损失函数二分类损失多分类损失回归损失反向传播数学符号说明回归示例二分类示例深度神经
网络学习
参考资料第三课
雨落俊泉
·
2022-11-25 10:13
#
机器学习入门
机器学习
神经网络
反向传播
visdom简易教程
如果想用pytorch来做神经
网络学习
和训练,那么不管想不想,你都得学visdom这个可视化工具,因为别人全部用这个玩意在进行可视化显示,如果不会用有时甚至别人的代码都跑不起来。
_寒潭雁影
·
2022-11-25 10:32
深度学习
visdom
可视化工具
神经网络的学习(训练):损失函数(均方误差、交叉熵误差)
1神经
网络学习
(训练)步骤:初始化权值和偏置参数——1从总训练集抽取一批数据——2前向传播计算损失、反向传播由损失计算各参数的梯度——3利用梯度更新参数——4重复1、2、32神经网络:端对端的机器学习(
菜鸟爱学习@chong
·
2022-11-25 10:31
笔记
神经网络
学习
机器学习
STN 图像配准一些记录
STN给定一张不规则图像,先用一些简单的
网络学习
到旋转变换参数矩阵,然后和原来不规则图像的分块固定坐标经过矩阵变换得到新的图像坐标,然后根据坐标进行双线性插值得到新图像的某点像素值STN怎么学习到的参数怎么把图像就摆正了反向传播还是根据坐标直接
_Hsiung
·
2022-11-25 09:39
机器学习
RepVGG
网络学习
记录
在ResNet等被提出前,VGG可谓是风靡一时,但当ResNet等横空出世后,VGG便遭受了冷落,甚至一度被人所遗忘,而今天所要介绍的是由清华大学与香港科技大学联合提出了一个VGG的衍生模型,试图让曾经风光不再的VGG容光焕发。之所以RepVGG能够一骑绝尘达到STOA水平,源于其提出了在训练时使用下图B的网络结构,而在推理时则采用下图C的网络结构,而为何能够如此转换,这就是论文提出的思想:结构冲
彭祥.
·
2022-11-25 08:59
学习记录
网络
学习
深度学习
【神经
网络学习
篇】tensorflow实现cifar10识别(RNN lstm)
1.LongShortTermMemorynetworks简称LSTMs,是一种特殊的RNN网络。LSTM被明确地设计为避免长期依赖性问题。长时间记住信息实际上是它们的默认行为,而不是它们努力学习的东西。标准RNN中的重复模块包含一个单层。LSTM也有这种链状结构,但重复模块有不同的结构,它有四个神经网络层,以一种特殊的方式进行交互。LSTM中的重复模块包含四个交互层。图片来自:https://m
lesl551
·
2022-11-25 05:56
tensorflow
rnn
lstm
深度学习跨层网络结构--特征融合
RIRRIRResnetinResnet(RiR)基于ResNet改进,扩展了信息流动的方式,研究证明在深度网络中,浅层
网络学习
的内容可
她的我
·
2022-11-25 02:43
深度学习
人工智能
计算机视觉
深入浅出图神经
网络学习
笔记(2)神经网络基础
神经网络基础一、机器学习基本概念1.机器学习流程概述1数学模型2损失函数3梯度下降算法二、神经网络1神经元2多层感知机3训练神经网络总结一、机器学习基本概念随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。1.机器学习流程概述提取特征——建立模型——确定损失函数进行优化求解模型可以看做一个复杂的函数f(X;W),建立输入到输出之间的映
小杜今天学AI了吗
·
2022-11-24 18:06
图神经网络
神经网络
学习
机器学习
深入浅出图神经
网络学习
笔记(4)表示学习
表示学习一、离散表示与分布表示二、端到端学习三、基于重构损失的方法——自编码器四、基于基于对比损失的方法—Word2vec自动地从数据中去学习“有用”的特征,并可以直接用于后续的具体任务———称为表示学习一、离散表示与分布表示独热向量编码(one-hot),它将研究的对象表示为向量,这个向量只在某个维度上值是1,其余维度上值全为0,可以想象有多少种类型,这个向量的长度就有多长。比如要用这种方式去将
小杜今天学AI了吗
·
2022-11-24 18:36
图神经网络
神经网络
学习
深度学习
锐捷
MPLS隧道单域实验配置
目录配置AS100内的IGP路由协议配置AS内的LDP配置PE-PE的MP-BGP协议在PE侧配置PE-CE的路由协议在CE侧配置PE-CE的路由协议将CE的路由重发布进MP-BGP中将MP-BGP的路由重发布进CE中MPLS隧道——单域基础理论讲解_静下心来敲木鱼的博客-CSDN博客_mpls隧道https://blog.csdn.net/m0_49864110/article/details/
静下心来敲木鱼
·
2022-11-24 12:14
路由交换协议实验配置
网络
网络协议
运维
ICCV21 - 无监督语义分割《Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals》
文章目录原文地址初识相知回顾原文地址点我跳转到原文初识在无监督设置下,学习密集语义表征(densesemanticrepresentations)是一个非常重要的问题,这引导
网络学习
像素级的语义表征/嵌入
我是大黄同学呀
·
2022-11-24 08:53
读点论文
-
无监督学习
读点论文
-
检测与分割
计算机视觉
聚类
机器学习
深度学习图像处理目标检测图像分割计算机视觉 09--目标检测
1.1R-FCN1.2YOLO1.2.1YOLOV11.2.2YOLOV21.2.3YOLOV3二、MNIST训练三、基于深度学习的医学图像分割技术研究3.1FCN3.2U-NET四、毕设总结摘要本周计划完成目标检测的下半部分
网络学习
guoxinxin0605
·
2022-11-24 06:14
笔记
图像中的注意力机制 Pytorch实现
参考链接:神经
网络学习
小记录64——Pytorch图像处理中注意力机制的解析与代码详解_Bubbliiiing的博客-CSDN博客_pytorch图像自注意力机制图像处理注意力机制Attention汇总
whetherfailbuttry
·
2022-11-24 05:53
人工智能
计算机视觉
cnn
上一页
37
38
39
40
41
42
43
44
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他