E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
锐捷网络学习
AlexNet
网络学习
及仿真
AlexNet
网络学习
及仿真文章目录AlexNet
网络学习
及仿真前言AlexNet相关知识1前言(Introduction)2数据集(TheDataset)3网络架构(TheArchitecture)3.1ReLU
madao10086+
·
2022-11-27 09:51
深度学习
python
深度学习
alexnet模型
【图神经
网络学习
笔记系列】01-Graph Attention Networks 学习笔记
GraphAttentionNetworks学习笔记这是一个excitingfield前提引入:1.图神经网络GNN介绍:https://www.bilibili.com/video/BV1Tf4y1i7Go8分钟小视频形态:就是《数据结构》、《离散数学》等所说的那个“图”的概念:节点、邻居、关系(有向、无向)、度、出度、入度然后,我们把邻接矩阵A,度矩阵D,特征矩阵X再有个印象就OK了。操作-1
Zach_菠萝侠
·
2022-11-27 08:23
图神经网络学习笔记
深度学习
人工智能
U-Net实战 -- 隧道裂缝的识别
U-Net
网络学习
算法,识别墙面裂缝准备工作:Win10GitminicondaPytorch步骤1.下载裂缝数据集Github原地址下载2.转换mat为jpg#!
z15d23
·
2022-11-27 02:03
教程
裂缝检测
深度学习
图像识别
网络
【学习笔记】TensorFlow2.0搭建神经
网络学习
笔记
1常用函数(1)tf.Variable()标记训练网络中的参数,如W,将变量标记为”可训练“,神经网络训练中,常用该函数标记待训练参数w=tf.Variable(tf.random.normal([2,2],mean=0,stddev=1))#标记w为待训练参数,初始化生成两行两列的正态分布的随机数,均值为0,标准差为1(2)tf.matmul,矩阵乘(3)tf.data.Dataset.from
徐呵呵297
·
2022-11-27 00:42
方法总结
tensorflow
学习
神经网络
java使用minist手写数据集,用滴滴云Notebook快速上手PyTorch-MINIST手写体
在本教程中,您将学习如何快速使用PyTorch训练一个神经
网络学习
如何识别手写数字。
可可子姐姐教英语
·
2022-11-26 21:56
机器学习-神经网络为什么需要非线性(激活函数)
但是有没有仔细思考过,引入非线性的原因呢,下面我简单谈谈自己的看法(纯属个人胡说,有不同见解评论区见)什么是激活函数简单地说,激活函数是添加到人工神经网络中的一个函数,目的是帮助
网络学习
数据中的复杂模式
Techyu
·
2022-11-26 20:47
深度学习
深度学习
神经网络
机器学习
为什么神经网络要使用激活函数?
激活函数是一种添加到人工神经网络中的函数,旨在帮助
网络学习
数据中的复杂模式。在神经元中,输入经过一系列乘加运算后作用于另一个函数,这个函数就是激活函数。
jinlin_
·
2022-11-26 20:47
机器学习
神经网络
人工智能
深度学习
Reverse attention for salient object detection阅读笔记
首先,使用残差
网络学习
侧向输出残差特征来进行显著性细化,其次,我们提出了反向注意,以自上而下的方式引导侧向输出残差特征。通过从侧面输出特征中删除当前预测的显著区域,网络可以最终发现丢失的对象部
Ma lidong
·
2022-11-26 19:54
显著性目标检测论文阅读
人工智能
计算机视觉
深度学习
原力计划
盘点13个值得程序员逛的论坛
作为程序员通过
网络学习
编程知识、与网友讨论交流太正常不过了。今天就给大家盘点13个我自己比较经常使用的、有用的网站,包括资源、论坛网站等。
编程乐趣
·
2022-11-26 19:11
.NetCore
程序员论坛
技术论坛
计算机
网络学习
笔记
写在读前:配套使用《计算机网络自顶向下法》与中国大学MOOC平台哈工大微课《计算机网络》。文中图片侵删,转载需笔者口头同意。更新日志:2022.1.22计网概述、传输层、应用层;1.计网概述1.通信系统模型信源->发送设备->信道(易被噪声源干扰)->接收设备->信宿。2.计算机网络的定义计算机网络是一个互连的、自治的计算机集合。3.交换网络(ISP)由交换节点(路由器或交换机)构成的网。4.In
Love_Jacques
·
2022-11-26 14:19
学习记录
网络
网络协议
服务器
卷积神经
网络学习
心得
卷积神经
网络学习
心得文章目录卷积神经
网络学习
心得一、卷积神经网络1、卷积2、池化3、激活函数3、全连接层3、训练过程二、传播过程1.卷积神经网络的前向传播过程1.1卷积层的前向传播过程1.2下采样层的前向传播过程
djh_hai
·
2022-11-26 14:16
机器学习与深度学习
神经网络
机器学习
深度学习
tensorflow
DCNv1 and DCNv2:Deformable Convolutional networks,可变形卷积
1背景2方法DCNv21背景2方法DCNv1论文解析创新点1、DeformableConv2、DeformableROIpooling1背景深度学习对图像处理往往需要大量的数据集训练,是因为我们需要让
网络学习
到所有可能存在的情况
weixin_38356756
·
2022-11-26 08:11
计算机视觉
深度学习
人工智能
基于深度学习的大规模 MIMO电力系统功率分配研究(Matlab&Python代码实现)
受到最近机器学习技术[5]的成功应用爆炸式增长的启发,这些技术展示了深度神经
网络学习
丰富模式和近似任意函数映射的能力[5]、[6]。
@橘柑橙柠桔柚
·
2022-11-26 07:32
电气代码
python
深度学习
matlab
论文基础常识摘录
一、有关深度学习部分的知识:1.有关卷积神经网络基础知识:①概述:卷积神经网络通过局部感受野、权值共享以及池化层操作用于减少网络的参数规模,并使得
网络学习
到的特征具有位置平移,尺度缩放等方面的不变性。
_Brooke_
·
2022-11-26 07:26
指静脉识别
深度学习
网络
人工智能
‘端云协同’是未来AI产业服务的重要形态,给各种业务算法带来新机遇
评审委员会评论称:“该项目研制难度大、创新性强,整体技术处于国际先进水平,其中在跨模态随机游走图内嵌向量表达、超大规模图自适应分区和综合存储、异构计算架构下图神经
网络学习
加速等方面达到国际领先水平。”
互联网志
·
2022-11-25 20:09
人工智能
干货|不同的损失函数会对深度神经网络带来什么样的影响?
二次损失函数会在神经元犯了明显错误的情况下使得
网络学习
缓慢,而使用交叉熵损失函数则会在明显犯错的时候学的更快。今天,我们主要来谈谈不同的损失函数会对深度神经网络带来什么样的影响?
weixin_33809981
·
2022-11-25 20:20
人工智能
c/c++
【深入浅出PyTorch】4-基础实战-FashionMINIST
4-基础实战文章目录4-基础实战2.1-神经
网络学习
机制2.2-深度学习在实现上的特殊性2.3-PyTorch的深度学习模块2.3.1-基本配置2.3.2-数据读入2.3.3-模型构建2.3.4-损失函数
超级虚空
·
2022-11-25 16:34
深入浅出PyTorch
pytorch
深度学习
神经网络
神经
网络学习
笔记3——LSTM长短期记忆网络
目录1.循环神经网络1.1循环神经网络大致结构1.2延时神经网络(TimeDelayNeuralNetwork,TDNN)1.3按时间展开1.4反向传播1.5梯度消失,梯度爆炸2.lstm门控原理3Matlab实现整个博文,原理和代码实现建议配合视频食用,口感更佳LSTM长短期记忆网络从原理到编程实现LSTM长短期记忆网络从原理到编程实现_哔哩哔哩_bilibili代码链接链接:https://p
奥利奥好吃呀
·
2022-11-25 16:01
神经网络
lstm
深度学习
长短时记忆网络
循环神经网络
[机器学习导论]——第三课——神经网络Ⅰ
神经网络引入逻辑回归的二阶段表示逻辑回归逻辑回归的二阶段表示神经元神经网络具有一个隐藏层的神经网络具有两个隐藏层的神经网络非线性激活函数训练神经网络损失函数二分类损失多分类损失回归损失反向传播数学符号说明回归示例二分类示例深度神经
网络学习
参考资料第三课
雨落俊泉
·
2022-11-25 10:13
#
机器学习入门
机器学习
神经网络
反向传播
visdom简易教程
如果想用pytorch来做神经
网络学习
和训练,那么不管想不想,你都得学visdom这个可视化工具,因为别人全部用这个玩意在进行可视化显示,如果不会用有时甚至别人的代码都跑不起来。
_寒潭雁影
·
2022-11-25 10:32
深度学习
visdom
可视化工具
神经网络的学习(训练):损失函数(均方误差、交叉熵误差)
1神经
网络学习
(训练)步骤:初始化权值和偏置参数——1从总训练集抽取一批数据——2前向传播计算损失、反向传播由损失计算各参数的梯度——3利用梯度更新参数——4重复1、2、32神经网络:端对端的机器学习(
菜鸟爱学习@chong
·
2022-11-25 10:31
笔记
神经网络
学习
机器学习
STN 图像配准一些记录
STN给定一张不规则图像,先用一些简单的
网络学习
到旋转变换参数矩阵,然后和原来不规则图像的分块固定坐标经过矩阵变换得到新的图像坐标,然后根据坐标进行双线性插值得到新图像的某点像素值STN怎么学习到的参数怎么把图像就摆正了反向传播还是根据坐标直接
_Hsiung
·
2022-11-25 09:39
机器学习
RepVGG
网络学习
记录
在ResNet等被提出前,VGG可谓是风靡一时,但当ResNet等横空出世后,VGG便遭受了冷落,甚至一度被人所遗忘,而今天所要介绍的是由清华大学与香港科技大学联合提出了一个VGG的衍生模型,试图让曾经风光不再的VGG容光焕发。之所以RepVGG能够一骑绝尘达到STOA水平,源于其提出了在训练时使用下图B的网络结构,而在推理时则采用下图C的网络结构,而为何能够如此转换,这就是论文提出的思想:结构冲
彭祥.
·
2022-11-25 08:59
学习记录
网络
学习
深度学习
【神经
网络学习
篇】tensorflow实现cifar10识别(RNN lstm)
1.LongShortTermMemorynetworks简称LSTMs,是一种特殊的RNN网络。LSTM被明确地设计为避免长期依赖性问题。长时间记住信息实际上是它们的默认行为,而不是它们努力学习的东西。标准RNN中的重复模块包含一个单层。LSTM也有这种链状结构,但重复模块有不同的结构,它有四个神经网络层,以一种特殊的方式进行交互。LSTM中的重复模块包含四个交互层。图片来自:https://m
lesl551
·
2022-11-25 05:56
tensorflow
rnn
lstm
深度学习跨层网络结构--特征融合
RIRRIRResnetinResnet(RiR)基于ResNet改进,扩展了信息流动的方式,研究证明在深度网络中,浅层
网络学习
的内容可
她的我
·
2022-11-25 02:43
深度学习
人工智能
计算机视觉
深入浅出图神经
网络学习
笔记(2)神经网络基础
神经网络基础一、机器学习基本概念1.机器学习流程概述1数学模型2损失函数3梯度下降算法二、神经网络1神经元2多层感知机3训练神经网络总结一、机器学习基本概念随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。1.机器学习流程概述提取特征——建立模型——确定损失函数进行优化求解模型可以看做一个复杂的函数f(X;W),建立输入到输出之间的映
小杜今天学AI了吗
·
2022-11-24 18:06
图神经网络
神经网络
学习
机器学习
深入浅出图神经
网络学习
笔记(4)表示学习
表示学习一、离散表示与分布表示二、端到端学习三、基于重构损失的方法——自编码器四、基于基于对比损失的方法—Word2vec自动地从数据中去学习“有用”的特征,并可以直接用于后续的具体任务———称为表示学习一、离散表示与分布表示独热向量编码(one-hot),它将研究的对象表示为向量,这个向量只在某个维度上值是1,其余维度上值全为0,可以想象有多少种类型,这个向量的长度就有多长。比如要用这种方式去将
小杜今天学AI了吗
·
2022-11-24 18:36
图神经网络
神经网络
学习
深度学习
锐捷
MPLS隧道单域实验配置
目录配置AS100内的IGP路由协议配置AS内的LDP配置PE-PE的MP-BGP协议在PE侧配置PE-CE的路由协议在CE侧配置PE-CE的路由协议将CE的路由重发布进MP-BGP中将MP-BGP的路由重发布进CE中MPLS隧道——单域基础理论讲解_静下心来敲木鱼的博客-CSDN博客_mpls隧道https://blog.csdn.net/m0_49864110/article/details/
静下心来敲木鱼
·
2022-11-24 12:14
路由交换协议实验配置
网络
网络协议
运维
ICCV21 - 无监督语义分割《Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals》
文章目录原文地址初识相知回顾原文地址点我跳转到原文初识在无监督设置下,学习密集语义表征(densesemanticrepresentations)是一个非常重要的问题,这引导
网络学习
像素级的语义表征/嵌入
我是大黄同学呀
·
2022-11-24 08:53
读点论文
-
无监督学习
读点论文
-
检测与分割
计算机视觉
聚类
机器学习
深度学习图像处理目标检测图像分割计算机视觉 09--目标检测
1.1R-FCN1.2YOLO1.2.1YOLOV11.2.2YOLOV21.2.3YOLOV3二、MNIST训练三、基于深度学习的医学图像分割技术研究3.1FCN3.2U-NET四、毕设总结摘要本周计划完成目标检测的下半部分
网络学习
guoxinxin0605
·
2022-11-24 06:14
笔记
图像中的注意力机制 Pytorch实现
参考链接:神经
网络学习
小记录64——Pytorch图像处理中注意力机制的解析与代码详解_Bubbliiiing的博客-CSDN博客_pytorch图像自注意力机制图像处理注意力机制Attention汇总
whetherfailbuttry
·
2022-11-24 05:53
人工智能
计算机视觉
cnn
注意力机制(Attention Mechanism)-ECANet
在神经
网络学习
中,一般而言模型的参数越多则模型的表达能力越强,模型所存储的信息量也越大,但这会带来信息过载的问题。
车手文
·
2022-11-24 04:12
深度学习-注意力机制
神经网络
锐捷
端口安全实验配置
端口安全分为IP+MAC绑定、仅IP绑定、仅MAC绑定配置端口安全是注意事项如果设置了IP+MAC绑定或者仅IP绑定,该交换机还会动态学习下联用户的MAC地址如果要让IP+MAC绑定或者仅IP绑定的用户生效,需要先让端口安全学习到用户的MAC地址,负责绑定不生效交换机如果某些端口设置了端口安全(端口MAC绑定),但是某些端口没有设置为端口安全,则绑定此mac的设备只可以在设置了端口安全的那个端口上
静下心来敲木鱼
·
2022-11-24 00:03
路由交换协议实验配置
网络
网络协议
运维
安全
Python神经网络入门与实战,python实现人工神经网络
如何用9行Python代码编写一个简易神经
网络学习
人工智能时,我给自己定了一个目标--用Python写一个简单的神经网络。为了确保真得理解它,我要求自己不使用任何神经网络库,从头写起。
普通网友
·
2022-11-24 00:18
python
神经网络
机器学习
YOLOv5 激活函数(四)
激活函数的这种非线性赋予了深度
网络学习
复杂函数的能力2.各类激活函数Swish函数f(x)=x.sigmoid(x)
@BangBang
·
2022-11-23 22:25
object
detection
python实现简单的神经网络,python实现神经网络算法
如何用9行Python代码编写一个简易神经
网络学习
人工智能时,我给自己定了一个目标--用Python写一个简单的神经网络。为了确保真得理解它,我要求自己不使用任何神经网络库,从头写起。
普通网友
·
2022-11-23 19:05
神经网络
算法
python
python神经网络编程 代码,python神经网络编程 豆瓣
如何用9行Python代码编写一个简易神经
网络学习
人工智能时,我给自己定了一个目标--用Python写一个简单的神经网络。为了确保真得理解它,我要求自己不使用任何神经网络库,从头写起。
普通网友
·
2022-11-23 19:04
python
神经网络
机器学习
python神经网络实际应用_7个实战项目带你应用神经网络
文章主要整理了7个神经网络的实战项目,相信对神经
网络学习
者会有所帮助。
尹昉
·
2022-11-23 19:04
python神经网络实际应用
卷积神经
网络学习
案例一——简单的黑白边界检测importmatplotlib.pyplotaspltimportnumpyasnpimportpaddlefrompaddle.nnimportConv2Dfrompaddle.nn.initializerimportAssignw=np.array([1,0,-1],dtype='float32')w=w.reshape([1,1,1,3])conv=Conv2D
咕噜qqq
·
2022-11-23 16:33
python
numpy
【迁移
网络学习
实战】- Kaggle猫狗分类大赛 - 单模型测试 - 前7.8%
【迁移
网络学习
】-Kaggle猫狗分类大赛-前7.8%数据集下载:链接:https://pan.baidu.com/s/1AIj0FhdCQPeAWg4Sw7DEOQ提取码:aejj一、内容想要将深度学习应用于小型图像数据集
一只稚嫩的小金毛
·
2022-11-23 12:52
Kaggle+阿里天池比赛
【迁移
网络学习
实战】- Kaggle猫狗分类大赛 - 多模型融合 - 前1.7%
【迁移
网络学习
实战】-Kaggle猫狗分类大赛-前1.7%数据集下载:链接:https://pan.baidu.com/s/1AIj0FhdCQPeAWg4Sw7DEOQ提取码:aejj一、内容想要将深度学习应用于小型图像数据集
一只稚嫩的小金毛
·
2022-11-23 12:52
Kaggle+阿里天池比赛
4 图神经网络—— 基本概念与手写code
文章目录1基本概念1.1图神经网络中的基本元素1.2图神经
网络学习
的流程1.2.1图神经网络与随机游走的区别1.2.2图神经网络的输入1.2.3图神经网络的更新1.2.3.1直观印象1.2.3.2理解1.2.3.1
EntropyPlus
·
2022-11-23 08:04
图神经网络
神经
网络学习
(一)-- 框架建立
神经
网络学习
(一)--框架建立文章目录神经
网络学习
(一)--框架建立前言一、神经网络的定义神经网络的优点:二、使用步骤1.引入库2.读入数据总结前言这里只记录一些基本概念,并保存系列文章的导航栏最近工作中开始需要神经网络
尾生爱柱子
·
2022-11-23 07:03
小白之路
神经网络
学习
python
DAY2--RNN神经
网络学习
笔记
全连接神经网络和卷积神经网络,他们都只能单独的取处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。比如,当我们在理解一句话意思时,孤立的理解这句话的每个词是不够的,我们需要处理这些词连接起来的整个序列;当我们处理视频的时候,我们也不能只单独的去分析每一帧,而要分析这些帧连接起来的整个序列。这时,就需要用到深度学
终极香蕉大菠萝
·
2022-11-23 06:59
Artificial
Neural
Networks
自然语言处理(NLP)-模型常用技巧:Normalization【Batch Norm、Layer Norm】
一方面,神经
网络学习
过程本质就是为了学习数据特征以及数据的分布特征,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低;另外一方面,一旦每批训练数据的分布各不相同(batch梯度下降),那么网络就要在每次迭代都去学习适应不同的分布
u013250861
·
2022-11-23 05:21
自然语言处理/NLP
自然语言处理
batch
深度学习
神经
网络学习
笔记6——初学AI绘画中的GAN与Diffusion
系列文章目录文章目录系列文章目录AI绘画GAN前言一、生成网络与判别网络的协同进化1、生成器与判别器的学习趋向2、部分算法理念Diffusion前言一、Diffusion前向过程二、Diffusion反向过程AI绘画AI绘画,目前AI领域里最有话题性的技术,上一个这么火的话题是swintransformer网络,而2022年8月JasonAllen凭借AI绘画作品《太空歌剧院》拿下科罗拉多州博览会
RanceGru
·
2022-11-23 05:49
深度学习
神经网络
AI作画
stable
diffusion
神经
网络学习
笔记5——Swin-Transformer网络
系列文章目录神经
网络学习
笔记1——ResNet残差网络、BatchNormalization理解与代码神经
网络学习
笔记2——VGGNet神经网络结构与感受野理解与代码参考博客1参考博客2文章目录系列文章目录前言一
RanceGru
·
2022-11-23 05:18
深度学习
神经网络
学习
transformer
双流
网络学习
笔记
1.视频理解学习笔记1.视频理解学习笔记1.1.视频理解概述1.2.双流网络的诞生1.3.双流网络论文讲解1.3.1.双流网络主要思想1.3.2.关于光流(Opticalflow)1.3.3.双流法的继承1.3.4.双流神经网络的结构1.3.4.1.空间流神经网络1.3.4.2.时间流神经网络以及如何利用光流1.3.4.2.1.光流及其具体表示1.3.4.2.2.如何使用光流1.3.4.2.3.关
收尾人VEM
·
2022-11-22 22:55
视频理解
计算机视觉
图像处理
深度学习
python
神经网络
Datawhale组队学习-图神经网络(三)
学习MLP神经网络的理论,观察MLP神经网络用于节点分类的表现,观察基于MLP神经
网络学习
到的节点表征的分布。
阿_边
·
2022-11-22 22:43
图神经网络
神经
网络学习
笔记
最近在学习一门深度学习与机器视觉的专业课,感觉自己的深度学习的基础很是不牢固,所以打算从最简单的神经网络整理一下知识在B站发现了一个神经网络可视化的视频,很nice,推荐给大家神经网络可视化这篇文章很是实用《深度学习》课程总结-深度学习的实用层面在这里记录一下有关epoch、iteration、batch_size的概念batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练
努力学习DePeng
·
2022-11-22 22:41
笔记
神经网络
深度学习
上一页
37
38
39
40
41
42
43
44
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他