E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络学习
神经网络:卷积神经网络(CNN)
由于单元之间的连接,
神经网络学习
又称连接者学习。神经网络是以模拟人脑神经元的数学模型为基础而建立的,它由一系列神经元组成,单元之间彼此连接。从信息处理角度看,神经元可以看作是一个多输入单输
wyrgl
·
2023-07-29 14:48
【PyTorch】教程:Spatial transformer network
STN允许一个
神经网络学习
如何执行空间变换,从而可以增强模型的几何鲁棒性。例如,可以截取ROI,尺度变换,
黄金旺铺
·
2023-07-29 12:03
PyTorch
pytorch
transformer
深度学习
【人工智能】神经网络、M-P_神经元模型、激活函数、神经网络结构、学习网络参数、代价定义、总代价
激活函数、神经网络结构、学习网络参数、代价定义文章目录M-P_神经元模型、激活函数、神经网络结构、学习网络参数、代价定义M-P神经元模型激活函数(Activationfunction)神经网络结构举例训练
神经网络学习
网络参数代价定义均方误差交叉熵
编程G的快乐
·
2023-07-24 16:46
机器学习
人工智能
深度学习
人工智能
神经网络
学习
京东和他的供应链故事
在最新的设备上,我们可以搭载定制的
神经网络学习
芯片,提高边缘计算的效率。而不只是将数据返回给中心节点然后再
Einstellung
·
2023-07-21 08:38
神经网络学习
小记录74——Pytorch 设置随机种子Seed来保证训练结果唯一
神经网络学习
小记录74——Pytorch设置随机种子Seed来保证训练结果唯一学习前言为什么每次训练结果不同什么是随机种子训练中设置随机种子学习前言好多同学每次训练结果不同,最大的指标可能会差到3-4%
Bubbliiiing
·
2023-07-19 14:02
神经网络学习小记录
神经网络
学习
pytorch
Seed
随机种子
极限学习机应用于入侵检测(一)
传统的
神经网络学习
upupday19
·
2023-07-17 22:04
论文
项目
机器学习
IDS
极限学习机
深度学习
神经网络学习
笔记-论文研读-transformer及代码复现参考
摘要优势序列转导模型基于复杂的循环或包括一个编码器和一个解码器的卷积神经网络。最好的表现良好的模型还通过attention连接编码器和解码器机制。我们提出了一种新的简单的网络架构,Transformer,完全基于注意力机制,省去了递归和卷积完全。在两个机器翻译任务上的实验表明,这些模型可以质量优越,同时具有更强的并行性和显著的要求训练时间更少。我们的模型在WMT2014英语-上达到28.4BLEU
丰。。
·
2023-07-14 12:34
神经网络论文研读
机器学习笔记
神经网络
深度学习
神经网络
学习
transformer
深度学习
神经网络学习
笔记-多模态方向-13- Multimodal machine learning: A survey and taxonomy
本文为简单机翻,参考学习用1多模态机器学习:综述与分类TadasBaltruˇsaitis,ChaitanyaAhuja,和Louis-PhilippeMorency抽象——我们对世界的体验是多模态的——我们看到物体,听到声音,感觉到纹理,闻到气味,尝到味道。模态是指某件事情发生或体验的方式,当一个研究问题包含多个这样的模态时,它就被称为多模态。为了让人工智能在理解我们周围的世界方面取得进展,它需
丰。。
·
2023-07-14 12:04
多模态
神经网络论文研读
神经网络
机器学习
深度学习
神经网络
多模态
torch_geometric踩坑实战--安装与运行 亲测有效!!
torch_geometric是PyG中必不可少的一个包,也是进行图
神经网络学习
的必备,然而安装这个包并运行一段简单的代码踩了不少坑,记录一下。
小汤爱学习
·
2023-06-23 05:47
深度学习
pytorch
python
qt.qpa.plugin: could not load the qt platform plugin “windows“ in ““ even though it was found.
今天在PyTorch
神经网络学习
时,执行代码出现如下错误:qt.qpa.plugin:couldnotloadtheqtplatformplugin"windows"in""eventhoughitwasfound.thisapplicationfailedtostartbecausenoqtplatformplugincouldbeinitialized.reinstallingtheappli
在奋斗的大道
·
2023-06-21 22:05
python
问题异常
qt
windows
开发语言
【深度学习】4-4 误差反向传播法 - 算法的具体实现
神经网络学习
的全貌图前提神经网络中有合适的权重和偏置,调整权重和偏置以便拟合训练数据的过程称为学习。
loyd3
·
2023-06-20 20:05
学习深度学习
深度学习
算法
数学建模
神经网络
【人工智能】— 神经网络、M-P 神经元模型、激活函数、神经网络结构、学习网络参数、代价定义、总代价
【人工智能】—神经网络神经网络的历史NeuralNetworkIntroM-P神经元模型激活函数(Activationfunction)神经网络结构举例训练
神经网络学习
网络参数代价定义均方误差交叉熵(CrossEntropy
之墨_
·
2023-06-19 06:48
笔记
人工智能
人工智能
神经网络
学习
Pytorch教程:Autograd基础
偏微分计算时反向传播
神经网络学习
的核心。autograd的可以在运行时动态追踪计算,这意味着如果模型有决策分支、或者有在运行时之前长度未知的循环,仍然可以正确的追踪计算,得到正确的梯度进而驱动学习。
learnrocks100
·
2023-06-17 08:24
Pytorch教程
pytorch
深度学习
机器学习
autograd
pytorch教程
吴恩达471机器学习入门课程2第3周——评估和改进模型
2.1.1绘制训练集和测试集2.2模型评估的误差计算,线性回归2.3比较训练数据和测试数据上的性能3偏差和方差3.1绘制训练、交叉验证和测试集3.2找到合适的多项式次数3.3归一化3.4扩大数据集4评估
神经网络学习
算法
贰拾肆画生
·
2023-06-16 20:36
机器学习
机器学习
人工智能
【AI面试】损失函数(Loss),定义、考虑因素,和怎么来的
神经网络学习
的方式,就是不断的试错。知道了错误,然后沿着错误的反方向(梯度方向)不断的优化,就能够不断的缩小与真实世界的差异。此时,如何评价正确答案与错误答案,错误的有多么的离谱,就需要一个评价指标。
钱多多先森
·
2023-06-16 11:34
AI/CV面试
人工智能
损失函数
loss
交叉熵
Python
神经网络学习
(六)--机器学习--强化学习
前言:属实是失踪人口回归了。继续神经网络系列。强化学习:强化学习也是一个很重要的方向了,很多人用强化学习玩游戏,可能有人觉得强化学习很难(包括我),但是我今天用网上流传很广的、很经典的一个例子(悬崖徒步,CliffWalking),去带领大家明白强化学习,大概分为两期(本期和下一期)讲明白这个例子。今天就从最简单的方式:表格型入手,开始入门强化学习。什么是强化学习?强化学习是Reinforceme
ChuckieZhu
·
2023-06-14 13:45
机器学习
学习
人工智能
强化学习
悬崖徒步
AI学术交流——“人工智能”和“
神经网络学习
”
作者简介:一名云计算网络运维人员、每天分享网络与运维的技术与干货。座右铭:低头赶路,敬事如仪个人主页:网络豆的主页目录前言一.人工智能1.“人工智能之父”2.达特茅斯会议(人工智能起源)3.人工智能重要节点二.神经网络1.什么是神经网络2.神经网络简单结构3.为什么要学习人类的神经网络(1)人类大脑:(2)人类大脑与人工智能神经网络相似之处(3)人类大脑与人工智能神经网络不同之处4.不同类型的神经
网络豆
·
2023-06-14 01:12
前沿科技
人工智能
神经网络
神经网络学习
中遇到的问题
Pytorch显示一个Tensor类型的图片数据pytorch中的squeeze()和unsqueeze()函数,【增减维度】numpy和torch中的squeeze、unsqueeze理解_numpyunsqueeze_寻找永不遗憾的博客-CSDN博客将卷积结果输出成图片、将随机生成的张量当成图片输出Python中”Clippinginputdatatothevalidrangeforimsho
未来之王
·
2023-06-11 05:41
神经网络
学习
深度学习
走进机器学习
专栏简介:本专栏作为深度学习的专栏,注重于介绍神经网络,强化学习等重要框架理论知识,也会介绍一些算法,少部分代码作为示例,具体的代码学习会放在后面的
神经网络学习
专栏。旨在让大家认识神经网络,
心随而动
·
2023-06-10 10:24
深度学习框架
人工智能
神经网络学习
小记录73——Pytorch CA(Coordinate attention)注意力机制的解析与代码详解
神经网络学习
小记录73——PytorchCA(Coordinateattention)注意力机制的解析与代码详解学习前言代码下载CA注意力机制的概念与实现注意力机制的应用学习前言CA注意力机制是最近提出的一种注意力机制
Bubbliiiing
·
2023-06-09 09:25
神经网络学习小记录
pytorch
神经网络
学习
Transformer【ViT】
层
神经网络学习
小记录67——Pytorch版VisionTransformer(VIT)模型的复现详解计算机视觉中的transformer模型创新思路总结_TomHardy的博客-CSDN博VisionTransformer
太简单了
·
2023-06-08 16:15
Backbone
Transformer
神经网络学习
率指数衰减ExponentialDecay策略的参数含义与使用方法详解
本文介绍在tensorflow库中,用于动态调整神经网络的学习率的一种方法——指数衰减ExponentialDecay()策略的参数含义及其具体用法。 在进行神经网络训练时,我们经常需要用到动态变化的学习率,其中指数衰减ExponentialDecay()策略是我们常用的一种策略。在tensorflow库中,其完整的用法是tf.keras.optimizers.schedules.Expon
疯狂学习GIS
·
2023-06-07 23:24
机器学习与深度学习
计算机高效操作
深度学习
神经网络
tensorflow
学习率
指数衰减
NNI 博文1
NNI与其他自动机器学习工具的比较:根据各个自动学习工具特点绘制以下图表:由上图所示,NNI相较于其他自动学习工具的特点概括如下:NNI同GoogleVizier一样,偏向于
神经网络学习
的参数和模型机构的自动化搜索
nni_group
·
2023-04-21 18:10
图(graph)
神经网络学习
(四)--代码解析(Model_2)
【2】Model_2:1stChebNet(2017)-github:gcn(https://github.com/tkipf/gcn)(tensorflow){Semi-SupervisedClassificationwithGraphConvolutionalNetworks}基于图卷积网络的半监督分类文章:https://www.colabug.com/5231014.htmlGraphCo
布口袋_天晴了
·
2023-04-19 20:16
损失函数、python实现均方误差、交叉熵误差函数、mini-batch的损失函数
损失函数whatis损失函数均方误差交叉熵误差计算mini-batch学习的损失函数why损失函数whatis损失函数
神经网络学习
目标是找到各层合适的权重参数w和偏置b,使得最终的输出结果能够与实际结果更加接近
算法技术博客
·
2023-04-19 18:28
学习笔记
机器学习
python
batch
Matlab
神经网络学习
总结
1通过神经网络滤波和信号处理,传统的sigmoid函数具有全局逼近能力,而径向基rbf函数则具有更好的局部逼近能力,采用完全正交的rbf径向基函数作为激励函数,具有更大的优越性,这就是小波神经网络,对细节逼近能力更强。BP网络的特点①网络实质上实现了一个从输入到输出的映射功能,而数学理论已证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题。我们无需建立模型,或了解其内
早起的小懒虫
·
2023-04-15 23:46
神经网络
matlab
学习
图
神经网络学习
task07(图预测任务实践)
一、本阶段的组队学习网站地址:[datawhale]二、本期主要学习内容:学习样本按需获取的数据集类的构造方法最后学习基于图表征学习的图预测任务的实践三、超大规模数据集类的创建在前面的学习中我们只接触了数据可全部储存于内存的数据集,这些数据集对应的数据集类在创建对象时就将所有数据都加载到内存。然而在一些应用场景中,数据集规模超级大,我们很难有足够大的内存完全存下所有数据。因此需要一个按需加载样本到
shiwy
·
2023-04-14 09:01
python
深度学习
大数据
Coding and Paper Letter(九)
SensorSpecificHyperspectralImageFeatureLearning利用卷积
神经网络学习
高光谱图像传感器特有的空间谱特征。
weixin_34419326
·
2023-04-11 16:59
人工智能
r语言
开发工具
强化学习的分类方法
总体认识强化学习是很大的概念,他包含了很多种算法,我们也会一一提到其中一些比较有名的算法,比如有通过行为的价值来选取特定行为的方法,包括使用表格学习的QLearning方法,sarsa等,使用
神经网络学习
的
csdn_LYY
·
2023-04-10 22:35
机器学习
卷积
神经网络学习
路线(五)| 卷积神经网络参数设置,提高泛化能力?
前言这是卷积
神经网络学习
路线的第五篇文章,主要为大家介绍一下卷积神经网络的参数设置,调参技巧以及被广泛应用在了哪些领域,希望可以帮助到大家。
just_sort
·
2023-04-08 16:52
深度学习论文阅读及算法详解
2022-05-19
|弱监督机器学习用于显微图像的检测、计数和分割原创苏安图灵基因2022-05-1913:47发表于江苏收录于合集#前沿生物大数据分析撰文:苏安IF:16.649推荐度:⭐⭐⭐⭐⭐亮点:1.作者通过机器
神经网络学习
以及显微镜技术建立了一个能够检测识别图像并分析的微镜深度学习平台
图灵基因
·
2023-04-05 08:29
神经网络:损失函数
神经网络学习
笔记-损失函数的定义和微分证明http://www.cnblogs.com/steven-yang/p/6357775.html
nightwish夜愿
·
2023-04-04 22:04
python神经网络编程 豆瓣,python实现人工神经网络
1、如何用9行Python代码编写一个简易
神经网络学习
人工智能时,我给自己定了一个目标--用Python写一个简单的神经网络。为了确保真得理解它,我要求自己不使用任何神经网络库,从头写起。
aifans_bert
·
2023-04-03 11:17
php
神经网络
python
机器学习
对比学习 RDrop: Regularized Dropout for Neural Networks
对比学习,最近比较火的一个方向,属于自监督的一种,其基本的思想是,不引入额外的标注数据,利用数据本身,在学习中的一些其他角度的监督信号,进行
神经网络学习
。
ad110fe9ec46
·
2023-03-30 18:52
神经网络学习
小记录34——利用PyTorch实现卷积神经网络
神经网络学习
小记录34——利用PyTorch实现卷积
神经网络学习
前言PyTorch中实现卷积的重要基础函数1、nn.Conv2d:2、nn.MaxPool2d(kernel_size=2)3、nn.ReLU
Bubbliiiing
·
2023-03-29 05:45
神经网络学习小记录
Pytorch
卷积神经网络
CNN
Conv2d
神经网络学习
_Udacity
神经网络学习
“你拍我猜”——你拍照,AI猜在这个项目中,你将学习利用神经网络来分类照片中是狗狗,是猫猫,还是人。本项目使用了一个经过预处理后较小的数据集,数据集中仅含有图像的特征结果。
夏寒RHT
·
2023-03-29 02:41
深度学习机器学习
神经网络学习
视频教程基础29课
深度学习机器学习
神经网络学习
基础29课视频教程大数据,云计算,架构,数据分析师,Hadoop,Spark,Storm,Docker,Mapreduce,Kafka,Flume,OpenStack,Hive
平蝶与波澜
·
2023-03-26 05:08
2018-12-19 CNN
神经网络学习
台湾大学李宏毅老师的机器学习课程是一份非常好的ML/DL入门资料,这篇文章是学习本课程第10课所做的笔记和自己的理解。1.前言神经网络中的每一个神经元与DNN(深度学习网络)的神经元一样,但是对于有3万的input神经元也有1000的fullyconnection来说,weight将会有30000*1000个,所以CNN需要削减weight的数目。为什么CNN可以用较少的参数得到一个较好的模型呢?
昊昊先生
·
2023-03-21 16:52
matlab单层感知器画线,MATLAB
神经网络学习
(1):单层感知器
单层感知器由一个线性组合器和一个二值阈值元件组成。输入是一个N维向量x=[x1,x2,...,xn],其中每一个分量对应一个权值wi,隐含层输出叠加为一个标量值:随后在二值阈值元件中对得到的v值进行判断,产生二值输出:可以将数据分为两类。实际应用中,还加入偏置,值恒为1,权值为b。这时,y输出为:单层感知器结构图:单层感知器进行模式识别的超平面由下式决定:当维数N=2时,输入向量可以表示为平面直角
金酱酱
·
2023-03-13 07:22
matlab单层感知器画线
从神经网络想到的
最近两年人工智能比较流行,现在流行的人工智能方法是通过大数据输入然后机器学习方法掌握智能,机器学习一个重要的基础就是
神经网络学习
,这是现在机器学习最主要理论之一,也是人工智能最近快速发展一个重要原因,简单来说就是通过大量数据输入
aman2018
·
2023-03-09 21:45
神经网络学习
小记录1——利用tensorflow构建卷积神经网络(CNN)
神经网络学习
小记录1——利用tensorflow构建卷积神经网络(CNN)学习前言简介隐含层介绍1、卷积层2、池化层3、全连接层具体实现代码卷积层、池化层与全连接层实现代码全部代码学习前言学习神经网络已经有一段时间
Bubbliiiing
·
2023-02-24 07:57
神经网络学习小记录
CNN
卷积神经网络
tensorflow
机器学习
人工智能
GCN
神经网络学习
(一)
本篇的两个重点:图卷积网络GCN的基本原理,以及如何聚合邻居的基本信息一、基本原理假设创建一个图G:顶点集V;邻接矩阵A;代表节点特征的矩阵X:X=m*|v|(顶点数量),m:每个节点有m维的特征。现在我有一个图是这个样子的:用神经网络来表示它:(例子中只表示了A节点的,其他节点的表示方法雷同就不再展示)将图转化为神经网络的方式来表示就是基本的一个原理。二、聚合基本方法:对来自邻居的信息取平均值并
monki9166
·
2023-02-17 18:13
神经网络
学习
深度学习
卷积
神经网络学习
——第一部分:认识并搭建两层卷积神经网络
卷积神经网络——第一部分:认识并搭建卷积神经网络一、序言二、网络实现1、模型构建2、类和函数的意义及性质(1)nn.Conv2d(2)F.max_pool2d(3)F.relu(4)F.log_softmax(5)nn.Linear3、模型总结三、总结一、序言 本文基于北邮数据科学基础课程的期中作业和相关课件知识,以Pytorch环境为基础,实现两层卷积神经网络,并针对各个参数进行推导和演算。本
吕守晔_Ryan
·
2023-02-07 11:32
【2020秋】数据科学基础
卷积神经网络
python
神经网络学习
(1):cells +layers
神经网络学习
(1):cells+layersNEURALNETWORKZOOPREQUEL:CELLSANDLAYERS一、神经元(cells)神经网络图表展示了不同类型的神经元(cell)和不同的层(
clover_my
·
2023-02-07 07:52
阅读笔记
神经网络
d2l卷积
神经网络学习
笔记(2)——浅谈残差网络ResNet
1.关于残差网络残差网络从实现原理上并不复杂,但是关于具体的原理一开始比较难理解,找了一些资料也有了一点想法。(1).我们要解决什么问题首先,网络的性能并不是随网络层数加深而上升的,这是很符合直觉的,毕竟有过拟合的先例。但是实际上,即使网络还处于欠拟合,更深层次的网络也会导致性能的下降,也就是网络退化,要理清这一现象,需要先引入一个概念,恒等映射。恒等映射简单的讲就是f(x)=x,在我们预期中,一
Tsparkle
·
2023-02-07 07:14
学习之路
学习
深度学习
cnn
《机器学习-小知识点》4:SGD,momentum,RMSprop,AdaGrad ,Adam
《机器学习-小知识点》4:SGD,momentum,RMSprop,AdaGrad,Adam都是个人理解,可能有错误,请告知4.1知识点定位我们简单说一下整个
神经网络学习
过程:我们数据是已知的,网络结构是已知的
羊老羊
·
2023-02-06 13:12
小知识点
人工智能
深度学习
【论文阅读】【剪枝】Learning Efficient Convolutional Networks through Network Slimming
在本文中,我们提出了一种新的
神经网络学习
方案,以同时1)减小模型大小;2)减少运行时内存占用;以及3)在不损害精度的情况下减少计算操作的数量。
weixin_50862344
·
2023-02-05 23:33
#
剪枝
深度学习
人工智能
梯度
本文主要用直观的思维去介绍梯度,为
神经网络学习
打下坚实的数学基础机器学习中,经常会出现一个概念:梯度下降,几乎所有的教程都会有这个概念,很多的学习的公式的推导都是以梯度为基准,很多人可能想:卧槽,数学早忘光了
zxqian1991
·
2023-02-05 22:21
神经网络碰上高斯过程,DeepMind论文开启深度学习新方向
DeepMind分别称这两种模型为神经过程与条件神经过程,它们通过
神经网络学习
逼近随机过程,并能处理监督学习问题。函数近似是机器学习众多问题的核心,而过去深度神经网络凭借其
weixin_34327761
·
2023-02-05 11:18
人工智能
matlab
神经网络学习
的基本概念
1.符号主义与连接主义(1)符号主义:重视逻辑而轻视感知。Eg.专家系统(2)连接主义:重视感知而轻视逻辑。Eg.神经网络共同之处在于都是研究怎样用计算机来模拟人脑工作过程。(图源自《人工智能》马少平)2.神经网络的基本模型(1)前馈型网络信号由输入层到输出层单向传播,每层的神经元仅与前层的神经元相连接,只接受前层传输来的信息。图来源《人工智能》马少平(2)输入输出有反馈的前馈性网络其输出层上存在
BachelorSC
·
2023-02-03 16:27
AI
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他