E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络学习
神经网络学习
--PyTorch学习06 迁移VGG16
因为我们从头训练一个网络模型花费的时间太长,所以使用迁移学习,也就是将已经训练好的模型进行微调和二次训练,来更快的得到更好的结果。importtorchimporttorchvisionfromtorchvisionimportdatasets,models,transformsimportosfromtorch.autogradimportVariableimportmatplotlib.pyp
weixin_30438813
·
2020-08-17 03:22
DEEP COMPRESSION: COMPRESSING DEEP NEURAL NETWORKS WITH PRUNING, TRAINED QUANTIZATION AND HUFFMAN
深度压缩:采用修剪,量子化训练和霍夫曼编码来压缩深度
神经网络学习
模型压缩知识,记录此论文(ICLR2016的bestpaper)学习过程。
落地生根1314
·
2020-08-16 14:28
Deep
Learning
机器学习论文学习(1):Batch Normalization
机器学习论文阅读(1):BatchNormalization使用背景:
神经网络学习
过程本质就是为了学习数据分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低;另外一方面,一旦每批训练数据的分布各不相同
逐水草而居的造轮人
·
2020-08-16 09:36
机器学习论文学习
深度学习入门(三)构建简单的两层神经网络
本文的代码地址
神经网络学习
的全
得克特
·
2020-08-16 09:23
深度学习
Michael Nielsen 's
神经网络学习
之一
最近看到了一个比较好的神经网络和深度学习的网站,http://neuralnetworksanddeeplearning.com/,其实也不算是网站,算是MichaelNielsen的书籍电子版,写的算是比较生动简介,我这部分系列的文章算是一个跟书笔记,也算是半吊子翻译和代码注释工,恩,背景介绍到这里(大神直接看原文就行了,可以不用看后面的渣文了)。没接触神经网络之前,我觉得神经网络非常神奇,各种
luchi007
·
2020-08-16 08:26
机器学习
算法学习
机器学习与神经网络
5、神经网络在机器学习中,神经网络一般指的是“
神经网络学习
”,是机器学习与神经网络两个学科的交叉部分。
数据科学家corten
·
2020-08-16 07:15
机器学习
MATLAB快速搭建一个神经网络以及神经网络工具箱的使用
文章目录0.导读1.神经网络工具箱2.如何利用MATLAB工具箱建立神经网络人工
神经网络学习
笔记2——MATLAB神经网络工具箱神经网络工具箱的使用MATLAB中神经网络工具箱的使用0.导读首先声明,这篇文章的内容并不全是本人的原创内容
水无垠
·
2020-08-16 07:49
matlab
生成性对抗网络技术实现
生成性对抗网络技术实现GenerativeAdversarialNetworks以某种形式,使用深度
神经网络学习
从数据点到标签的映射。这种学习被称为区别性学习,因为希望能够区分猫和狗的照片。
wujianming_110117
·
2020-08-16 04:31
GAN
神经网络
大数据
在深度学习中对正则化的直观认识
这种现象在
神经网络学习
中尤为普遍——学习能力越强,记忆的可能性就
人工智能遇见磐创
·
2020-08-16 01:09
人工智能
卷积
神经网络学习
路线(七)| 经典网络回顾之AlexNet
前言这是卷积
神经网络学习
路线的第七篇文章,主要回顾一下经典网络中的AlexNet。
just_sort
·
2020-08-15 23:03
深度学习论文阅读及算法详解
卷积
神经网络学习
一
概念和特点padding填充输出(n+2p-f+1)*(n+2p-f+1)p为paddingf为stridevalid卷积意味着卷积不填充输入:n*n的图像f*f的滤波器输出:(n-f+1)*(n-f+1)same卷积为了得到和原图像一样大小的输出p=(f-1)/2输入:n*n的图像f*f的滤波器输出:(n+2p-f+1)*(n+2p-f+1)stride步长输入:n*n的图像f*f的滤波器输出:
hotboyboy
·
2020-08-15 23:47
深度学习
在深度学习中对正则化的直观认识
这种现象在
神经网络学习
中尤为普遍——学习能力越强,记忆的可能性就
人工智能遇见磐创
·
2020-08-15 22:00
第四周作业:卷积
神经网络学习
part3
代码学习HybridSN高光谱分类网络importnumpyasnpimportmatplotlib.pyplotaspltimportscipy.ioassiofromsklearn.decompositionimportPCAfromsklearn.model_selectionimporttrain_test_splitfromsklearn.metricsimportconfusion_m
lixinaa
·
2020-08-15 11:00
神经网络学习
笔记(一)——卷积神经网络CNN
卷积神经网络CNN文章目录卷积神经网络CNN一、概述二、卷积的概念三、CNN原理3.1卷积层3.2池化层3.3完全连接层3.4权值矩阵BP算法3.5层的尺寸设置四、CNN简单使用五、总结一、概述 卷积神经网络(ConvolutionalNeuralNetwork,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 卷积神经网络由一个或多个
Storm*Rage
·
2020-08-15 09:50
向深度学习三剑客学习四种科研精神(上)
来源:陈德旺科学网博客深度学习,尤其是深度
神经网络学习
算法的兴起和大数据的加持,结合GPU的算力,如同“三英战吕布”,终于搞定了人工智能这一反复无常的“吕布”,使得人工智能得以第三次复兴。
人工智能学家
·
2020-08-15 02:44
神经网络学习
之----线性神经网络,delta学习规则,递归下降法
这里我们提出一个神经网络解决异或问题。X=np.array([[1,0,0],[1,0,1],[1,1,0],[1,1,1]])Y=np.array([-1,1,1,-1])x1=[0,1]y1=[1,0]x2=[0,1]y2=[0,1]异或问题出现四个点,此时一条直线无法正确地区分出正负样本,于是我们引入线性神经网络线性神经网络:线性神经网络于感知器的主要区别在于,感知器的激活函数只能输出两种可
weixin_30681121
·
2020-08-15 00:23
关于神经网络权值初始化的讲究
用神经网络来学习时,权值的初始化会会影响网络的学习速度,不好的初始化权值会使
神经网络学习
速度在学习过程中较快的下面可以举个例进入饱和期,速度很慢,下面可以举个例子说明这点这是一个三层网络,一层输出层,一层隐层
qq_32944255
·
2020-08-14 18:39
机器学习
吴恩达深度学习笔记(29)-神经网络训练的方差和偏差分析
这一节我们学习在
神经网络学习
训练时出现的结果进行分析,偏差和方差的表现和优化,仔细看好咯~偏差,方差(Bias/Variance)几乎所有机器学习从业人员都期望深刻理解偏差和方差,这两个概念易学难精,即使你自己认为已经理解了偏差和方差的基本概念
极客Array
·
2020-08-14 16:12
深度学习
吴恩达深度学习笔记
B站吴恩达深度学习视频笔记(32)——神经网络训练的方差和偏差分析
这一节我们学习在
神经网络学习
训练时出现的结果进行分析,偏差和方差的表现和优化,仔细看好咯~偏差,方差(Bias/Variance)几乎所有机器学习从业人员都期望深刻理解偏差和方差,这两个概念易学难精,即使你自己认为已经理解了偏差和方差的基本概念
nine_mink
·
2020-08-14 15:27
B站吴恩达深度学习视频笔记
算法
可视化
机器学习
深度学习
人工智能
卷积神经网络基础
卷积
神经网络学习
笔记1.名词解释softmax函数:也称归一化指数函数,它能将一个含任意实数的K维向量Z压缩”到另一个K维实向量σ(Z)中,使
_a_dai_
·
2020-08-14 13:35
卷积神经网络
《机器学习》学习笔记(5) - 神经网络
机器学习中,神经网络一般指的是“
神经网络学习
”,是机器学习与神经网络两个学科的交叉部分。
猪无戒_
·
2020-08-14 07:14
西瓜书
神经网络学习
小记录28——深度卷积神经网络各种改进结构块汇总
神经网络学习
小记录28——深度卷积神经网络各种改进结构块汇总学习前言1、残差网络2、不同大小卷积核并行卷积3、利用(1,x),(x,1)卷积代替(x,x)卷积4、采用瓶颈(Bottleneck)结构5、
Bubbliiiing
·
2020-08-13 22:11
神经网络学习小记录
强化学习
神经网络学习
-MNIST手写字符集识别
强化学习
神经网络学习
-MNIST手写字符集识别现在仅仅停留在看懂代码以及卷积神经网络的学习过程,这是新手菜鸟学习笔记,主要参考的是,matlab代码过程(一次写不完慢慢更新)MNIST手写字符集的提取识别的手写字符集为
Kikkos
·
2020-08-13 22:51
神经网络
pytorch
神经网络学习
笔记(3)
分类importtorchfromtorch.autogradimportVariableimporttorch.nn.functionalasFimportmatplotlib.pyplotasplt#生成数据n_data=torch.ones(100,2)#类别1的数据x0=torch.normal(2*n_data,1)#类别1的标签y0=torch.zeros(100)#类别2的数据x1=
dandan_xt
·
2020-08-13 22:13
神经网络学习
之----神经网络发展史
启蒙时期(1890-1969)1890年,心理学家WilliamJames出版了第一部详细论述人脑结构及功能的专著《心理学原理》,他认为一个神经细胞受到刺激激活后可以把刺激传播到另一个神经细胞,并且神经细胞激活是细胞所有输入叠加的结果。1943年,神经病学家和神经元解剖学家McCulloch和数学家Pitts在生物物理学期刊发表文章提出神经元的数学描述和结构。并且证明了只要有足够的简单神经元,在这
???111
·
2020-08-13 20:09
批量归一化(Batch Normalization)
我们知道在神经网络训练开始前,这是因为
神经网络学习
过程本质就是为了学习数据分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能
waq127520
·
2020-08-13 20:16
计算机视觉
cs231
神经网络学习
笔记
简介相比于线性分类中的S=W×X,其中W是一个矩阵,X是一个列向量,包含图像的全部像素信息。它们相乘的直接结果就是得到一个得分向量。像数据库CIFAR-10的案例中W是一个10×3072的矩阵,X是一个3072×1的向量,他们的结果就是得到10×1的得分向量》神经元则不同,它的计算法则是其中的W1可以是100×3072的矩阵与X相乘的到一个100×1的过度向量,max()函数是非线性的,这种非线性
轻描没淡写
·
2020-08-13 18:00
损失函数与正则化
目录:损失函数正则化正则化在损失函数中的应用Softmax与SVM交叉熵极大似然估计(MLE)总结一、损失函数本文将通过一个例子来理解什么是损失函数:本文中参数的具体含义等内容请参考
神经网络学习
与总结一文
Horn_WZH
·
2020-08-13 17:01
机器学习
神经网络学习
笔记4
学习率:在
神经网络学习
中,决定在一次学习中应该学习多少,以及在多大程度上更新参数使用python实现梯度下降法defgradient_descent(f,init_x,l
木又寸袋虫下
·
2020-08-13 12:00
自己对bp
神经网络学习
的了解
神经网络是一个有多个输入的函数,每一层的节点的输出为上一层节点输出的函数:Yi=f(Bi+E(Wij*Xj))。E(Wij*Xj)表示对j=1->n(n为上层节点数),计算Wij*Xj的和。函数f一般为f(x)=1/(1+e^(-x))。x^y表示x的y次方上一层的输出又可以表示为上上层输出的函数,直到输入层,展开来后输出层就是输入层的函数:OUTi=Fi(IN1,IN2,...),OUT=[OU
时空流浪
·
2020-08-11 12:06
神经网络学习
神经网络
bp
神经网络学习
小记录47——ShuffleNetV2模型的复现详解
神经网络学习
小记录47——ShuffleNetV2模型的复现详解学习前言什么是ShuffleNetV2ShuffleNetV21、所用模块2、网络整体结构网络实现代码学习前言据说ShuffleNetV2
Bubbliiiing
·
2020-08-11 05:25
神经网络学习小记录
多层感知机与
神经网络学习
总结
这篇博客主要总结多层感知机(MLP)的一些知识要点,MLP也就是DNN(深度神经网络),是深度学习的基础。(原创https://blog.csdn.net/baidu_33718858/article/details/84972537)主要的参考文献来自于:https://machinelearningmastery.com/neural-networks-crash-course/Jason的博
Orchid_YL
·
2020-08-11 04:12
神经网络
MLP
BP算法过程详解
BP算法是一种最有效的多层
神经网络学习
方法,其主要特点是信号前向传递,而误差后向传播,通过不断调节网络权重值,使得网络的最终输出与期望输出尽可能接近,以达到训练的目的。
ZY-H
·
2020-08-11 04:26
算法
BP算法推导
BP算法推导BP算法(BackPropagation)反向传播算法又叫误差逆传播算法(errorBackPropagation),它是迄今最成功的
神经网络学习
算法。
sun_brother
·
2020-08-11 04:10
方向盘应该转多少度?
所以,基本上是没有人通过求解这个线性系统来学车的,而是通过RL或者Q-Learning来进行
神经网络学习
的,这就是为什么你们要上驾校学习很久的原因。。。但
UNOboros
·
2020-08-10 14:43
机器人研究
数学研究
ML经典算法:神经网络(1)
目录1.神经元2.感知机与多层网络2.1感知机2.2多层网络3.误差逆传播算法机器学习中谈论神经网络时指的是"
神经网络学习
"或者说,是机器学习与神经网络这两个学科领域的交叉部分。
python_mat
·
2020-08-10 11:23
机器学习
神经网络
机器学习
算法
一步一步教你反向传播的例子
反向传播的可视化显示
神经网络学习
时相互作用的可视化,检查我的NeuralNetwo
健雄
·
2020-08-10 10:20
数据挖掘
反向传播
神经网络
前向反馈
python
神经网络学习
(四)反向(BP)传播算法(2)-Matlab实现
系列博客是博主学习神经网络中相关的笔记和一些个人理解,仅为作者记录笔记之用,不免有很多细节不对之处。回顾上一小节我们讨论了BP算法的推导,如果我们采用均方误差作为代价函数,那么4个基础方程如下:δL=(aL−y).∗σ′(zL)(BP1)(BP1)δL=(aL−y).∗σ′(zL)δl=((wl+1)Tδl+1).∗σ′(zl)(BP2)(BP2)δl=((wl+1)Tδl+1).∗σ′(zl)∂
oio328Loio
·
2020-08-10 09:22
神经网络
神经网络学习
(三)反向(BP)传播算法(1)
系列博客是博主学习神经网络中相关的笔记和一些个人理解,仅为作者记录笔记之用,不免有很多细节不对之处。几个定义我们首先给出网络中权重的清晰定义。我们使用wljkwjkl表示从(l−1)th(l−1)th层的第kthkth个神经元到lthlth层第jthjth个神经元的权重。例如,下图给出了网络中第二层的第四个神经元到第三层的第⼆个神经元的链接上的权重:之所以如此定义权重矩阵的下标是,利于矩阵的相乘。
oio328Loio
·
2020-08-10 09:52
神经网络
神经网络学习
的步骤(不是教你怎么学神经网络)
前提(获得权重和偏置——学习的目的)神经网络存在合适的权重和偏置,调整权重和偏置以便拟合训练数据的过程称为“学习”。神经网络的学习分成下面4个步骤。步骤1(mini-batch)(计算全部样本的损失函数值时间过长,且非必要,计算其中一部分数据的损失函数即可)从训练数据中随机选出一部分数据,这部分数据称为mini-batch。我们的目标是减小mini-batch的损失函数的值。步骤2(计算梯度)(梯
eowyn0406
·
2020-08-09 20:59
神经网络学习笔记
斯坦福大学深度学习公开课cs231n学习笔记(8)
神经网络学习
过程中的检查事项和参数调优
在这节课中,主要讲述了神经网络的检查事项(例如梯度检查,合理性检查和学习过程中对损失函数、权重、每层的激活函数与梯度分布等的检查等)和神经网络的参数调优实现方法(例如:随机梯度下降方法,动量方法,学习率退火方法等等)-----------第一部分:检查事项----------梯度检查:课中提出当使用有限差值来近似计算数值梯度的时候,下面的公式方法是不可行的:(1)而在实际中常使用下面的中心化梯度计
Naruto_Q
·
2020-08-09 17:49
深度学习(deep
learning)
[翻译] 神经网络与深度学习 第六章 深度学习 - Chapter 6 Deep learning
目录:首页译序关于本书关于习题和难题第一章利用神经网络识别手写数字第二章反向传播算法是如何工作的第三章提升
神经网络学习
的效果第四章可视化地证明神经网络可以计算任何函数第五章为什么深层神经网络难以训练?
Xovee
·
2020-08-09 03:48
人工智能
翻译
神经网络与深度学习
Pytorch实现简单的循环
神经网络学习
笔记
Pytorch实现简单的RNN此内容还未涉及LSTM以及深度RNN定义模型我们使用Pytorch中的nn.RNN来构造循环神经网络。在本节中,我们主要关注nn.RNN的以下几个构造函数参数:input_size-Thenumberofexpectedfeaturesintheinputx(应该是类似于词典大小)hidden_size–Thenumberoffeaturesinthehiddenst
霍格沃兹临时副主任
·
2020-08-09 02:18
斯坦福CS231n 课程学习笔记--线性分类器(Assignment1代码实现)
最近学习了斯坦福的CS231n(winter2016)系列课程,收获很大,作为深度学习以及卷积
神经网络学习
的入门很是完美。
liuchongee
·
2020-08-08 17:07
深度学习
机器学习
卷积神经网络-CNN
BP
神经网络学习
--MATLAB源码详细注释
学习BP神经网络,推荐先了解其中的数学原理:传送门————》我是从0基础开始看MATLAB代码的,源码从《MATLAB神经网络43个案例分析》中获取,相对来说讲解得很清楚了,但是对于一穷二白的我来说还是一个很大的挑战,我已经尽己所能很认真地加了很多注释并且已经运行成功了,现在把源码贴出来:如果我没有加注释的说明是很简单的了,只要百度一下就可以知道了~仅供参考,如果想copy代码的朋友到文末吧,我把
从心开始 >
·
2020-08-08 15:35
神经网络
使用卷积
神经网络学习
描述子(learning-based descriptors)
特征点的检测与匹配是CV领域一个热门的研究方向,首先是对图像进行特征检测,然后为每个特征点分配一个描述子。后期匹配过程即计算描述子之间的距离,距离越近认为匹配上的概率越大。所以得到精确的描述子是十分重要的。本文主要回顾了经典的handcrafted描述子,包括SIFT、BRIEF等,以及近年来的前沿研究—通过CNN学习到的描述子,对一些经典论文作了综述。1.手工设计的(handcrafted)描述
honghu_HITSZ
·
2020-08-05 15:50
笔记
计算机视觉 学习笔记(入门篇 序)
虽然在之前的
神经网络学习
过程中对计算机视觉的一些分支领域有所涉及(例如:人脸识别、签名识别,图像处理等),但并没有系统地了解过这一领域。
weixin_30794851
·
2020-08-05 14:51
人工智能
神经网络基础学习笔记(四)误差反向传播法
乘法节点的反向传播5.3.3苹果的例子5.4简单层的实现5.4.1乘法层的实现5.4.2加法层的实现5.5激活函数层的实现5.5.2Sigmoid层5.6.2批版本的Affine层5.7误差反向传播法的实现5.7.1
神经网络学习
的
忆_恒心
·
2020-08-04 17:17
Python
机器学习
神经网络
机器学习笔记:支持向量机学习(4)
第四章:支持向量机学习+
神经网络学习
(附文件)MOOC笔记1.最大边缘超平面·线性分类器基本想法是:在样本空间中寻找一个超平面将不同的样本数据分开,图中B1就是划分矩形样本点和圆形样本点的一个超平面·但是这样的超平面可能不止一个
weixin_43662135
·
2020-08-04 07:59
窥探黑盒-卷积神经网络的可视化
因为卷积
神经网络学习
到的表示learnedrepresentation非常适合可视化。这很大程度上得益
沈子恒
·
2020-08-04 00:22
神经网络
深度学习
matlab
图像处理
目标跟踪
OpenCV
计算机视觉的数学基础
深度学习
图像分割
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他