E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231N
CS231n
卷积神经网络与计算机视觉 3 最优化与随机梯度下降
上节中我们已经接触到了图像识别中的两部分scorefunction和lossfunction,这节将会引入对lossfunction的优化求解,也就是optimization。为了求解lossfunction我们首先将lossfunction可视化Visualizingthelossfunction一般来说在图像处理的时候我们结果的数据都是多维的,前面CIFAR-10的图片有3072维,一共10类
bea_tree
·
2020-08-21 18:21
CS231n
卷积神经网络CS231n笔记
卷积神经网络 + 机器视觉: L6_初始化_激励函数_BN_梯度下降 (斯坦福
CS231n
)
v=wEoyxE0GP2M&index=6&list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv完整的视频课堂投影片连接:http://
cs231n
.stanford.edu/
CHUNLIN GO
·
2020-08-21 18:24
Stanford
卷积神经网络 + 机器视觉:L7_进阶梯度下降_正则化_迁移学习 (斯坦福
CS231n
)
v=_JB0AO7QxSA&list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv&index=7完整的视频课堂投影片连接:http://
cs231n
.stanford.edu/
CHUNLIN GO
·
2020-08-21 18:24
Stanford
李飞飞团队最经典计算机视觉课更新!斯坦福出品,深度学习入门必备
萧萧发自凹非寺量子位报道公众号QbitAI斯坦福最经典的计算机视觉课程
CS231n
——全称是面向视觉识别的卷积神经网络。今天更新啦。
itwriter
·
2020-08-21 16:00
生成对抗网络(GAN)入门(
CS231n
)
声明本文内容主要摘自斯坦福
CS231n
课程,并做简要翻译和解释。如有错误,欢迎指出。
sgx_hit
·
2020-08-21 08:42
深度学习
2017
CS231n
笔记_S16对抗样本和对抗训练
对抗样本:对抗样本是用心构造出来的会被分错类的样本。使用对抗样本来攻击深度卷积网络,使得它出错。对抗样本可以欺骗很多种线性模型,包括逻辑回归和支持向量机。对抗样本也可以欺骗非线性模型。对抗样本的产生是因为模型线性程度过高。对抗样本的寻找:找到一个和梯度方向能形成很大的内积的方向,然后只要大概沿着这个方向移动一点,就能找到对抗样本,欺骗网络模型。对抗区域:对抗样本所在的区域称为对抗区域/对抗空间。M
KKALL1314
·
2020-08-20 22:36
人工智能
22课时、19大主题,CS 231n进阶版课程视频上线!
来源|机器之心讲
CS231n
的JustinJohnson在密歇根大学推出了一套计算机视觉的进阶课程。计算机视觉在日常生活中已经无处不在。
计算机视觉联盟
·
2020-08-20 17:11
深度学习
22课时、19大主题,CS 231n进阶版课程视频上线!
来源|机器之心讲
CS231n
的JustinJohnson在密歇根大学推出了一套计算机视觉的进阶课程。计算机视觉在日常生活中已经无处不在。
计算机视觉联盟
·
2020-08-20 17:11
深度学习
Deeplearning.ai Course-1 Week-4 Programming Assignment2
相对于斯坦福的
CS231n
课程,Andrew的视频课程更加简单易懂,适合深度学习的入门者系统学习!
_刘某人_
·
2020-08-20 11:09
斯坦福
cs231n
学习笔记(1)------Computer Vision的历史与回顾
研究生考试结束,终于能有一大块系统的时间来学习神经网络,一直对这块的知识很感兴趣,嘿嘿,兴趣是个好东西。准备着手写一系列关于学习FeiFeiLi的计算机视觉&深度学习课程的总结及心得,分享给大家,我们一起进步!介绍一下计算机视觉的历史和回顾,ComputerVision,计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并
胡大炮的妖孽人生
·
2020-08-20 06:30
Computer
Vision
Convolutional Neural Networks for Visual Recognition
http://
cs231n
.github.io/里面有很多相当好的文章http://
cs231n
.github.io/convolutional-networks/TableofContents:ArchitectureOverviewConvNetLayersConvolutionalLayerPoolingLayerNormalizationLayerFully-ConnectedLayerC
dielucui7698
·
2020-08-19 09:02
Batch Normalization梯度反向传播推导
最近在看
CS231N
的课程,同时也顺带做配套的作业,在Assignment2中关于BatchNormalization的具体数学过程则困惑了很久,通过参看一些博客自己推导了一遍,供大家参考。
ycsun_
·
2020-08-19 06:50
深度学习
CS231n
作业笔记2.4:Batchnorm的实现与使用
CS231n
简介详见
CS231n
课程笔记1:Introduction。本文都是作者自己的思考,正确性未经过验证,欢迎指教。
silent56_th
·
2020-08-19 03:57
cs231n
神经网络
BatchNorm
CS231n课程笔记
cs231n
-notes-Lecture-4/5/6: 反向传播/激活函数/数据预处理/权重初始化/batch norm
Lecture-4BackpropagationandNeuralNetworksComputationalGraphsNodegradient=[localgradient]x[upstreamgradient]addgate:gradientdistributormaxgate:gradientrouter(chooseonlyaway)mulgate:gradientswitcherLect
Ravi-Jay
·
2020-08-19 03:41
Machine
Learning
Deep
Learning
【记录】为什么在CNN的Batch Norm中对C个channel进行归一化
下面是
cs231n
-assignment2中的SpatialBatchNorm的介绍中对于此处空间归一化的解释,为什么对shape为NCHW的图像数据进行BatchNorm时需要计算NHW维度的mean
不跑步就等肥
·
2020-08-19 02:29
cs231n
Deep
Learning
CNN
[-]通俗理解卷积神经网络
cs231n
与5月dl班课程笔记前言人工神经网络1神经元2激活函数3神经网络卷积神经网络之层级结构CNN之卷积计算层1什么是卷积2图像上的卷积3GIF动态卷积图CNN之激励层与池化层
07H_JH
·
2020-08-18 18:02
机器学习
22课时、19大主题,CS 231n进阶版课程视频上线!
来源|机器之心讲
CS231n
的JustinJohnson在密歇根大学推出了一套计算机视觉的进阶课程。计算机视觉在日常生活中已经无处不在。
SophiaCV
·
2020-08-18 13:04
深度学习-目标检测
目标检测模型总结内容来自Objectdetection:anoverviewintheageofDeepLearning以及
cs231n
。
why_here
·
2020-08-18 03:00
ML
[
CS231n
@Stanford] Assignment2-Q2 (python) Batch Normalization 实现 和Q3(python)Dropout 实现
layers.pydefbatchnorm_forward(x,gamma,beta,bn_param):"""Forwardpassforbatchnormalization.Duringtrainingthesamplemeanand(uncorrected)samplevariancearecomputedfromminibatchstatisticsandusedtonormalizeth
youknowzjz
·
2020-08-17 18:36
python
Convolutional
Neural
Networks
[
CS231n
@Stanford] Assignment2-Q1 (python) Fully-connected Neural Network实现
layer.pyimportnumpyasnpdefaffine_forward(x,w,b):"""Computestheforwardpassforanaffine(fully-connected)layer.Theinputxhasshape(N,d_1,...,d_k)andcontainsaminibatchofNexamples,whereeachexamplex[i]hasshape
youknowzjz
·
2020-08-17 18:36
python
Convolutional
Neural
Networks
cs231n
作业:Assignment2-Batch Normalization
frombuiltinsimportrangeimportnumpyasnpdefaffine_forward(x,w,b):"""Computestheforwardpassforanaffine(fully-connected)layer.Theinputxhasshape(N,d_1,...,d_k)andcontainsaminibatchofNexamples,whereeachexam
mrcoderrev
·
2020-08-17 17:54
cs231n
cs231n
:assignment2——Q3: Dropout
视频里AndrejKarpathy上课的时候说,这次的作业meatybuteducational,确实很meaty,作业一般是由.ipynb文件和.py文件组成,这次因为每个.ipynb文件涉及到的.py文件较多,且互相之间有交叉,所以每篇博客只贴出一个.ipynb或者一个.py文件.(因为之前的作业由于是一个.ipynb文件对应一个.py文件,所以就整合到一篇博客里)还是那句话,有错误希望帮我指
Ruff_XY
·
2020-08-17 17:34
cs231n
计算机视觉
深度学习
python
cs231n
:assignment2——Q2: Batch Normalization
视频里AndrejKarpathy上课的时候说,这次的作业meatybuteducational,确实很meaty,作业一般是由.ipynb文件和.py文件组成,这次因为每个.ipynb文件涉及到的.py文件较多,且互相之间有交叉,所以每篇博客只贴出一个.ipynb或者一个.py文件.(因为之前的作业由于是一个.ipynb文件对应一个.py文件,所以就整合到一篇博客里)还是那句话,有错误希望帮我指
Ruff_XY
·
2020-08-17 17:34
cs231n
计算机视觉
深度学习
python
CIFAR-10 最近邻分类识别 python3 NearestNeighbor
用到的数据集:http://www.cs.toronto.edu/~kriz/cifar.html,自行下载python版本参考的是斯坦福大学
CS231N
教程的notes实现程序如下:需要指出的是数据集有些大
机器AI
·
2020-08-17 17:52
信息论
机器学习
2017
CS231n
Assignment1 Softmax
进入JupyerNotebook(LinuxUbuntu)micheal@Computer:~$cdassignment1micheal@Computer:~/assignment1$source.env/bin/activate(.env)micheal@Computer:~/assignment1$jupyternotebook#Softmaxexercise*Completeandhandi
Micheal Parley Lea
·
2020-08-17 17:40
CS231N
Assignment 2 Batch Normalization
CS231N
Assignment2BatchNormalization作业running_meanandrunning_var:每次更新runningmean相当于把之前的值衰减一些(*momentum
逐水草而居的造轮人
·
2020-08-17 16:54
公开课
斯坦福深度学习课程
cs231n
assignment2作业笔记六:Dropout相关
具体原理参考http://
cs231n
.github.io/neural-networks-2/#reg代码实现defdropout_forward(x,dropout_param):"""Performstheforwardpassfor
持久决心
·
2020-08-17 15:21
深度学习
cs231n
dropout
斯坦福深度学习课程
cs231n
assignment2作业笔记五:Batch Normalization(以及Layer Normalization)
介绍一般来说,让网络更易于训练有两种方式。一种是采用更加精巧的优化方法,如SGD+momentum,RMSProp,orAdam。另一种方法是改变网络的结构,使其更加易于训练。BatchNormalization就是这样一种方法。这一方法很直接。一般来说,机器学习方法在中心为0,标准差为1的输入数据上会表现得更好。在训练网络时,我们通过预处理,可以使得输入数据符合这一特征。然而,更深层的网络的输入
持久决心
·
2020-08-17 15:21
深度学习
cs231n
学习笔记-CNN-目标检测、定位、分割
转载来自:http://blog.csdn.net/myarrow/article/details/518780041.基本概念1)CNN:ConvolutionalNeuralNetworks2)FC:FullyConnected3)IoU:IntersectionoverUnion(IoU的值定义:RegionProposal与GroundTruth的窗口的交集比并集的比值,如果IoU低于0.
小白aaa
·
2020-08-17 15:32
行人检测
CS231n
笔记4-Data Preprocessing, Weights Initialization与Batch Normalization
DataPreprocessing,WeightsInitialization与BatchNormalizationDataPreprocessingWeightsInitialization与BatchNormalization数据预处理DataPreprocessing权重初始化WeightsInitialization让权重初始化为00方差1e-2标准差0方差1标准差XavierInitia
LiemZuvon
·
2020-08-17 15:51
机器学习
深度学习
CS231n
-2017 第11讲 目标检测与图像分割
一、语义分割将一张图片中的像素按类别区分。示例如下:图1.语义分割示例语义分割不区分同类事物的不同实例。语义分割的思路:使用滑动窗方法,每次取图像的一部分,使用神经网络判断此部分的中心像素属于哪一类。缺点:低效,未能复用重叠窗口之间的共有特征。使用全卷积(FullyConvolutional)网络:使用补零方法保证卷积的输出结果的尺寸与源图像尺寸一致,不使用任何降采用方法(如池化)。缺点:计算
suredied
·
2020-08-17 15:30
深度学习
计算机视觉
CS231n
人工智能
CS231n
CS231n
课程学习笔记(零)——Jupyter Notebook使用方法
CS231n
翻译笔记链接:https://zhuanlan.zhihu.com/p/21930884?
StarCoo
·
2020-08-17 15:39
深度学习
CS231n
课程笔记5.3:Batch Normalization
CS231n
简介详见
CS231n
课程笔记1:Introduction。注:斜体字用于注明作者自己的思考,正确性未经过验证,欢迎指教。
silent56_th
·
2020-08-17 15:59
cs231n
BatchNorm
神经网络
CS231n课程笔记
【
cs231n
】Batchnorm及其反向传播
文章目录BatchNormalization反向传播其他Normalization方法LayerNormalizationInstanceNormalizationGroupNormalization神经网络中有很多层的叠加,数据经过每一层后,其分布会发生变化,给下一层的训练带来麻烦,这一现象称为InternalCovariateShift。在bn之前一般通过减小学习率、初始化权重、以及细致训练策
JoeYF_
·
2020-08-17 14:39
cs231n
BatchNormalization的反向传播
AtthemomentthereisawonderfulcourserunningatStandfordUniversity,called
CS231n
-Convo
Liu Zhian
·
2020-08-17 14:15
神经网络
cs231n
-assignment2-Batch Normalization原理推导
做作业的时候敲BN调了很久,当时就写了博客忘记放上来了。。。assignment2完整代码链接:http://download.csdn.net/download/pjia_1008/9892859BatchNormalization可以理解为是一种数据预处理技术,使得每层网络的输入都服从(0,1)0均值,1方差分布,如果不进行BN,那么每次输入的数据分布不一致,网络训练精度自然也受影响。1,Ba
pjia_1008
·
2020-08-17 13:51
deep-learning
cs231n
assignment2 Batch Normalization
减少坏初始化的影响加快模型的收敛速度可以用大些的学习率能有效地防止过拟合Batchnormalization:forwardimporttimeimportnumpyasnpimportmatplotlib.pyplotaspltfrom
cs231n
_likyoo
·
2020-08-17 13:54
Machine
Learning
cs231n
assignment2 Dropout
Dropoutforwardpassnp.random.seed(231)x=np.random.randn(500,500)+10forpin[0.25,0.4,0.7]:out,_=dropout_forward(x,{'mode':'train','p':p})out_test,_=dropout_forward(x,{'mode':'test','p':p})print('Runningt
_likyoo
·
2020-08-17 13:54
Machine
Learning
CS231n
Spring 2019 Assignment 2—Dropout
DropoutDropoutforwardpassDropoutbackwardpassFully-connectednetswithDropout结果链接上次我们实现了BatchNormalization和LayerNormalization,感觉刚接触还是有一点小难度的,这次要实现的是一个正则化手段——Dropout,在2012年就有这方面的研究:Improvingneuralnetworks
laizi_laizi
·
2020-08-17 13:31
CS231n
Spring
2019
CS231n
Spring 2019 Assignment 2—Batch Normalization
BatchNormalization批量归一化BatchnormalizationforwardbackwardFullyConnectedNetswithBatchNormalizationLayernormaliztionforwardbackward结果链接上一次我们完成了任意多层的全连接神经网络的设计,并且学习了一些改进的优化方法,这是使网络更容易训练的一个思路,另一个思路就是BatchN
laizi_laizi
·
2020-08-17 13:30
CS231n
Spring
2019
斯坦福
cs231n
学习笔记(9)------神经网络训练细节(Batch Normalization)
神经网络训练细节系列笔记:神经网络训练细节(激活函数)神经网络训练细节(数据预处理、权重初始化)神经网络训练细节(训练过程,超参数优化)这一篇介绍很NB的BN(BatchNormalization):BatchNormalization是由Loffe和Szegedy在2015年提出的概念,主旨是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布。BatchNormalization概念的
胡大炮的妖孽人生
·
2020-08-17 12:41
Computer
Vision
基于SVM的cifar10分类
1.基于线性SVM的cifar10图像分类博客为:svm实现图片分类(python)博客对应的代码仓库:https://github.com/452896915/
cs231n
_course_homework1.1cifar10
_helen_520
·
2020-08-17 12:38
背景建模与前景提取
cs231n
-- Batch Normalization
学习BatchNormalization时,对BN的工作原理没有弄清楚,查阅了不少资料后才对它有了较为深入的理解,这里分享一下我自己对于BN的理解,希望能给同样有困惑的同学帮助,大家多多交流学习。附上原论文地址,建议有时间的话看一遍,会对过程的计算有更好的了解。传送门1.WhatisBatchNormalization(BN)BatchNormalization(批归一化),像FC-layer、a
东海鱼鱼
·
2020-08-17 12:26
cs231n
#
cs231n
#Assignment2:BatchNormalization.ipynb
根据自己的理解和参考资料实现了一下BatchNormalization.ipynbBatchNormalizationOnewaytomakedeepnetworkseasiertotrainistousemoresophisticatedoptimizationproceduressuchasSGD+momentum,RMSProp,orAdam.Anotherstrategyistochang
LiuSpark
·
2020-08-17 11:53
机器学习
图像处理
#
cs231n
#Assignment2:Dropout.ipynb
根据自己的理解和参考资料实现了一下Dropout.ipynbDropoutDropout[1]isatechniqueforregularizingneuralnetworksbyrandomlysettingsomefeaturestozeroduringtheforwardpass.Inthisexerciseyouwillimplementadropoutlayerandmodifyyour
LiuSpark
·
2020-08-17 11:53
机器学习
图像处理
CNN学习笔记
基于
CS231N
的学习整理:http://
cs231n
.github.io/convolutional-networks/卷积神经网络(CNN)与神经网络相比的优势:1.输入的是图片2.减少网络中的参数数量
RRWJ__
·
2020-08-17 11:39
CNN
cs231n
'18: Assignment 2 | Batch Normalization
Assignment2|BatchNormalization上文吐槽BN部分讲的太烂,2018年果然更新了这一部分,slides里加了好多内容,详见Lecture6的slides第54到61页,以及Lecture7的slides第11到18页,这里结合着原始论文和作业,把BN及其几个变种好好总结一下。BatchNormalizationTrain前面的作业中已经见识到了,weight初始化时方差的
FortiLZ
·
2020-08-17 11:24
cs231n
Stanford
cs231n'18
课程及作业详细解读
cs231n
'18: Assignment 2 | Dropout
Assignment2|DropoutDropout就是在train的过程中随机的丢掉一部分连接,但是在test的时候使用全部的连接。这样做的好处是在train的时候引入一些随机性,在test的时候相当于用这些随机性进行了ensemble。起到了reg的作用。InlineQuestion1:Whathappensifwedonotdividethevaluesbeingpassedthroughi
FortiLZ
·
2020-08-17 11:52
cs231n
Stanford
cs231n'18
课程及作业详细解读
斯坦福
cs231n
课程记录——assignment2 Dropout
目录Dropout原理Dropout实现Dropout运用作业问题参考文献一、Dropout原理作用:regularizeneuralnetworksbyrandomlysettingsomefeaturestozeroduringtheforwardpass.二、Dropout实现1.dropout_forwarddefdropout_forward(x,dropout_param):p,mod
临江轩
·
2020-08-17 11:41
实践
斯坦福
cs231n
课程记录——assignment2 BatchNormalization
目录BatchNormalization原理BatchNormalization实现BatchNormalization运用LayerNormalization参考文献一、BatchNormalization原理先敬大佬的一篇文章《详解深度学习中的Normalization,BN/LN/WN》运用:tomakeeachdimensionzero-meanunit-variance.算法:(最后需要
临江轩
·
2020-08-17 11:41
实践
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他