E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习相关(cs231n)
cs231n
'18: Assignment 2 | Batch Normalization
Assignment2|BatchNormalization上文吐槽BN部分讲的太烂,2018年果然更新了这一部分,slides里加了好多内容,详见Lecture6的slides第54到61页,以及Lecture7的slides第11到18页,这里结合着原始论文和作业,把BN及其几个变种好好总结一下。BatchNormalizationTrain前面的作业中已经见识到了,weight初始化时方差的
FortiLZ
·
2020-08-17 11:24
cs231n
Stanford
cs231n'18
课程及作业详细解读
cs231n
'18: Assignment 2 | Dropout
Assignment2|DropoutDropout就是在train的过程中随机的丢掉一部分连接,但是在test的时候使用全部的连接。这样做的好处是在train的时候引入一些随机性,在test的时候相当于用这些随机性进行了ensemble。起到了reg的作用。InlineQuestion1:Whathappensifwedonotdividethevaluesbeingpassedthroughi
FortiLZ
·
2020-08-17 11:52
cs231n
Stanford
cs231n'18
课程及作业详细解读
斯坦福
cs231n
课程记录——assignment2 Dropout
目录Dropout原理Dropout实现Dropout运用作业问题参考文献一、Dropout原理作用:regularizeneuralnetworksbyrandomlysettingsomefeaturestozeroduringtheforwardpass.二、Dropout实现1.dropout_forwarddefdropout_forward(x,dropout_param):p,mod
临江轩
·
2020-08-17 11:41
实践
斯坦福
cs231n
课程记录——assignment2 BatchNormalization
目录BatchNormalization原理BatchNormalization实现BatchNormalization运用LayerNormalization参考文献一、BatchNormalization原理先敬大佬的一篇文章《详解深度学习中的Normalization,BN/LN/WN》运用:tomakeeachdimensionzero-meanunit-variance.算法:(最后需要
临江轩
·
2020-08-17 11:41
实践
深度学习优化方法总结
深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)》在assignment2FullyConnectedNets作业中的optim.py里有以下几种优化机制(
cs231n
临江轩
·
2020-08-17 11:41
实践
2017
CS231n
李飞飞深度视觉识别笔记(十一)——图像识别和分割
第十一讲图像识别和分割上一章中讲到使用循环神经网络来解决问题,同时也看到这个网络结构在很多方面的应用;目前为止谈论最多的是分类问题,这一章中我们在基于计算机视觉的主题上将讨论目标检测、图像分割等内容。首先是语义分割,然后分类和定位,最后讨论目标检测及实例分割。课时1分割我们希望输入图像,并对图像中每个像素做分类,对于每个像素,确定它属于猫、草地、天空或者背景亦或者其他分类,首先确定分类,就像做图像
献世online
·
2020-08-17 10:25
计算机深度视觉识别
机器学习与深度学习
2017
CS231n
李飞飞深度视觉识别笔记(三)——损失函数和优化
第三章损失函数和优化课时1损失函数在上一章的课程中,我们讨论了识别问题,并尝试了数据驱动的方式,讲到了图像分类的难点在哪里;同时讨论了K近邻分类器以便作为介绍数据驱动理念的一个简单例子,最后还讨论了交叉验证以及如何把数据划分为训练集、验证集和测试集来设置超参数,线性分类作为我们引入神经网络的第一项基石。这一节中我们将解决:如何给数据集选择一个正确的权重W以及怎么用训练数据来得到W的最优值。对于下面
献世online
·
2020-08-17 10:25
计算机深度视觉识别
机器学习与深度学习
反向传播算法的理解(图片来自
cs231n
李飞飞课件)
1链式求导法则(L是损失函数)2简单例子(没有矩阵向量参与运算)把复杂的函数表达式拆分成一个个基础运算,每个基础运算记做一个节点,针对单个节点进行求导。需要服从链式求导法则,由后端开始反向传递,节点左边(前端)的梯度等于该节点求导的结果乘上右边(后端)的求导梯度(箭头上端是正向输入,下端是反向梯度,这里最末端的梯度1.0是提前假设的)。2.1引入Sigmoid函数可以简化节点图2.2常见运算节点梯
G果
·
2020-08-17 10:23
机器学习
基于Pytorch实现风格迁移(
CS231n
assignment3)
本篇博客基于
CS231n
课程2017年Pytorch版本的作业内容,对其进行实现。风格迁移主要目的是将一幅图的艺术风格转移到另一
小石学CS
·
2020-08-17 09:49
神经网络
概率图模型
小石的机器学习专栏
Paddle深度学习课程学习心得
Paddle深度学习课程学习心得when学习目的学习过程实际操作总结when去年年初就听过百度推出了一款关于深度学习的框架-飞桨,当然也是通过百度搜索
深度学习相关
内容,百度引擎经常把飞桨排在第一个…我经常都是忽视百度推荐的自己产品的这些广告链接
qq_34279913
·
2020-08-17 01:59
笔记:
CS231n
(Spring 2019)Assignment 1 - kNN
Setup&Downloaddata首先是在相关下载作业的压缩包和数据集Preprocessing加载CIFAR10数据集Trainingdatashape:(50000,32,32,3)Traininglabelsshape:(50000,)Testdatashape:(10000,32,32,3)Testlabelsshape:(10000,)我们得到训练集的大小为50000张图片,每张的维度
嫉妒的虚荣
·
2020-08-16 16:13
CS231n
CS231n
(Spring 2019)Assignment 1 - SVM
Preprocessing#LoadtherawCIFAR-10data.cifar10_dir='
cs231n
/datasets/cifar-10-batches-py'#Cleaningupvariablestopreventloadingdatamultipletimes
嫉妒的虚荣
·
2020-08-16 16:13
CS231n
CS231n
(Spring 2019)Assignment 1 - Softmax
Preprocessingdefget_CIFAR10_data(num_training=49000,num_validation=1000,num_test=1000,num_dev=500):"""LoadtheCIFAR-10datasetfromdiskandperformpreprocessingtoprepareitforthelinearclassifier.Thesearethe
嫉妒的虚荣
·
2020-08-16 16:13
CS231n
CS231N
2019 关于cv项目设计的建议
转载自stanford
cs231n
2019,提供了如下关于cv项目设计的建议,原文档见http://
cs231n
.stanford.edu/slides/2019/
cs231n
_2019_section02
L_by_D
·
2020-08-16 14:53
笔记
斯坦福
CS231n
课程笔记纯干货1
CS231n
的全称是
CS231n
:ConvolutionalNeuralNetworksforVisualRecognition,即面向视觉识别的卷积神经网络。
marsjhao
·
2020-08-16 13:08
机器学习/深度学习
CS231n
Spring 2019 Assignment 3—Generative Adversarial Networks (GANs)对抗生成网络
VanillaGANRandomNoiseDiscriminatorGeneratorGANLossOptimizingourlossLS-GANDC-GANDC-DiscriminatorDC-Generator结果链接终于来到了
cs231n
laizi_laizi
·
2020-08-16 13:22
CS231n
Spring
2019
CS231n
Spring 2019 Assignment 2—Fully-Connected Neural Nets(全连接神经网络)
Fully-ConnectedNeuralNets全连接神经网络Fully-ConnectedNeuralNets(全连接神经网络)Affinelayer:foward/backwardReLUactivation:forward/backward"Sandwich"layersTwo-layernetworkMultilayernetworkUpdaterulesSGD+MomentumRMSP
laizi_laizi
·
2020-08-16 13:22
CS231n
Spring
2019
CS231n
Spring 2019 Assignment 1—KNN
相关链接在暑假里面粗略地学习了一下
CS231n
的课程,个人感觉非常有收获,对于入门深度学习中的计算机视觉特别有效。现在想通过写博客这种方式,来再一遍地找漏巩固。
laizi_laizi
·
2020-08-16 13:21
CS231n
Spring
2019
CS231n
Spring 2019作业
CS231n
是斯坦福大学开设的关于计算机视觉与深度学习方面的一门经典课程,个人感觉非常棒,无论从学习的系统性和完整性,作业的引导性方面都是国内课程没有的。
laizi_laizi
·
2020-08-16 13:21
CS231n
Spring
2019
2019/6/8
CS231n
课程笔记(批量归一化、监控训练过程、优化超参数)
目录批量归一化监控训练过程优化超参数批量归一化在训练过程中,每一层的输入分布总是变来变去,我们希望它能稳定成高斯分布,所以在全连接层或是卷积层之后进行批量归一化的操作,使得每一层的激活分布固定下来。首先计算每一维度的均值和方差,之后进行归一化。在卷积层后面进行批量归一化的时候,不仅对训练数据进行批量归一化,对featuremap也将进行这一操作。对于tanh这种激活函数,我们需要控制饱和的程度,不
荣荣闲不住
·
2020-08-16 12:34
2019/6/3
CS231n
课程笔记(卷积神经网络)
卷积1、卷积神经网络vs深度神经网络训练卷积层,因为卷积层更能保持输入的空间结构。对于这一点,我的理解是:卷积神经网络处理图片的时候是将整幅图都作为输入,不会破坏图的这种结构,而用普通的深层神经网络,就是在利用每个像素的信息单独的进行处理,破坏了图像像素之间的信息。深度神经网络卷积神经网络2、对于常见大小的一些卷积核,如何选择padding才能保证卷积的结果保持原图像的大小不变呢?3*3的卷积核,
荣荣闲不住
·
2020-08-16 12:34
2019/6/8
CS231n
课程笔记(优化与迁移学习)
目录优化1、梯度下降(1)、动量,就给梯度下降加了个速度(助力)(2)、对梯度进行处理:AdaGrad和RMSProp(3)、结合了速度和平方梯度的方法Adam2、学习率3、另一种优化的思路:海森矩阵(牛顿定理)总结:4、modelensembly正则化1、使用正则项2、Dropout3、数据增强4、其他的一些方法:迁移学习优化1、梯度下降局部最小值和鞍点:局部最小值是在某一区域内出现的梯度最小值
荣荣闲不住
·
2020-08-16 12:34
2019/6/2
CS231n
课程笔记(损失函数和优化)
损失函数线性分类器,weight表示对应每一类的权重。什么是损失函数,把W作为一个输入,输入到一个函数中,将得分值作为衡量W好坏的标准。多类别SVM分类器看笔记本23页有相关笔记。1、如果我们稍微改变一点车这个分类的score值,我们的损失函数会有什么变化吗?答:不会变化,svm分类器在乎的是正确的比不正确的大1,汽车分数比其他的都要大,1的界限不会被破坏。2、loss的最大最小值是多少?答:最小
荣荣闲不住
·
2020-08-16 12:34
2019/6/1
CS231n
课程笔记(线性分类器)
作业:k-最近邻法线性分类器,svm和softmax两层卷积神经网络numpy,向量化张量计算。第二章semecticgapintraclassCIFAR10数据集。对单个像素进行比较,L1distance,L1对坐标有依赖,各个向量中的每一个元素都有意义的时候,L1的效果会更好。使用numpy的向量运算。使得程序很简洁。N个example,训练和预测的时候的时间复杂度分别为1和n,训练时只进行存
荣荣闲不住
·
2020-08-16 12:32
cs231n
assignment1 two layer net作业
from__future__importprint_functionimportnumpyasnpimportmatplotlib.pyplotaspltclassTwoLayerNet(object):"""Atwo-layerfully-connectedneuralnetwork.ThenethasaninputdimensionofN,ahiddenlayerdimensionofH,an
船桥
·
2020-08-16 11:12
cs231n
CS231n
2019 Spring
这份笔记和我结合知乎智能单元,以及B站同济子豪兄的2019年
cs231n
讲解视频整理完成的。大部分内容引自知乎智能单元,在此感谢智能单元的翻译者和B站同济子豪兄。
Enigmalgia
·
2020-08-16 11:05
人工智能
cs231n
-assignment1-two layer nn-心得
c=exp_correct/exp_trans[i]loss_data[i]=float©两个数组做除法,结果也是数组(一维数组),把它直接赋值给另一个数组是无效的。np.zeros_like创建的array是int型的加上dtype=float,转换类型normalization以及向量化#Normalizethedata:subtractthemeanimagemean_image=np.me
yuki___
·
2020-08-16 10:37
cs231n
cs231n
:assignment2——python文件:fc_net.py
视频里AndrejKarpathy上课的时候说,这次的作业meatybuteducational,确实很meaty,作业一般是由.ipynb文件和.py文件组成,这次因为每个.ipynb文件涉及到的.py文件较多,且互相之间有交叉,所以每篇博客只贴出一个.ipynb或者一个.py文件.(因为之前的作业由于是一个.ipynb文件对应一个.py文件,所以就整合到一篇博客里)还是那句话,有错误希望帮我指
Ruff_XY
·
2020-08-16 10:43
cs231n
计算机视觉
深度学习
cs231n
作业(三)softmax分类
一、作业说明
CS231n
的第三次作业,要求写一个基于softmax的多分类程序,实现cifar10的多分类功能,程序中应当体现损失函数计算、梯度计算、交叉验证选择参数、权重可视化等功能。
wjp_ctt
·
2020-08-16 09:28
深度学习
深度学习
cs231n
python
cifar10
计算机视觉
cs231n
神经网络
cs231n
神经网络单个神经元前向传播过程示例classNeuron(object):#...defforward(self,inputs):"""assumeinputsandweightsare1-
wjp_ctt
·
2020-08-16 09:28
深度学习
cs231n
斯坦福
cs231n
课程记录——assignment2 FullyConnectedNets
目录作业目的网络层实现优化方法实现作业问题记录参考文献一、作业目的之前做了一个Two-layerneuralnetwork的作业,但是其损失函数和反向传播都是在一个函数中实现的,并没有实现模块化,因此不适合复杂网络结构的开发。因此本作业目的在于将各功能模块化,从而较好地实现复杂网络的搭建。二、网络层实现1.affine_layer(layers.py)1.1affine_forwardInputs
临江轩
·
2020-08-16 09:18
实践
CS231n
assignment2 Q5 TensorFlow on CIFAR-10
PartI:Preparation略PartII:BareboneTensorFlow首先实现一个flatten函数:defflatten(x):"""Input:-TensorFlowTensorofshape(N,D1,...,DM)Output:-TensorFlowTensorofshape(N,D1*...*DM)"""N=tf.shape(x)[0]returntf.reshape(x
weixin_30691871
·
2020-08-16 09:29
CS231n
作业笔记2.1:两层全连接神经网络的分层实现
CS231n
简介详见
CS231n
课程笔记1:Introduction。本文都是作者自己的思考,正确性未经过验证,欢迎指教。作业笔记1.神经网络的分层实现实现全连接层+ReLU层的前向传播与后向传播。
silent56_th
·
2020-08-16 08:47
神经网络
cs231n
CS231n课程笔记
10K+,深度学习论文、代码最全汇总!一键收藏
点击上方“AI有道”,选择“置顶”公众号重磅干货,第一时间送达我们大部分人是如何查询和搜集
深度学习相关
论文的?绝大多数情况是根据关键字在谷歌、百度搜索。
红色石头Will
·
2020-08-16 08:11
斯坦福
CS231n
项目实战(四):浅层神经网络
我的网站:红色石头的机器学习之路我的CSDN:红色石头的专栏我的知乎:红色石头我的微博:RedstoneWill的微博我的GitHub:RedstoneWill的GitHub我的微信公众号:红色石头的机器学习之路(ID:redstonewill)神经网络(NeuralNetwork)是一种非线性分类器,有别于之前介绍的线性分类器SVM和Softmax,更复杂一些。最简单的多分类浅层神经网络结构示例
红色石头Will
·
2020-08-16 08:39
机器学习
深度学习
斯坦福CS231n
斯坦福cs231n课程剖析
【
cs231n
】Assignment2总结
Assignment2的两个要点:全连接神经网络的系统构建、深度学习优化方法、正则化、归一化等等内容作业代码全连接神经网络的构建
cs231n
/classifiers/fc_net.py相关层的前向与反向传播
JoeYF_
·
2020-08-16 08:06
cs231n
CS231n
Assignment1总结
下面是对assignment1的代码一些关键点或者有意思实现的总结参考答案:https://github.com/sharedeeply/
cs231n
-assignment-solution/blob/
夜夜0810
·
2020-08-16 07:05
CS231N
课程学习小结(assignment1)
1.imageclassification主要是用数据驱动的算法,将data分为train_data,val_data,test_data.在train上用不同的超参数调试不同的结果,在验证集上进行评估,再用在验证集上表现最好的超参数应用到test上。imageclassifier,data_drivenapproach,实例1:knn最近邻算法代码分为:载入数据(cifar-10),处理数据,训
PolyPubki
·
2020-08-16 07:29
论文解读
cs231n
assignment2 FullyConnectedNets
Affinelayer:fowardimporttimeimportnumpyasnpimportmatplotlib.pyplotaspltfrom
cs231n
_2.classifiers.fc_netimport
_likyoo
·
2020-08-16 06:39
Machine
Learning
CS231n
-- assigment2 FullyConnectedNet \ BN \ Dropout
都大三下了,课业还是很重,被光纤光学虐了两天,今天终于可以继续开始撸
CS231n
啦\^o^/.这次是Fully-connectedNerualNetwork+BatchNormalization+Dropout.Part1Fully-connectedNerualNetwork
东海鱼鱼
·
2020-08-16 06:35
cs231n
神经网络入门-用python实现一个两层神经网络并在CIFAR10数据集上调参
下面是我从
cs231n
上整理的神经网络的入门实现,麻雀虽小,五脏俱全,基本上神经网络涉及到的知识点都有在代码中体现。理论看上千万遍,不如看一遍源码跑一跑。
ancihe9168
·
2020-08-16 05:54
【学习笔记】
cs231n
-assignment2-FullyConnectedNets
以下是我完成斯坦福
cs231n
-assignment2-FullyConnectedNets这份作业的做题过程、思路、踩到的哪些坑、还有一些得到的启发和心得。
KammyIsTheBest
·
2020-08-16 05:04
CS231n
读取cifar-10数据集
github.com/gdutthu/Statistical-learning-method知乎专栏链接:https://zhuanlan.zhihu.com/c_1257792845504708608因为在
cs231n
zhanzi1538
·
2020-08-16 05:15
cs231n
CS231n
作业(四)全连接神经网络分类
一、作业说明本文对应
cs231n
的用两层神经网络进行cifar10数据集的分类。
wjp_ctt
·
2020-08-16 05:28
cs231n
深度学习
cs231n
homework 两层全连接神经网络 分类CIFAR-10
cs231n
homework两层全连接神经网络分类CIFAR-10codeimportnumpyasnpimportpickleimportmatplotlib.pyplotaspltdefloadfile
sakurasakura1996
·
2020-08-16 05:38
计算机视觉学习记录
CS231n
-assignment2 FullyConnectedNet 多层神经网络的实现 任意数量隐藏层的实现
frombuiltinsimportrangefrombuiltinsimportobjectimportnumpyasnpfrom
cs231n
.layersimport*from
cs231n
.layer_utilsimport
Jeremy Liang
·
2020-08-16 05:22
CS231n
【Python 3.6】任意深度BP神经网络综合练习(非卷积网络),根据斯坦福
cs231n
课程编写
CIFAR10数据库CIFAR10是一套含有60000张大小为32×32彩色RGB图像的10分类图像数据库,其中的50000张图像为训练数据,10000张图像为测试数据,另外验证集的数据从训练集中取出。隐含层使用的激活函数:ReLU函数输出层使用的损失函数:Softmax函数训练集数据特征数量(即维度):32×32×3,3表示有RGB三个色彩通道。训练集数据量:1000个验证集数据量:1000个由
WilliamS1995
·
2020-08-16 04:40
基本知识
深度学习经典卷积神经网络分析
目录1
深度学习相关
神经网络分析1.1AlexNet1.2VGG1.3GoogLeNet1.4ResNet前言:本人只是根据论文和大牛的博客,简单的做一个笔记。
丶LJW
·
2020-08-16 03:24
深度学习
神经网络
ASR学习经验分享
相关基础要学习语音识别,DSP、线性代数以及一些基本编程能力肯定是要有的学习步骤首先是
深度学习相关
知识:大力推荐《DeepLearning》,这本书相信大家都很认可,时间有限的话重点看前两部分就行。
无涯阁主
·
2020-08-15 21:34
机器学习
cs231n
的第一次作业2层神经网络
一个小测试,测试写的函数对不对首先是初始化input_size=4hidden_size=10num_classes=3num_inputs=5definit_toy_model():np.random.seed(0)returnTwoLayerNet(input_size,hidden_size,num_classes,std=1e-1)definit_toy_data():np.random.
icameling
·
2020-08-15 14:35
cs231n
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他