E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231N
[
CS231n
Assignment 2 #00] 第二次作业介绍
1.作业介绍作业主页:Assignment#2作业任务:本次作业,我们需要练习编写反向传播过程,以及训练神经网络和卷积神经网络作业目的:理解神经网络(NeuralNetworks),知道它们是如何组织成分层结构的理解并实现(矢量化)的反向传播(backpropagation)过程理解并实现不同的更新算法(updaterules)来优化神经网络实现批量归一化(BatchNormalization)和
灵隐寺扫地僧
·
2020-08-08 11:37
#
CS231n
cs231n
(1)
图像分类 目标:已有固定的分类标签集合,然后对于输入的图像,从分类标签集合中找出一个分类标签,最后把分类标签分配给该输入图像。 图像分类流程输入:输入是包含N个图像的集合,每个图像的标签是K种分类标签中的一种。这个集合称为训练集。学习:这一步的任务是使用训练集来学习每个类到底长什么样。一般该步骤叫做训练分类器或者学习一个模型。评价:让分类器来预测它未曾见过的图像的分类标签,把分类器预测的标签和
leo_10
·
2020-08-08 11:20
cs231n
课程笔记 学习笔记#001
线性分类原文:http://
cs231n
.github.io/linear-classify/参考翻译:https://zhuanlan.zhihu.com/p/20918580?
laagyzz
·
2020-08-08 11:47
机器学习
cs231n
课程作业assignment1(KNN)
前言:以斯坦福
cs231n
课程的python编程任务为主线,展开对该课程主要内容的理解和部分数学推导。
躺着中枪ing
·
2020-08-08 11:20
cn231n
CS231n
第一节
这是由李飞飞及其博士生开讲的深度学习课程。第一节是李飞飞主讲,她简短地描述了计算机视觉的历史以及亟待解决的问题。计算机视觉的应用方方面面,一图以概之:下面对讲义中的每页进行讲解这是最早的产生图片的装置,可以说是照相机的前世。通过下面图中的生物实验,科学家研究了猫接受图像信息时大脑活动的区域,进而研究大脑处理图像的机制。讲了几个关于大脑构造的有趣的小知识,比如,生物最先形成的信号处理结构是视觉处理的
早安啊
·
2020-08-08 11:18
深度学习
cs231n
【
cs231n
学习笔记(2017)】——— 课程作业assignment1及拓展(KNN)
构建模型L1模型代码实现:importnumpyasnpclassKNN_L1:def__init__(self):passdeftrain(self,X,y):self.X_train=Xself.y_train=ydefpredict(self,x):num_test=x.shape[0]y_pred=np.zeros(num_test,dtype=self.y_train.dtype)for
Nicht_Sehen
·
2020-08-08 10:11
计算机视觉
机器学习
CS231n
课程作业(一) kNN classifier
cs231n
是针对图像的,本次作业内容是对图像进行分类。分类的标准就是待分类图像与训练集图像的L2距离。(PS:样本集是32x32x3的图像,所以分类前需要对待分类图像进行resize。
coder_mckee
·
2020-08-08 10:05
深度学习
关于Numpy中transpose()和stack()函数的解析!(Numpy.transpose()和Numpy.stack())
最近在看斯坦福大学的
cs231n
机器学习课程,第一节的assignment1里的KNN线性分类器中用到了这两个函数,由于我是新手,就看不懂这两个函数坐了什么,其实结合那个例程,这个函数当时会觉得好像明白了它的意思
勤劳的菜农
·
2020-08-08 10:03
深度学习:
CS231n
官方笔记
CS231n
简介
CS231n
的全称是
CS231n
:ConvolutionalNeuralNetworksforVisualRecognition,即面向视觉识别的卷积神经网络。
山坡坡上的蜗牛
·
2020-08-08 00:28
深度学习
cs231n
训练营学习笔记(9)卷积和池化
卷积具有部分连接和权重共享的特征,共享的权重就是卷积核,因为它划过所有图像分别和图像切片相乘,相当于很多的卷积核共同组成权重。从函数角度解读卷积神经网络工作原理每个卷积核(感受野receptivefield)对应输出一个激活映射(activationmap),每层ConvNet由多个卷积核输出的激活映射组成,与前面线性分类器不同,前面的权重的每行对应该类的模板,输出是分数,相当于是一种特征吧。卷积
就叫荣吧
·
2020-08-08 00:56
cs231n
cs231n
训练营学习笔记(6)
跑代码,softmax最开始,写softmax_loss_naive用循环求loss和gradientsoftmax分类器使用交叉熵loss,公式为编程实现时候稍微利用了广播,10个分数一起算的foriinrange(num_train):scores=X[i].dot(W)scores-=max(scores)#避免溢出scores=np.exp(scores)/np.sum(np.exp(sc
就叫荣吧
·
2020-08-08 00:56
cs231n
cs231n
训练营学习笔记(7)
反向传播计算复杂函数的解析梯度,(每个变量的导数指明了整个表达式对于该变量的值的敏感程度)利用计算图这个框架圆形节点表示运算,也被叫做门(gate)复杂函数梯度根据链式法则反向递归得到,每个圆形节点可得到局部梯度下面是一个例子,为了方便理解更复杂的情况是,各个变量,比如上面局部梯度的x,y,z是向量的时候,局部梯度就变成了雅可比矩阵但是当维数太大以及一次需要同时处理很多输入的时候,计算雅可比矩阵不
就叫荣吧
·
2020-08-08 00:56
cs231n
资料整理(备用)
个人网页文章目录前言Python《利用Python进行数据分析·第2版》《Python机器学习及实践从零开始通往Kaggle竞赛之路》机器学习/深度学习《机器学习》周志华《统计学习方法》李航《深度学习》花书
CS231n
橘子2048
·
2020-08-07 18:18
资料
线性分类器及python实现
以下内容参考
CS231n
。上一篇关于分类器的文章,使用的是KNN分类器,KNN分类有两个主要的缺点:空间上,需要存储所有的训练数据用于比较。时间上,每次分类操作,需要和所有训练数据比较。
weixin_33743703
·
2020-08-05 22:30
Lecture 1 | 计算机视觉的卷积神经网络介绍
本文是《
CS231n
:ConvolutionalNeuralNetworksforVisualRecognition》课程的学习笔记。
puran1218
·
2020-08-05 19:47
AI
计算机视觉
Lecture 2 | 图像分类
本文是《
CS231n
:ConvolutionalNeuralNetworksforVisualRecognition》课程的学习笔记。
puran1218
·
2020-08-05 19:47
计算机视觉
AI
python
机器学习
人工智能
深度学习入门心得——书籍、课程、文档推荐
转载至:http://blog.csdn.net/shingle_/article/details/52029214MOOCsHinton的neuralnetworksStanford的
CS231n
:ConvolutionalNeuralNetworksforVisualRecognitionStanford
yaoyaoqiekenaoo
·
2020-08-05 15:44
深度学习
深度学习
深度学习与计算机视觉[
CS231N
]:计算机视觉与深度学习/卷积神经网络
第一讲|视觉识别和卷积神经网络简介 斯坦福大学开设的“用于视觉识别的卷积神经网络(YouTube链接)”(ConvolutionalNeuralNetworksforVisualRecognition)课程,主要关注的是视觉识别中一个十分重要的问题——图像分类。这个问题虽然看起来具有很大的限制性和人为因素,但是实际上,该研究方向可以应用到许多不同的领域,不管是在工业领域还是在学术领域,都有很大的
ZeroZone零域
·
2020-08-05 13:25
计算机视觉
深度学习
Pytorch学习笔记(一)Numpy SciPy MatPlotlib Tutorial
英文原文链接:http://
cs231n
.github.io/python-numpy-tutorial/NumpyNumpy是Python中科学计算的核心库。
ditangbi1614
·
2020-08-05 10:41
机器学习绘图库Python Matplotlib.pyplot全网最全面新手教程
原网址在:http://
cs231n
.github.io/python-numpy-tutorial/#matplotlib。
亲亲Friends
·
2020-08-05 02:37
Python
理解numpy中的axis(轴)
在numpy中axis是一个比较难理解的点,在很长一段时间我都是在处理一些2维的数组,所以往往对这块知识有所忽略,直到我在做斯坦福的
cs231n
的assignment时候,才对axis有了更加深入的理解
JPLAY0
·
2020-08-05 01:35
Python
Numpy
CS-231N-斯坦福李飞飞机器视觉课(Cydiachen版笔记+感悟)
CS231N
斯坦福李飞飞机器视觉课这个笔记的话,因为本身的课件之间有一些耦合性,但是关联性也不是很大,这里的话,因为我是在雷锋网上看的整个视频课程,感谢字幕组有整理出来每一个Lecture的关键词,这里的话我的笔记组织的话
weixin_34088598
·
2020-08-04 20:24
Computer Vision(CS131,
CS231n
)学习笔记(1)
选用了StanfordUniversity的CS131还有
CS231n
这两门课程作为素材,很多资料已经可以在这两门课程的网站上找到。
金毛狮王熊吉
·
2020-08-04 19:54
斯坦福
CS231n
Spring 2017开放全部课程视频
微信公众号机器之心文章[斯坦福
CS231n
Spring2017开放全部课程视频(附大纲)]内附
CS231n
Spring的课程,
CS231n
近几年一直是计算机视觉领域和深度学习领域最为经典的课程之一。
snwang_miss
·
2020-08-04 18:37
机器学习
CS231n
经典CNN课程了:AlexNet/VGG/GoogLeNet(上)
本文翻译总结自
CS231n
Lecture9:https://youtu.be/DAOcjicFr1Y本篇将深入介绍当前的应用和研究工作中最火的几个CNN网络架构——AlexNet、VGGNet、GoogLeNet
csdnforyou
·
2020-08-04 13:05
CS231n
斯坦福
cs231n
课程学习(5)
文章目录RNNLSTMGRURNNRNN是包含循环的网络,允许信息的持久化。对于一些与时间先后有关的,比如视频的下一时刻的预测,文档前后文内容的预测等就需要使用RNN了。它主要有输入层,HiddenLayer,输出层组成。展开图如下如图所示为HiddenLayer的层级展开图.t-1,t,t+1表示时间序列.X表示输入的样本.St表示样本在时间t处的的记忆,St=f(WSt-1+UXt).W表示输
BillisNAN
·
2020-08-04 07:15
计算机视觉
机器学习
斯坦福
cs231n
课程学习(4)
文章目录迁移学习AlexNetVGGGoogLeNetResNet迁移学习就是一层层网络中每个节点的权重从一个训练好的网络迁移到一个全新的网络里,而不是从头开始,为每特定的个任务训练一个神经网络。若是从头开始训练,你需要百万级的带标注数据,海量的显卡资源。而若是使用迁移学习,你可以使用Google发布的Inception或VGG16这样成熟的物品分类的网络,只训练最后的softmax层,你只需要几
BillisNAN
·
2020-08-04 07:14
计算机视觉
斯坦福
cs231n
课程学习(3)
文章目录正则化L1正则化L2正则化常用激活函数SigmoidTanhReLULeakyReLUMaxout数据预处理均值减法归一化PCA和白化权重初始化正则化我们知道在训练模型时,模型越复杂拟合效果就越好,但相应的该模型在预测新的数据时效果就会不太理想,这就是过拟合。那么为了解决这一问题我们提出了正则化。正则化是通过对大权重增加惩罚项以降低模型复杂度的一种方法。所谓惩罚是指对损失函数中的某些参数做
BillisNAN
·
2020-08-04 07:14
计算机视觉
斯坦福
cs231n
课程学习(2)卷积神经网络
文章目录神经网络反向传播卷积核池化神经网络我们知道神经网络是由很多个神经元构成的。他是模仿的是生物学中的神经网络。也就是说每一个神经元都会有输入和输出。输入端可能是上一个神经元传来的参数。也可以是我们直接给的参数。在上一讲里我们会有图片的3X像素个数个数据,这些数据就可以作为神经元的最上游输入。在每个神经元中都会对输入的数据做处理。这样的处理可以是很简单的也可以是很难的,这取决于你自己的设定。同时
BillisNAN
·
2020-08-04 07:14
计算机视觉
cs231n
assignment1--svm
本节作业的难点主要是svm的梯度向量的求解,在完成作业的时候找了大量的资料才求解出来。首先是矩阵求导的问题,我是参考以下博客:http://www.cnblogs.com/huashiyiqike/p/3568922.html在这作业中我们只需要用到以下公式d(xT∗A/dx=AT)下面是损失函数的公式:Li=∑j!=yi[max(0,wTjxi−wTyixi+Δ)]那么dW可以这样表示,∇wLi
zt_1995
·
2020-08-03 09:29
cs231n
_assignment1_配置作业环境+kNN
作业1:http://
cs231n
.github.io/assignments2017/assignment1/我是在win7电脑上做的。
ChuanjieZhu
·
2020-08-03 05:35
深度学习
CS231n
笔记1--Softmax Loss 和 Multiclass SVM Loss
SoftmaxLoss和MulticlassSVMLossSoftmaxLoss和MulticlassSVMLossSoftmaxLossMulticlassSVMLoss对比EverythingherenothingthereSoftmaxLoss给出(xi,yi),其中xi是图像,yi是图像的类别(整数),s=f(xi,W),其中s是网络的输出,则定义误差如下:P(Y=k|X=xi)=esk∑
LiemZuvon
·
2020-08-03 05:17
机器学习
深度学习
开销函数
CS231n
softmax
svm
cnn
cs231n
一次课程实践,python实现softmax线性分类器和二层神经网络
看了以后,对bp算法的实现有直观的认识,真的太棒了!importnumpyasnpimportmatplotlib.pyplotaspltnp.random.seed(0)N=100#numberofpointsperclassD=2#dimensionalityK=3#numberofclassesX=np.zeros((N*K,D))#datamatrix(eachrow=singleexam
skying_li
·
2020-08-03 05:11
深度学习
cs231n
作业1--SVM
SVM算法:1、算法思想:寻找一个超平面来划分不同类别的数据。http://www.cnblogs.com/end/p/3848740.html用图表很好的解释了什么是SVM2、损失函数公式:表示每个样本分类的损失值对所有测试样本的平均损失值3、求导(梯度公式):在代码理解过程中遇到了一些问题,为什么一个样本对每个分类都要重复计算一遍第二个公式,这是因为在每一个样本进行损失值计算时,对其他所有非真
Sun-Flower
·
2020-08-03 04:39
机器学习
CS231n
课程学习笔记(一)——KNN的实现
在
cs231n
StarCoo
·
2020-08-03 04:22
深度学习
CS231n
KNN Assignment 1算法总结
CS231n
KNNAssignment1算法总结1.数据驱动方法:train—precdict模式编写k_nearest_neighbor.py这个utils文件:importnumpyasnpclassKNearestNeighbor
sansherlock
·
2020-08-03 04:25
Mlliu/CS231n
Cs231n
作业-Q1-1 K-Nearest Neighbor(kNN) exercise
Cs231n
作业:Q1-1k-NearestNeighbork近邻算法原理步骤
Cs231n
——Knn作业训练阶段测试阶段交叉验证小结k近邻算法k近邻算法是一种基本分类与回归方法。
一位以泪洗面的同学
·
2020-08-03 03:20
Cs231n作业
CS231n
Lecture 15 | Efficient Methods and Hardware for Deep Learning
Lecture15主要从算法和硬件两个层面讲解了模型压缩和优化等问题,以实现深度学习模型的体积减少、参数数量缩减、计算量减少、计算加速等。文章目录AbstractAlgorithmsforEfficientInferencePruning(剪枝)Weightsharing(共享权重)Quantization(量化)LowRankApproximation(低秩近似)Binary/TernaryNe
困比比
·
2020-08-03 02:00
MachineLearning
DeepLeanring
cs231n
-assignment1的笔记
在看完
cs231n
前面几章的内容后,准备做一下assignment1,然后怕之后忘记,所以写博文记录一下......由于我是个low逼程序员,平时能用Windows就绝不用linux,所以在这次作业时使用虚拟机完成了作业
Zamirquito
·
2020-08-03 02:01
python
numpy
deep
learning
cs231n
python
deep
learning
cs231n
cv
CS231n
2018作业1-svm
GitHub地址https://github.com/Wangxb06/
CS231n
MulticlassSupportVectorMachineexerciseCompleteandhandinthiscompletedworksheet
lifewang
·
2020-08-03 01:11
深度学习
cs231n
的第一次作业svm
SVM算dwsvm实现公式中,线性函数为损失函数为为了更快得到期望W,需要找寻梯度dw。图像数据Xi=[D*1],W[k*D]或者W[k*D+1],k表示有k个类别。W的每一个行向量便是一个分类器。对某个数据点上的损失计算即Li=(Wj行对Xi的分数-Wyi行对Xi分类正确的分数+delta)如果Li小于0,则Li=0。对其求Wyi的偏导数和Wj的偏导数,结果分别为-Xi和Xi(如果Li大于0的话
icameling
·
2020-08-03 00:31
cs231n
cs231n
课程作业assignment1(SVM)
标签(空格分隔):机器学习前言:以斯坦福
cs231n
课程的python编程任务为主线,展开对该课程主要内容的理解和部分数学推导。
躺着中枪ing
·
2020-08-03 00:54
cn231n
cs231n
assignment1 --SVM
作业地址:https://github.com/donghaiyu233/
cs231n
,欢迎fork~。
东海鱼鱼
·
2020-08-02 23:07
cs231n
cs231n
:assignment1:KNN解答
本篇博客是对斯坦福大学课程
cs231n
中第一个作业assignment1中对k-NearestNeighbor部分的解答,解答过程使得对Python库numpy的应用更加熟悉,以及对train/val/
Tramac
·
2020-08-02 22:38
python
损失函数和正则化 Loss Function& Regularization
(SlideFromStanford
CS231n
)显然,现在的情况是:猫没有被正确分类,车是对的,青蛙完全错了。为了使它们完全正确,我们引入了损失函数。现存的损失函数还是比较多样的,这里介绍两种。
Stockholm_Sun
·
2020-08-02 22:54
计算机视觉与神经网络
C231n-KNN-assignment1-完全代码及注释
以下内容为C231n-assignment1-KNN的代码作业网址:http://
cs231n
.github.io/assignments2017/assignment1/Q1:k-NearestNeighborclassifier
IAMoldpan
·
2020-08-02 21:26
深度学习
机器学习
python
CS231n
课程笔记翻译:图像分类笔记(上)
译者注:本文翻译自斯坦福
CS231n
课程笔记imageclassificationnotes,由课程教师AndrejKarpathy授权进行翻译。本篇教程由杜客翻译完成。
GarfieldEr007
·
2020-08-02 21:57
IR/IC/IA
CS231n
:assignment1 KNN
CS231n
:assignment1KNN一、前言二、主要部分程序解读1、数据输入2、数据更新3、KNN分类器实现3.1训练分类器3.2计算欧式距离L23.2.1用两个循环来计算欧式L2距离3.2.2用一个循环来计算欧式
Raywit
·
2020-08-02 20:42
深度学习
cs231n
Cs231n
作业:SVM
参考博客:https://blog.csdn.net/qq_37041483/article/details/99082602
Cs231n
——SVM作业importrandomimportnumpyasnpfrom
cs231n
.data_utilsimportload_CIFAR10importmatplotlib.pyplotasplt
我是蓝银草
·
2020-08-02 15:58
cs231n
cs231n
训练营学习笔记(8)简单双层全连接神经网络
全连接神经网络前面的线性分类器是,x是一个列向量,W把结果变成10个元素的列向量神经网络不同,例如一个简单二层网络,里面是和上面一样的线性处理,得到中间变量,假设是100维的,然后做非线性处理,然后得到最后的10维列向量。非线性不会和线性的合并,所以才分了层。参数通过训练,随机梯度下降和反向传播学到对单个神经元建模每个神经元都对它的输入和权重进行点积,然后加上偏差,最后使用非线性函数(或称为激活函
就叫荣吧
·
2020-08-02 13:08
cs231n
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他