E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习相关(cs231n)
CS231n
课程作业KNN的实现中问题: np.bincount()位置ValueError: object too deep for desired array
我在做
cs231n
课后作业的knn这部分作业的时候借鉴知乎大神的代码https://zhuanlan.zhihu.com/p/28204173主要贴出博主遇到问题的地方主程序中部分#**********
bingo_6
·
2020-08-08 14:08
深度学习
cs231n
:python3.6.4对实验数据图像的读取,课后作业代码解释
1.相信大家都已经在其他地方找到了
cs231n
的翻译课程,邻近算法原理和KNN自己看其他人博客,我就直接进入正题,解决操作上遇到的问题!!!2.数据的下载ht
AlwaysOnline999
·
2020-08-08 13:04
python3.6.4
CS231n
: (3) Loss Functions and Optimization
问答总结:损失函数的产生原因是什么,它的定义是什么?多类别SVM损失函数的定义是什么?有什么实际意义?多类别SVM损失函数为什么以1为间隔阈值?以其他为阈值有影响吗?对于多类别SVM损失函数,我们初始化WWW非常小,那么s≈0s\approx0s≈0,则初始的损失应该为多少?C-1(C为类别数量)为什么说多类别SVM损失函数中,任何缩放操作都不会有影响?(个人理解,待探究)(1)在分类问题中:本质
无聊的人生事无聊
·
2020-08-08 13:42
信息科学
CS231n
-深度学习与计算机视觉-笔记-Lecture5 卷积神经网络
1.历史2.卷积和池化先从函数角度了解工作原理,简单介绍这些连接点。对于全连接层,我们要做的就是在这些向量上进行操作。比如我们有一张图片,三维图片32*32*3大小,我们将所有的像素展开,就可以得到一个3072维的向量。我们得到这些权重,把向量和权重矩阵相乘,这里我们就用10*3072,然后就可以得到激活值。卷积层和全连接层的主要差别,可以保全空间结构,不是将它展开成一个长的向量,我们可以保持图片
FishSugar
·
2020-08-08 13:18
Deep
Learning
cs231n
assignment1_Q1_KNN Classifier
今天开始将进行学习
cs231n
课程并完成相关的作业,在此记录。
进击的吃恩程sy
·
2020-08-08 13:27
CS231n
(winter 2016) : Assignment2
http://www.jianshu.com/p/9c4396653324前言:以斯坦福
cs231n
课程的python编程任务为主线,展开对该课程主要内容的理解和部分数学推导。
CopperDong
·
2020-08-08 13:55
CS231n
cs231n
assignment1 SVM详解
1.图像的预处理问题->为什么要减去均值图像2.SVM分类器a.背景知识b.SVM(MulticlassSupportVectorMachine)c.practicalconsiderationd.计算倒数※(难点)e.作业代码详解1.图像的预处理问题->为什么要减去均值图像(ROW(行)与COLUMN(列))这里涉及到了图像处理中常用的归一化问题。数据预处理中,标准的第一步是数据归一化。虽然这里
NODIECANFLY
·
2020-08-08 13:24
深度学习
cs231n
CS231n
课程作业(一) Softmax classifier
首先需要说明的是,softmax与SVM(SVMclassifier链接)极其类似,区别在于dataloss函数不同。因此针对不同点作出解释就可以了。一、softmaxdatalossfunction其中,Li表示第i张图片的dataloss,Syi表示第i张图片所属正确类的score,Sj表示第i张图片对第j类的score。本次作业最关键的当然还是求梯度了。下面是gradient的表达形式:二、
coder_mckee
·
2020-08-08 12:57
深度学习
深度学习
卷积神经网络 + 机器视觉:L8_Static_Tensorflow_Dynamic_Pytorch (斯坦福
CS231n
)
v=6SlgtELqOWc&list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv&index=8完整的视频课堂投影片连接:http://
cs231n
.stanford.edu/
CHUNLIN GO
·
2020-08-08 12:40
Stanford
Stanford
Neural
Network
Deep
Learning
Tensorflow
Pytorch
cs231n
assignment1 KNN分类器
题目前期准备工作略代码如下:#Runsomesetupcodeforthisnotebook.importrandomimportnumpyasnpfrom
cs231n
.data_utilsimportload_CIFAR10importmatplotlib.pyplotasplt
CatchBeliF
·
2020-08-08 12:13
【实验小结】
cs231n
assignment1 knn 部分
1.前言这个是斯坦福
cs231n
课程的课程作业,在做这个课程作业的过程中,遇到了各种问题,通过查阅资料加以解决,加深了对课程内容的理解,以及熟悉了相应的python代码实现工程地址:https://github.com
枯萎的海风
·
2020-08-08 12:40
图像处理与机器视觉
python
机器学习
cs231n
课程作业 Assignment 2
这一次主要关注卷积神经网络(CNN,ConvolutionNeuralNetwork),要先读完课程笔记
CS231n
ConvolutionalNeuralNetworksforVisualRecognition
张小彬的代码人生
·
2020-08-08 12:34
cs231n
机器学习
CNN
cs231n
cs231n
课程作业 Assignment 1
课程资料趁着在学校的时间,跟着
cs231n
的课程做了一下作业,感觉收获特别大,现在汇总在博客里。
张小彬的代码人生
·
2020-08-08 12:33
机器学习
cs231n
机器学习
cs231n
CS231n
Spring 2017 homework
CS231n
Spring2017homework请移步至https://github.com/Psunshine/
CS231n
-Spring-2017-AssignmentMyimplementationabout
CS231n
spring2017homework.Ichosetousetensorfowtoimplementassignment3
Pxmzhao
·
2020-08-08 11:07
Deep
Learning
[
CS231n
Assignment 2 #00] 第二次作业介绍
1.作业介绍作业主页:Assignment#2作业任务:本次作业,我们需要练习编写反向传播过程,以及训练神经网络和卷积神经网络作业目的:理解神经网络(NeuralNetworks),知道它们是如何组织成分层结构的理解并实现(矢量化)的反向传播(backpropagation)过程理解并实现不同的更新算法(updaterules)来优化神经网络实现批量归一化(BatchNormalization)和
灵隐寺扫地僧
·
2020-08-08 11:37
#
CS231n
cs231n
(1)
图像分类 目标:已有固定的分类标签集合,然后对于输入的图像,从分类标签集合中找出一个分类标签,最后把分类标签分配给该输入图像。 图像分类流程输入:输入是包含N个图像的集合,每个图像的标签是K种分类标签中的一种。这个集合称为训练集。学习:这一步的任务是使用训练集来学习每个类到底长什么样。一般该步骤叫做训练分类器或者学习一个模型。评价:让分类器来预测它未曾见过的图像的分类标签,把分类器预测的标签和
leo_10
·
2020-08-08 11:20
cs231n
课程笔记 学习笔记#001
线性分类原文:http://
cs231n
.github.io/linear-classify/参考翻译:https://zhuanlan.zhihu.com/p/20918580?
laagyzz
·
2020-08-08 11:47
机器学习
cs231n
课程作业assignment1(KNN)
前言:以斯坦福
cs231n
课程的python编程任务为主线,展开对该课程主要内容的理解和部分数学推导。
躺着中枪ing
·
2020-08-08 11:20
cn231n
CS231n
第一节
这是由李飞飞及其博士生开讲的深度学习课程。第一节是李飞飞主讲,她简短地描述了计算机视觉的历史以及亟待解决的问题。计算机视觉的应用方方面面,一图以概之:下面对讲义中的每页进行讲解这是最早的产生图片的装置,可以说是照相机的前世。通过下面图中的生物实验,科学家研究了猫接受图像信息时大脑活动的区域,进而研究大脑处理图像的机制。讲了几个关于大脑构造的有趣的小知识,比如,生物最先形成的信号处理结构是视觉处理的
早安啊
·
2020-08-08 11:18
深度学习
cs231n
【
cs231n
学习笔记(2017)】——— 课程作业assignment1及拓展(KNN)
构建模型L1模型代码实现:importnumpyasnpclassKNN_L1:def__init__(self):passdeftrain(self,X,y):self.X_train=Xself.y_train=ydefpredict(self,x):num_test=x.shape[0]y_pred=np.zeros(num_test,dtype=self.y_train.dtype)for
Nicht_Sehen
·
2020-08-08 10:11
计算机视觉
机器学习
CS231n
课程作业(一) kNN classifier
cs231n
是针对图像的,本次作业内容是对图像进行分类。分类的标准就是待分类图像与训练集图像的L2距离。(PS:样本集是32x32x3的图像,所以分类前需要对待分类图像进行resize。
coder_mckee
·
2020-08-08 10:05
深度学习
Firefly-RK3399安装opencv3
这段时间需要用firefly3399做
深度学习相关
的工作,配置环境也是相当的费神,这里先记录一下自己配置的过程,方便以后查看。
专丶注
·
2020-08-08 10:34
软件安装
关于Numpy中transpose()和stack()函数的解析!(Numpy.transpose()和Numpy.stack())
最近在看斯坦福大学的
cs231n
机器学习课程,第一节的assignment1里的KNN线性分类器中用到了这两个函数,由于我是新手,就看不懂这两个函数坐了什么,其实结合那个例程,这个函数当时会觉得好像明白了它的意思
勤劳的菜农
·
2020-08-08 10:03
安装 pytorch 时遇到的问题(win10 python3.7.2)
安装pytorch时遇到的问题起因问题解决方法起因
深度学习相关
的选修课作业要求使用pytorch或caffe对测试集进行分类,所以需要安装无CUDA版的pytorch.问题兴冲冲的使用pipinstallpytorch
agctXY
·
2020-08-08 01:58
深度学习:
CS231n
官方笔记
CS231n
简介
CS231n
的全称是
CS231n
:ConvolutionalNeuralNetworksforVisualRecognition,即面向视觉识别的卷积神经网络。
山坡坡上的蜗牛
·
2020-08-08 00:28
深度学习
cs231n
训练营学习笔记(9)卷积和池化
卷积具有部分连接和权重共享的特征,共享的权重就是卷积核,因为它划过所有图像分别和图像切片相乘,相当于很多的卷积核共同组成权重。从函数角度解读卷积神经网络工作原理每个卷积核(感受野receptivefield)对应输出一个激活映射(activationmap),每层ConvNet由多个卷积核输出的激活映射组成,与前面线性分类器不同,前面的权重的每行对应该类的模板,输出是分数,相当于是一种特征吧。卷积
就叫荣吧
·
2020-08-08 00:56
cs231n
cs231n
训练营学习笔记(6)
跑代码,softmax最开始,写softmax_loss_naive用循环求loss和gradientsoftmax分类器使用交叉熵loss,公式为编程实现时候稍微利用了广播,10个分数一起算的foriinrange(num_train):scores=X[i].dot(W)scores-=max(scores)#避免溢出scores=np.exp(scores)/np.sum(np.exp(sc
就叫荣吧
·
2020-08-08 00:56
cs231n
cs231n
训练营学习笔记(7)
反向传播计算复杂函数的解析梯度,(每个变量的导数指明了整个表达式对于该变量的值的敏感程度)利用计算图这个框架圆形节点表示运算,也被叫做门(gate)复杂函数梯度根据链式法则反向递归得到,每个圆形节点可得到局部梯度下面是一个例子,为了方便理解更复杂的情况是,各个变量,比如上面局部梯度的x,y,z是向量的时候,局部梯度就变成了雅可比矩阵但是当维数太大以及一次需要同时处理很多输入的时候,计算雅可比矩阵不
就叫荣吧
·
2020-08-08 00:56
cs231n
资料整理(备用)
个人网页文章目录前言Python《利用Python进行数据分析·第2版》《Python机器学习及实践从零开始通往Kaggle竞赛之路》机器学习/深度学习《机器学习》周志华《统计学习方法》李航《深度学习》花书
CS231n
橘子2048
·
2020-08-07 18:18
资料
线性分类器及python实现
以下内容参考
CS231n
。上一篇关于分类器的文章,使用的是KNN分类器,KNN分类有两个主要的缺点:空间上,需要存储所有的训练数据用于比较。时间上,每次分类操作,需要和所有训练数据比较。
weixin_33743703
·
2020-08-05 22:30
Lecture 1 | 计算机视觉的卷积神经网络介绍
本文是《
CS231n
:ConvolutionalNeuralNetworksforVisualRecognition》课程的学习笔记。
puran1218
·
2020-08-05 19:47
AI
计算机视觉
Lecture 2 | 图像分类
本文是《
CS231n
:ConvolutionalNeuralNetworksforVisualRecognition》课程的学习笔记。
puran1218
·
2020-08-05 19:47
计算机视觉
AI
python
机器学习
人工智能
深度学习入门心得——书籍、课程、文档推荐
转载至:http://blog.csdn.net/shingle_/article/details/52029214MOOCsHinton的neuralnetworksStanford的
CS231n
:ConvolutionalNeuralNetworksforVisualRecognitionStanford
yaoyaoqiekenaoo
·
2020-08-05 15:44
深度学习
深度学习
深度学习与计算机视觉[
CS231N
]:计算机视觉与深度学习/卷积神经网络
第一讲|视觉识别和卷积神经网络简介 斯坦福大学开设的“用于视觉识别的卷积神经网络(YouTube链接)”(ConvolutionalNeuralNetworksforVisualRecognition)课程,主要关注的是视觉识别中一个十分重要的问题——图像分类。这个问题虽然看起来具有很大的限制性和人为因素,但是实际上,该研究方向可以应用到许多不同的领域,不管是在工业领域还是在学术领域,都有很大的
ZeroZone零域
·
2020-08-05 13:25
计算机视觉
深度学习
Pytorch学习笔记(一)Numpy SciPy MatPlotlib Tutorial
英文原文链接:http://
cs231n
.github.io/python-numpy-tutorial/NumpyNumpy是Python中科学计算的核心库。
ditangbi1614
·
2020-08-05 10:41
机器学习绘图库Python Matplotlib.pyplot全网最全面新手教程
原网址在:http://
cs231n
.github.io/python-numpy-tutorial/#matplotlib。
亲亲Friends
·
2020-08-05 02:37
Python
理解numpy中的axis(轴)
在numpy中axis是一个比较难理解的点,在很长一段时间我都是在处理一些2维的数组,所以往往对这块知识有所忽略,直到我在做斯坦福的
cs231n
的assignment时候,才对axis有了更加深入的理解
JPLAY0
·
2020-08-05 01:35
Python
Numpy
CS-231N-斯坦福李飞飞机器视觉课(Cydiachen版笔记+感悟)
CS231N
斯坦福李飞飞机器视觉课这个笔记的话,因为本身的课件之间有一些耦合性,但是关联性也不是很大,这里的话,因为我是在雷锋网上看的整个视频课程,感谢字幕组有整理出来每一个Lecture的关键词,这里的话我的笔记组织的话
weixin_34088598
·
2020-08-04 20:24
Computer Vision(CS131,
CS231n
)学习笔记(1)
选用了StanfordUniversity的CS131还有
CS231n
这两门课程作为素材,很多资料已经可以在这两门课程的网站上找到。
金毛狮王熊吉
·
2020-08-04 19:54
斯坦福
CS231n
Spring 2017开放全部课程视频
微信公众号机器之心文章[斯坦福
CS231n
Spring2017开放全部课程视频(附大纲)]内附
CS231n
Spring的课程,
CS231n
近几年一直是计算机视觉领域和深度学习领域最为经典的课程之一。
snwang_miss
·
2020-08-04 18:37
机器学习
用Visio画深度学习模型矢量图
在写
深度学习相关
论文时,我们常常需要把模型机构画出来。绘图工具也千差万别,我们一般采用PPT和Visio画图工具。
Jayden yang
·
2020-08-04 17:16
知识点
CS231n
经典CNN课程了:AlexNet/VGG/GoogLeNet(上)
本文翻译总结自
CS231n
Lecture9:https://youtu.be/DAOcjicFr1Y本篇将深入介绍当前的应用和研究工作中最火的几个CNN网络架构——AlexNet、VGGNet、GoogLeNet
csdnforyou
·
2020-08-04 13:05
CS231n
斯坦福
cs231n
课程学习(5)
文章目录RNNLSTMGRURNNRNN是包含循环的网络,允许信息的持久化。对于一些与时间先后有关的,比如视频的下一时刻的预测,文档前后文内容的预测等就需要使用RNN了。它主要有输入层,HiddenLayer,输出层组成。展开图如下如图所示为HiddenLayer的层级展开图.t-1,t,t+1表示时间序列.X表示输入的样本.St表示样本在时间t处的的记忆,St=f(WSt-1+UXt).W表示输
BillisNAN
·
2020-08-04 07:15
计算机视觉
机器学习
斯坦福
cs231n
课程学习(4)
文章目录迁移学习AlexNetVGGGoogLeNetResNet迁移学习就是一层层网络中每个节点的权重从一个训练好的网络迁移到一个全新的网络里,而不是从头开始,为每特定的个任务训练一个神经网络。若是从头开始训练,你需要百万级的带标注数据,海量的显卡资源。而若是使用迁移学习,你可以使用Google发布的Inception或VGG16这样成熟的物品分类的网络,只训练最后的softmax层,你只需要几
BillisNAN
·
2020-08-04 07:14
计算机视觉
斯坦福
cs231n
课程学习(3)
文章目录正则化L1正则化L2正则化常用激活函数SigmoidTanhReLULeakyReLUMaxout数据预处理均值减法归一化PCA和白化权重初始化正则化我们知道在训练模型时,模型越复杂拟合效果就越好,但相应的该模型在预测新的数据时效果就会不太理想,这就是过拟合。那么为了解决这一问题我们提出了正则化。正则化是通过对大权重增加惩罚项以降低模型复杂度的一种方法。所谓惩罚是指对损失函数中的某些参数做
BillisNAN
·
2020-08-04 07:14
计算机视觉
斯坦福
cs231n
课程学习(2)卷积神经网络
文章目录神经网络反向传播卷积核池化神经网络我们知道神经网络是由很多个神经元构成的。他是模仿的是生物学中的神经网络。也就是说每一个神经元都会有输入和输出。输入端可能是上一个神经元传来的参数。也可以是我们直接给的参数。在上一讲里我们会有图片的3X像素个数个数据,这些数据就可以作为神经元的最上游输入。在每个神经元中都会对输入的数据做处理。这样的处理可以是很简单的也可以是很难的,这取决于你自己的设定。同时
BillisNAN
·
2020-08-04 07:14
计算机视觉
Openblas windows编译小记
近期使用Caffe做
深度学习相关
的项目,项目限制只能使用CPU做识别,为了提高识别速度,除了优化模型,就是优化Openblas,因为Caffe主要的计算都是交给Openblas做的。
昊86
·
2020-08-04 02:54
开源项目window下编译
(转)深度学习主机环境配置: Ubuntu16.04 + GeForce GTX 1070 + CUDA8.0 + cuDNN5.1 + TensorFlow
原文:https://blog.csdn.net/toormi/article/details/52904551最近在公司做
深度学习相关
的学习和实验,原来一直在自己的电脑上安装虚拟机跑,速度实在太慢,主机本身性能太弱
superbigcupid
·
2020-08-04 01:40
Linux使用
Ubuntu 安装环境的几种常见方式总结
包3、pipinatall(也适用于库文件)4、编译源代码安装5、.rpm包6、.sh包参考引言在Ubuntu上,办公软件的安装一般都比较简单(例如:Chorme、wps),去软件中心就可以直接安装,
深度学习相关
的环境可能会需要一些特别的方式
MortonWang
·
2020-08-03 22:44
学习笔记
cs231n
assignment1--svm
本节作业的难点主要是svm的梯度向量的求解,在完成作业的时候找了大量的资料才求解出来。首先是矩阵求导的问题,我是参考以下博客:http://www.cnblogs.com/huashiyiqike/p/3568922.html在这作业中我们只需要用到以下公式d(xT∗A/dx=AT)下面是损失函数的公式:Li=∑j!=yi[max(0,wTjxi−wTyixi+Δ)]那么dW可以这样表示,∇wLi
zt_1995
·
2020-08-03 09:29
上一页
18
19
20
21
22
23
24
25
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他