E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231N
斯坦福
CS231n
项目实战(三):Softmax线性分类
我的网站:红色石头的机器学习之路我的CSDN:红色石头的专栏我的知乎:红色石头我的微博:RedstoneWill的微博我的GitHub:RedstoneWill的GitHub我的微信公众号:红色石头的机器学习之路(ID:redstonewill)Softmax线性分类器的损失函数(Lossfunction)为:Li=−logesyi∑Cj=1esj=−syi+log∑j=1CesjLi=−loge
红色石头Will
·
2020-07-13 12:54
机器学习
深度学习
斯坦福CS231n
斯坦福cs231n课程剖析
CS231N
Lecture14: Reinforcement Learning
强化学习:Agent与Environment之间交互,Agent发起一个Action,环境会给出一个reward。目标是如何执行action才能将reward最大化。1.MarkovDecisionProcess是强化学习的数学基础,马尔可夫特性:目前的状态完全刻画世界的状态其中包含S为状态集,A是action集,R是给定(state,action)对后reward的分布,P是转移概率(例如从给定
best___me
·
2020-07-13 11:15
CS231n
笔记|3 损失函数和最优化
转载自:https://zhuanlan.zhihu.com/p/41679108首发于
CS231n
深度视觉笔记
CS231n
笔记|3损失函数和最优化3损失函数和最优化(lossFunctionandoptimization
荷叶田田_
·
2020-07-13 09:57
Deep
Learning基础
CS231n
——机器学习算法——线性分类(下:Softmax及其损失函数)
在前两篇笔记中,基于线性分类上,线性分类中继续记笔记。1.Softmax分类器SVM和Softmax分类器是最常用的两个分类器,Softmax的损失函数与SVM的损失函数不同。对于学习过二元逻辑回归分类器的读者来说,Softmax分类器就可以理解为逻辑回归分类器面对多个分类的一般化归纳。SVM将输出f(xi,W)f(x_i,W)f(xi,W)作为每个分类的评分(因为无定标,所以难以直接解释)。与S
堂姐在这儿。
·
2020-07-12 23:36
机器学习
分类器
cs231n
svm
softmax
损失函数
交叉熵
折页损失
cs231n
学习过程 问题记录
(1)数据预处理时,将数据集转化为0均值的原因:若数据均大于0,则梯度方向传播时,会均为正或者负,则导致最后权值均为正或负。但实际使用中由于BATCHsize的存在,在更新权值时,所有数据的梯度相加,可能会使权值有多重符号。Thishasimplicationsonthedynamicsduringgradientdescent,becauseifthedatacomingintoaneuroni
zuqiutxy
·
2020-07-12 20:08
caffe学习笔记
CS231n
Class Notes- lecture11 ConvNets in Practice
所有图都是从
CS231n
lecture11的课件中截取的。
蜗牛一步一步往上爬
·
2020-07-12 18:34
machine
learning
深度学习中的loss函数
注:这篇文章是基于
cs231n
的lecture3.数据我们的数据如Fig0所示Fig0.上边的图片是模型的输入,下边的数字是模型的输出。
jiraiyafuhui
·
2020-07-12 11:37
Numpy快速入门教程(一):数组创建与数组访问
首先声明本篇博客是本人学习
CS231n
的学习笔记,分享给大家当作参考。Numpy是Python中用于科学计算的核心库。它提供了高性能的多维数组对象,以及相关工具。
叫我小红
·
2020-07-12 10:42
np.sum维度降维问题:
cs231n
assignment2 报错"ValueError: non-broadcastable output operand "
报错:ValueError:non-broadcastableoutputoperandwithshape(100,1)doesn'tmatchthebroadcastshape(100,100)原因:在fc_net.py、TwoLayerNet类中:self.params['b1']=np.zeros(hidden_dim)b1是一维的self.params['b1']=np.zeros((hi
weixin_37198422
·
2020-07-12 10:15
cs231n
深度学习
broadcast
python
numpy
cs231n
学习笔记【1】--- Lecture_10 --- RNN
写在前面这节课讲的内容是RNN有关的知识内容,本来是直接要做assignment3的,后来看完英文介绍和我下下来的代码发现就像是做完形填空一样我要把代码填入预先设置好的位置。一下子蒙圈了,这怎么填???问了同学后才知道,Syllabus都已经设计好了,先看讲义和视频,一点点公式啊什么的都有讲,再自己去写。所以第一篇笔记我就要直接先学习一下RNN,不想直接从头,这样很打击我的积极性,因为前面有很多知
weixin_34194702
·
2020-07-12 09:28
十分钟看懂神经网络反向传输算法
回来后看了些博文,发现有的博文中公式推导过于复杂,不易理解,遂综合了网络中其他博文和斯坦福大学
CS231n
课程中的内容,整理了一份反向传输算法的通俗解释,如有错误,请各位网友指出。
weixin_33795093
·
2020-07-12 07:19
CS231n
笔记 Lecture 10, Recurrent Neural Networks
RecaptiononCNNArchitectureAlthoughSerenaisverybeautiful,Justinisabetterlecturer.Lovehim.RecurrentNeuralNetworkMeanttoprocesssequencialdata,reusehiddenstatetoretaintheknowledgeofpreviousfedinputs.Canbe
weixin_30888027
·
2020-07-12 07:14
Cs231n
课堂内容记录-Lecture1 导论
Lecture1视频网址:https://www.bilibili.com/video/av17204303/?p=2https://zhuanlan.zhihu.com/p/21930884?refer=intelligentunit补充材料翻译笔记。https://blog.csdn.net/han_xiaoyang作业参考https://zhuanlan.zhihu.com/p/307489
weixin_30558305
·
2020-07-12 06:55
李飞飞
CS231n
2017课程双语字幕版上线 !(附课程链接)
来源:AI科技评论本文长度为2400字,建议阅读4分钟本文为你介绍最近上线的李飞飞的
CS231n
2017课程中文版。
CS231n
2017双语字幕版上线!正式开课!
wang_quan_li
·
2020-07-12 04:06
AI
AI
暑假计划打卡
2.
CS231N
:结束softmax练习进入神经网络阶段3.上午扫了会儿c++primier第6章8.20****1.上午,下午临近晚上,晚上实现SLAM关键帧与地图的结构2.不重要不紧急研究生事务花掉
Er_Liebt_Sie
·
2020-07-12 02:12
机器学习学习日志--KNN
渣渣的学习日志(一)---KNN算法根据斯坦福大学
CS231n
的课程,在学习CNN之前,要先对一些机器学习的算法进行系统的学习,最先接触到的就是KNN算法KNN(k-nearestneighbor)算法用我个人的理解就是
supergxt
·
2020-07-12 00:19
卷积神经网络的实现
经典博客/教程卷积神经网络的简单了解知乎上对于CNN的直观解释斯坦福大学
CS231n
课程的深入笔记图像分类谈CNN
longongng
·
2020-07-12 00:39
神经网络
cs231n
学习笔记-lecture4(Backpropagation and Neural Networks)以及作业解答
Backpropagation学习笔记这部分主要是比较详细的介绍使用计算树进行反向传播的计算方法。首先举了一个很简单的例子,例子中详细的介绍了前向传播和反向传播的计算方式,其实就是链式法则。每个节点的导数都是用后一个部位的导数乘以当前节点的导数。然后总结了一个节点导数的求法,就是上一个节点的导数乘以当前节点的localgradient。然后举了一个相对复杂的例子,也是一步一步进行了正向和反向传播。
stesha_chen
·
2020-07-11 23:30
深度学习入门
准备PPT 材料
反反复复为什么中间加上非线性方程以后就是非线性了,,goDeepper以下slide没有弄懂CNN求导数理解,,,
CS231n
:ConvolutionalNeuralNetworksforVisualRecognition
重新出发_砥砺前行
·
2020-07-11 21:01
CS231n
2017Spring Lecture4 Backpropagation and Neural Networks 总结
计算图反向传播 同理对于x与z来说同样使用链式法则就可以求出所需要的导数,这就是反向传播求导的由来,这里的倒数就是调整ω参数的缘由。求导在神经元中的显示 这里就完全展示了通过其中神经元f函数后反向求导时的过程,另外在加入了非线性函数后一样可以通过这里的导数来求解。另一个复杂一点的例子(BackPropagation)第二步一直持续这个过程直到节点位置+(加法)节点将梯度分开且并不改变梯度大小最
GJCfight
·
2020-07-11 15:08
CV环境
CS231系列课程
operands could not be broadcast together with shapes
今天在对着http://
cs231n
.github.io/python-numpy-tutorial练习matplotlib显示图片的时候,img_tinted=img*[1,0.95,0.9]这条语句就出错了
子衿_青青
·
2020-07-11 15:39
数据分析
not
be
broadcast
python广播
Python容器和 Numpy库基础
Python容器和Numpy库基础这是CS223图像识别的补充的python和Numpy库的基础课程,我稍微做了整理,原文链接:http://
cs231n
.github.io/python-numpy-tutorial
kkpiece2
·
2020-07-11 10:15
Python
机器学习基础
斯坦福
cs231n
学习笔记(8)------神经网络训练细节(数据预处理、权重初始化)
神经网络训练细节系列笔记:神经网络训练细节(激活函数)神经网络训练细节(BatchNormalization)神经网络训练细节(训练过程,超参数优化)这一篇,我们将继续介绍神经网络训练细节。一、DataPreprocessing(数据预处理)如图是原始数据,数据矩阵X有三种常见的数据预处理形式,其中我们假定X的大小为[N×D](N是数据的数量,D是它们的维数)。归一化处理(normalizedda
胡大炮的妖孽人生
·
2020-07-11 08:45
Computer
Vision
CS231n
-lecture2-Image Classification pipeline 课堂笔记
CS231n
-lecture2-ImageClassificationpipeline课堂笔记---恢复内容开始---相关资源EventTypeDateDescriptionCourseMaterialsLecture2ThursdayApril6ImageClassificationThedata-drivenapproachK-nearestneighborLinearclassificati
西城区捕鱼达人
·
2020-07-11 06:20
CS231n
系列课程Lecture9: Understanding and Visualizing Convolutional Neural Networks
贴出第九课的视频链接:http://pan.baidu.com/s/1kVOGFg7密码:b3bx,小伙伴有兴趣还是可以下载视频和PPT再进行仔细研究的,LZ学识有限对于有些方面理解不是很透彻,如果有理解不正确的地方还是请小伙伴们指正。这节可主要讲的是对于神经网络方面的理解和可视化,所以是很酷炫的一节课,可以看到许许多多有趣的图片。理解卷积神经网络也是个大门类,也没有想象中的那么简单。本节可主要会
Felaim
·
2020-07-10 21:43
深度学习
CS231n
系列课程Lecture4:Backpropagation and Neural Networks(part 1)
先贴出课程链接:http://pan.baidu.com/s/1cBznv4密码:7nbg课程开始回顾了一下得分函数,SVMloss,dataloss+regularization,还有optimization,常用的方法就是GradientDescent,梯度下降,数值梯度存在速度慢,求得的是近似解的问题,但是代码比较好写。解析梯度使用的是微积分的方法,速度快,很精确,但是代码稍微复杂一些。通常
Felaim
·
2020-07-10 21:11
深度学习
CS231n
系列课程Lecture 7: Convolutional Neural Networks
贴出课程PPT和视频链接:https://pan.baidu.com/s/1c2H2k9a密码:ye4nConvolutionLayer(卷积层)哈哈,先贴出张卷积层的工作原理图。假设我们接收到的图片式32×32×3的图片,长为32,宽为32,3代表是rgb三通道,右侧有个小长方体,尺寸为5×5×3,5×5代表的是卷积核的大小,有些时候也称卷积核为滤波器,这些说法都是通用的,值得注意的是卷积核的第
Felaim
·
2020-07-10 21:11
深度学习
Python初学者(day one)
网站如下:http://vision.stanford.edu/teaching/
cs231n
/index.html有兴趣的小伙伴也可去看看。转载请说明出处1.Python是一门高级动态类型
AnnaRose0226
·
2020-07-10 20:25
cs231n
课程笔记:线性分类
笔记参考:https://zhuanlan.zhihu.com/p/20894041?refer=intelligentunit感谢原作者的翻译!!非原创,禁止转载本文内容列表:线性分类器简介1.1引出(KNN的不足)1.2概述线性评分函数2.1从图像到标签分值的参数化映射2.2线性分类器理解线性分类器3.1将图像看做高维度的点3.2将线性分类器看做模板匹配3.3偏差和权重的合并技巧3.4图像数据
spectre_hola
·
2020-07-10 19:12
CS231n
_python_numpy
(1)np.max:(a,axis=None,out=None,keepdims=False)求序列的最值最少接收一个参数axis:默认为列向(也即axis=0),axis=1时为行方向的最值;np.maximum:(X,Y,out=None)X与Y逐位比较取其大者;最少接收两个参数(2)np.random.randint(4,size=10)随机生成10个0~3之间的整数(3)np.nditer
吴归远
·
2020-07-10 13:45
深度学习总结——
CS231n
课程深度学习(机器视觉相关)笔记整理
深度学习笔记整理说明基本知识点一:模型的设置(基本)1.激活函数的设置2.损失函数的设置(1)分类问题(2)属性问题(3)回归问题3.正则化方式的设置(1)损失函数添加正则化项(2)最大范式约束(3)随机失活4.参数更新方式(1)梯度下降的更新方式(2)学习率的更新方式基本知识点二:模型的训练(基本)1.训练之前(1)数据预处理(2)权重初始化(3)合理性检查2.训练之中(1)梯度检查(2)检查整
Jichao_Peng
·
2020-07-10 11:30
深度学习
从神经网络到卷积神经网络的了解
提供的材料是
CS231n
PS:才发现有翻译,真真好人,我真真浪费时间t-TPPS:再也不干像一句一句翻译这么笨蛋的方法了。学习还是理解为主。以下仅为总结摘抄的笔记。仅供自己学习与回忆。
Labanan
·
2020-07-10 05:19
UTS
技术
Neural Networks Part 1:Setting up the Architecture
原文地址:http://
cs231n
.github.io/neural-networks-1/####################################内容列表:1.快速介绍(Quickintrowithoutbrainanalogies
编号1993
·
2020-07-10 04:49
机器学习
python
Image Classification: Data-driven Approach, k-Nearest Neighbor, train/val/test splits
原文地址:http://
cs231n
.github.io/classification/#########################################################
编号1993
·
2020-07-10 04:17
python
机器学习
cs231n
spring 2017 lecture16 Adversarial Examples and Adversarial Training
(没太听明白,以后再听)1.如何欺骗神经网络?这部分研究最开始是想探究神经网络到底是如何工作的。结果人们意外的发现,可以只改变原图一点点,人眼根本看不出变化,但是神经网络会给出完全不同的答案。比如下图,左边的熊猫被识别成熊猫,但是加上中间的小“噪音”一样的数值,右图的熊猫就识别不出来了。而且这个小“噪音”不是随机的,它更像是offset,是某种系统误差,叠加到图片上去,总是可以欺骗神经网络。2.神
weixin_30779691
·
2020-07-08 14:14
[机器学习] Coursera ML笔记 - 监督学习(Supervised Learning) - Representation
引言机器学习栏目记录我在学习MachineLearning过程的一些心得笔记,涵盖线性回归、逻辑回归、Softmax回归、神经网络和SVM等等,主要学习资料来自UFLDLTutorial、CourseraML和
CS231n
WangBo_NLPR
·
2020-07-08 12:59
机器学习
Stanford
CS231n
深度学习与视觉-1学习笔记
学习感想斯坦福的
CS231n
课程主要是介绍深度学习(特指卷积神经网络算法)在计算机视觉领域的应用。
txlCandy
·
2020-07-08 08:33
深度学习
cs231n
作业:assignment1 - svm
title:‘
cs231n
作业:assignment1-svm’id:
cs231n
-1h-2tags:
cs231n
homeworkcategories:AIDeepLearningdate:2018-09
zjufangzh
·
2020-07-08 05:35
人工智能
cs231n
作业:assignment1 - two_layer_net
github地址:https://github.com/ZJUFangzh/
cs231n
个人博客:fangzh.top搭建一个两层的神经网络。
zjufangzh
·
2020-07-08 05:35
人工智能
cs231n
作业:assignment1 - knn
title:
cs231n
作业:assignment1-knnid:
cs231n
-1h-1tags:
cs231n
homeworkcategories:AIDeepLearningdate:2018-09-
zjufangzh
·
2020-07-08 05:34
人工智能
第十一期 使用 Tensorflow 实现物体检测 《显卡就是开发板》
的博客AnnotatingLargeDatasetswiththeTensorFlowObjectDetectionAPI2.物体识别概述关于ObjectDection理论说起来太复杂了,可以自行参考
CS231n
aggresss
·
2020-07-07 02:45
显卡就是开发板
[机器学习] Coursera ML笔记 - 逻辑回归(Logistic Regression)
过程的一些心得笔记,涵盖线性回归、逻辑回归、Softmax回归、神经网络和SVM等等,主要学习资料来自StandfordAndrewNg老师在Coursera的教程以及UFLDLTutorial,Stanford
CS231n
WangBo_NLPR
·
2020-07-06 18:23
机器学习
机器学习
逻辑回归
LogisticRe
CS231n
学习笔记--16. Adversarial Examples and Adversarial Training
OverviewWhatareadversarialexamples?Whydotheyhappen?Howcantheybeusedtocompromisemachinelearningsystems?Whatarethedefenses?Howtouseadversarialexamplestoimprovemachinelearning,evenwhenthereisnoadversary1
Kuekua-seu
·
2020-07-06 18:24
深度学习
CS231n学习笔记
全球名校课程作业分享系列(6)--斯坦福计算机视觉与深度学习
CS231n
之神经网络细解与优化尝试
课程作业原地址:
CS231n
Assignment1作业及整理:编写:@土豆&&@郭承坤&&@寒小阳时间:2018年2月。
寒小阳
·
2020-07-06 10:21
机器学习/数据挖掘
计算机视觉
cs231n
:assignment2——Q4: ConvNet on CIFAR-10
视频里AndrejKarpathy上课的时候说,这次的作业meatybuteducational,确实很meaty,作业一般是由.ipynb文件和.py文件组成,这次因为每个.ipynb文件涉及到的.py文件较多,且互相之间有交叉,所以每篇博客只贴出一个.ipynb或者一个.py文件.(因为之前的作业由于是一个.ipynb文件对应一个.py文件,所以就整合到一篇博客里)还是那句话,有错误希望帮我指
Ruff_XY
·
2020-07-06 09:14
深度学习
cs231n
计算机视觉
2017
CS231n
学习笔记——计算机视觉的概述
本节课主要讲述了
cs231n
课程的背景和计算机视觉的历史,也主要介绍了目前很重要的一个计算机视觉数据集——IMAGENET。
weixin_33982670
·
2020-07-05 23:24
基于Pytorch实现网络可视化(
CS231n
assignment3)
这篇博客主要是对
CS231n
assignment3中的网络可视化部分进行整理。我使用的是Pytorch框架完成的整个练习,但是和Tensorflow框架相比只是实现有些不一样而已,数学原理还是一致的。
小石学CS
·
2020-07-05 11:50
神经网络
小石的机器学习专栏
CNN笔记(
CS231N
)——网络可视化与理解(Visualizing and Understanding)
网络可视化与理解神经网络对于我们来说就像一个黑盒子,我们有一对输入输出就能对网络进行训练,而不知道内部究竟发生了什么,于是一些研究者开始研究网络内部究竟学习到了什么特征。以下就是一些常用的网络在第一层的卷积核,代表在输入图像中寻找类似的特征,例如边、角、特定方向的线等等由于网络第一层的卷积核深度是3维的,因此我们可以将其作为RGB图来看待,而对于深层的网络,卷积核深度不止是3维,那么我们只能将其作
Veropatrinica
·
2020-07-05 11:02
CNN
TypeError: slice indices must be integers or None or have an __index__ method解决方案
在做
cs231n
的assignment1时遇到了,查了一下,主要是由numpy1.11.0以上版本不支持浮点数作为索引造成的.问题主要出在ExtractFeatures模块,根据错误提示去
cs231n
文件夹下的
旺旺小黑狗
·
2020-07-05 08:33
CS231n
_Lecture1_计算机视觉概述、计算机视觉历史背景
来自https://blog.csdn.net/xiaoqu001/article/details/79350364斯坦福大学的
CS231n
课程的主要内容是计算机视觉(computervision),或者说是图像识别
快乐成长吧
·
2020-07-05 06:13
CS231n
上一页
14
15
16
17
18
19
20
21
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他