E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231N
全网最简单易懂且最综合的Python Numpy新手教程
最近看到一个英文网页写的颇有大家风范,特意翻译下来与大家共赏,也做自己以后的参考之用,原网页在:http://
cs231n
.github.io/python-numpy-tutorial/#numpy。
亲亲Friends
·
2022-11-23 12:37
Python
MATLAB
机器学习
python
numpy
cs231n
assignment1:KNN/SVM/Softmax/Two_layer_net
一、knn:1.knn.py中实现a.分别用双重循环、单重循环和不使用循环实现欧式距离公式公式:双重循环:defcompute_distances_two_loops(self,X):"""ComputethedistancebetweeneachtestpointinXandeachtrainingpointinself.X_trainusinganestedloopoverboththetra
肉鸡小龙
·
2022-11-23 03:42
cs231n学习笔记
深度学习算法
KNN
SVM
Softmax
Two_layer_net
CS231n
学习笔记--4.Backpropagation and Neural Networks
1.损失函数其中SVM损失函数计算的是不正确分类的得分惩罚,即Syi是正确分类结果的得分,Sj是错误分类结果的得分,超参数(1)度量正确分类得分的优越性。2.简单损失函数流程图:3.求解损失函数的梯度矩阵其中,绿色数值代表前向网络中的实际值,红色数值代表反向神经网络得到的梯度值。4.常见的激活函数sigmoid有点落伍了(fallenoutoffavoranditisrarelyeverused)
Kuekua-seu
·
2022-11-23 03:38
深度学习
CS231n学习笔记
深度学习
神经网络
Stanford-
CS231n
-assignment1-SVM及向量化梯度详解
首先贴代码,后面会着重讲解SVM的向量化求梯度,Q2.Linear_SVM.pyfrombuiltinsimportrangeimportnumpyasnpfromrandomimportshufflefrompast.builtinsimportxrangedefsvm_loss_naive(W,X,y,reg):"""StructuredSVMlossfunction,naiveimpleme
不跑步就等肥
·
2022-11-23 03:05
Deep
Learning
CS231n
笔记--图片线性分类
目录图像分类面临的问题MachineLearning:Data-DrivenApproachK-NearestNeighbor原理代码结果L1与L2距离应用情况数据集的划分cross-validationLinearClassifier模型实际意义对权重矩阵的解释对bias的处理损失函数SVMloss代码SoftmaxclassifierSoftmaxvs.SVM图像分类面临的问题Viewpoint
iwill323
·
2022-11-23 03:32
CS231n笔记
分类
python
机器学习
【
CS231n
】Softmax浅谈 + Softmax代码实现
1.Softmax1.1Softmax概要Softmax分类器可以认为是在SVM分类器的基础上做了一些改进,SVM的输出为对于一张image在各个类别上面的评分,因为没有明确的参照,所以很难直接解释。而Softmax则不同,Softmax将对于一张image在各个类别上面的评分看作为归一化的对数概率,概率给了我们明确的参照,我们可以认为这张image应该认为是概率最高所对应的类别。1.2Softm
我是一只计算鸡
·
2022-11-23 03:31
CS231n
Softmax
Softmax微分
Softmax代码实现
《Deep Learning for Computer Vision withPython》阅读笔记-StarterBundle(第8 - 9章)
从本章开始将仅记录书中的重点内容翻译并记录,供日后复习使用8.参数化学习本章的大部分灵感来自AndrejKarpathy在斯坦福
cs231n
课堂中出色的线性分类注释[74]。
Dream_WLB
·
2022-11-22 09:38
研0基础沉淀
计算机视觉
深度学习
人工智能
Numpy实现大矩阵减去小矩阵的方便运算
把一个向量加到矩阵的每一行:调用numpy库完成cs231作业1,numpy参考知乎
CS231n
课程笔记翻译:PythonNumpy教程使用一重循环#Wewilladdthevectorvtoeachrowofthematrixx
brightendavid
·
2022-11-22 07:28
numpy
python
CS231n
两层神经网络反向传播实现
今天写了
cs231n
作业1的两层神经网络的部分,听视频和看讲义的时候觉得挺简单的没在意,后来真正写的时候发现了问题,而且也领悟到了新的东西,反向传播代码实现的奥妙之处。
hmsjdzzj
·
2022-11-21 09:04
机器学习ML
&
DL
python
机器学习
机器学习/深度学习资源下载合集(持续更新...)
文章首发于Github,若下载资源请跳转Github.文章目录1.视频:1.1.吴恩达老师机器学习课程:1.2.吴恩达深度学习课程:1.3.斯坦福
CS231n
:ConvolutionalNeuralNetw
强劲九
·
2022-11-20 22:59
译智社
人工智能
人工智能
深度学习
机器学习
自然语言处理
卷积神经网络笔记
斯坦福
CS231n
课程确实很好,学了有两三遍,每次都有不一样的收获,理解的也更深刻。这里把自己觉得重要的东西记录下来,以加深印象,同时便于查阅。
yanduo2594
·
2022-11-20 22:15
卷积层
汇聚层
全连接层
卷积神经网络
AlexNet网络结构参数计算
文章目录前言一、CNN网络性能参数计算方法二、简化AlexNet网络参数计算二、真实的AlexNet网络参数计算总结前言
CS231n
中详细介绍了AlexNet网络结构,又参考了EECS498-007/598
不想生产学术垃圾
·
2022-11-20 22:43
CV
深度学习
cnn
网络
CS231n
课程(笔记内容 by Aries.Y)
图像分类图像分类的任务,就是对于一个给定的图像,预测它属于的那个分类标签(或者给出属于一些列不同标签的可能性)好的图像分类模型能够在维持分类结论稳定的同时,保持堆类间差异足够敏感数据驱动的方法就是像教小孩子看图识物一样:给计算机很多数据,然后实现学习算法,让计算机学习到每个类的外形图像分类的流程大致分为:输入:输入是包含N个图像的集合,每个图像的标签是K种分类标签中的一种。这个集合称为训练集学习:
大白羊_Aries
·
2022-11-20 22:06
MILVLG
计算机视觉
神经网络
深度学习
cs231n
-梯度下降及在线性分类器的应用
梯度下降法梯度下降法数值梯度分析梯度svmlossSoftmaxloss梯度检验mini-batch梯度下降如果学过最优化,那么就知道梯度下降法是最简单的一种函数求极小的方法,也成为最速下降法,过程如下,首先选取一个初始位置,计算当前位置下的函数的梯度,然后按照负梯度方向走一个步长的距离,重新在当前点计算梯度并走一个负梯度方向的步长,迭代当前过程直到收敛.过程可以用下图表示:还是举一个图片分类的例
zhixuhao
·
2022-11-20 15:33
cs231n
梯度下降法
svm
softmax
线性分类器
cs231n
cs231n
学习记录-理解线性分类器
分类器的缺点二、什么是线性分类器三、线性分类器的原理四、从图像到标签分值的参数化映射五:解释这个“b”六、将线性分类器看做模板匹配七、结尾前言:学习内容是斯坦福大学的《面向计算机视觉的卷积神经网络》课程,课程代码
cs231n
法拉不会飞
·
2022-11-20 15:32
学习
CS231n
-2017 第2讲 图像分类:KNN与线性分类
一.图像分类概述难点(1)ViewPointVariation:拍摄视角。(2)Illumination:光照。(3)Deformation:变形。(4)Occlusion:遮挡。(5)BackgroundClutter:背景干扰。(6)IntraclassVariation:同类事物的差异化。上述困难导致无法通过硬编码规则对图像达到良好的分类效果。而机器学习的方法,则是一种数据驱动的方法。其主要
suredied
·
2022-11-20 15:32
CS231n
CS231n
斯坦福
李飞飞
计算机视觉
cs231n
-线性分类器
cs231n
-线性分类器
cs231n
-线性分类器线性可分与不可分线性分类器线性可分与不可分分类问题就是根据已知数据集来给未知数据打上标签的过程,根据数据分布的不同,可以找到线性函数所表示的直线或者(超)
zhixuhao
·
2022-11-20 15:32
cs231n
线性分类器
cs231n
图片分类
cs231n
-svm和softmax
cs231n
-svm和softmax
cs231n
-svm和softmax回顾损失函数svm损失函数权值矩阵初始化正则化Softmax损失函数svmvssoftmax总结线性分类器svmsoftmax回顾上一篇我们讲到了线性分类器以及在图像分类当中的应用
zhixuhao
·
2022-11-20 15:32
cs231n
cs231n
svm
softmax
损失函数
线性分类器
cs231n
--p5图像分类-k最邻近算法
title:
cs231n
–p5图像分类-k最邻近算法author:chenzengguangindex_img:/img/knn.webpsticky:0categories:DeepLeanringtags
天热写代码不吹空调
·
2022-11-20 15:31
cs231n学习
算法
分类
人工智能
cs231n
--图像分类-线性分类
cs231n
–图像分类-线性分类[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Wd42dcUm-1655988000277)(C:\Users\86187\AppData
天热写代码不吹空调
·
2022-11-20 15:30
cs231n学习
分类
机器学习
人工智能
【
cs231n
】图像分类-Linear Classification线性分类
【学习自
CS231n
课程】转载请注明出处:http://www.cnblogs.com/GraceSkyer/p/8824876.html之前介绍了图像分类问题。
dhe56357
·
2022-11-20 15:59
人工智能
cs231n
--图像分类-线性分类
title:
cs231n
–图像分类–线性分类author:chenzengguangindex_img:/img/xianxingfenlei.webpsticky:0categories:DeepLeanringtags
天热写代码不吹空调
·
2022-11-20 15:29
cs231n学习
深度学习
计算机视觉
python
cs231n
_2018_lecture09_notes_知名CNN结构分析
这一讲的ppt内容相当之大,主要介绍了几个较为出名的CNN结构。在其他人所作的再整理中也就都是非常简单地介绍了这几个网络,实际上想要深入理解还是需要找出以原paper读读,然后再针对单个网络搜搜看看别人的理解。此处也仅简单概括几个案例,作为后续的学习方向。LeNet-5简单的5层网络,常用于字母识别,结构:input->conv->pool->conv->pool->conv->fc->fc(ou
is_fight
·
2022-11-20 13:55
神经网络
网络结构
cnn
【
CS231n
课程笔记】第八讲-----常见的深度学习框架,以及GPU和CPU介绍。
目录0.写在前面1.CPUVSGPU1.1GPU与CPU的比较1.2性能测试1.3实践中的问题2.深度学习框架2.1计算图思想和深度学习框架2.2tensorflow2.2.1代码分析2.2.2变量保存在计算图中2.2.3变量的更新2.2.5优化器2.2.6tensorboard和分布式运行2.3PyTorch2.3.1代码解析2.3.2张量:2.3.3变量:2.3.4nn结构2.3.5定义nn模
被月亮晒黑_
·
2022-11-20 13:20
图像处理
深度学习
CS231n
【图像识别】卷积神经网络CNN详细概述
参考:https://
cs231n
.github.io/convolutional-networks/目录一基本概念1.1普通神经网络1.2卷积神经网络二卷积神经网络的层2.1卷积层2.1.1概述2.1.2
望天边星宿
·
2022-11-20 05:44
深度学习
卷积
神经网络
卷积神经网络
CS231n
笔记八:CNN经典框架
一、AlexNet二、VGGNetSmallerfilters,Deepernetworks.1、VGGNet中用到的卷积核都是3*3的,尺寸非常小,为何???答:对于三个3*3的卷积核(步长为1),其感受野(effectiverespectivefield)和一个7*7的卷积核是一样的,都是7*7的感受野。但小卷积核可以使网络更深(本来一层7by7layer,现在变成3层3by3layers),
兮兮Cici_Melon
·
2022-11-19 16:43
计算机视觉CS231n
cnn
深度学习
神经网络
计算机视觉
【
CS231n
assignment 2022】Assignment 3 - Part 3,Transformer
orz相关文章目录:【
CS231n
assignment2022】Assignment2-Part1,全连接网络的初始化以及正反向传播【
CS231n
assignment2022】Assignment2-P
睡晚不猿序程
·
2022-11-19 13:04
cs231n学习
transformer
自然语言处理
深度学习
CNN学习笔记——图像分类
CNN学习笔记——图像分类笔记参考来源:
CS231n
课程笔记翻译图像分类笔记1、什么是图像分类对于输入图像,从已有的固定标签集合中找出一个分类标签给该输入图像。
iccc with neee
·
2022-11-19 12:55
CNN学习笔记
CNN
图像分类
CNN学习笔记
CNN学习笔记(1)
2卷积神经网络CNN,基本是入门3基本根据斯坦福的机器学习公开课、
cs231n
、与七月在线寒老师讲的5月dl班所写,4神经网络由大量的神经元相互连接而成人工神经网络ANNArtificialneuralnetworks
沉辰尘_0821
·
2022-11-19 12:50
神经网络
学习
cnn
机器学习
深度学习
深度学习整合资料
1.CS230深度学习吴恩达2.CS229机器学习吴恩达3.
CS231n
讲计算机视觉的,涉及比较多的深度学习,也适合入门https://
cs231n
.github.io/课件网站
weixin_50810484
·
2022-11-19 06:37
笔记
[深度学习基础] 斯坦福
CS231n
李飞飞计算机视觉Lecture 8笔记
内容列表Lecture8SpatialLocalizationandDetection目标检测RegionProposalsR-CNNSPPNetFastR-CNNFasterR-CNNMaskR-CNNYOLO小结Lecture8SpatialLocalizationandDetection目标检测要了解目标检测问题,先要了解图像的分类与定位问题,可以看到下图中,分类与预测一般是同一个网络下,经
gogogo!
·
2022-11-16 07:48
DeepLearning教程
DeepLearning
笔记
计算机视觉
CS231n
6.1激活函数 学习笔记
最小批量梯度下降训练神经网络内容总述准备我们在刚开始要如何建立起神经网络要选择什么样的激活函数怎么做数据预处理权重初始化、正则化和梯度检查动态训练如何监督这个学习过程如何选择参数的特定更新规则怎样做超参数优化从而获取最佳超参数模型评估和模型集成激活函数Sigmoid函数问题:(1)饱和神经元使得梯度消失(2)Sigmoid是一个非零中心的函数当神经元输入始终为正或始终为负时,W将会始终朝着一个方向
江湖小白骗
·
2022-11-15 19:13
CS231n
卷积神经网络——介绍
关于卷积神经网络的讲解,网上有很多精彩文章,且恐怕难以找到比斯坦福的
CS231n
还要全面的教程。
Steven_ycs
·
2022-11-15 13:50
cs231n
--RNN
RNN循环神经网络普通的神经网络会有1个固定的输入维度,经过一系列的隐藏层计算得到一个固定的输出,如不同类别的得分/概率向量。循环神经网络,可以对序列进行建模,有多种不同的输入输出类型:一对一、一对多、多对一、多对多等基本概念RNN会有一个反复出现的小的循环核心单元。RNN在每个timestep进行如下的计算:读取输入->更新隐藏层->基于隐藏层计算得到输出我们在每个timestep都使用同样的方
黄昏贩卖机
·
2022-11-11 10:23
深度学习
rnn
深度学习
神经网络
SVM学习
信息内容借用来源:(38条消息)[
cs231n
]KNN与SVM区别_Rookie’Program的博客-CSDN博客KNNSVM没有训练过程,只是将训练数据与训练
空景 Sadnes╰つ677
·
2022-11-11 08:41
深度学习
支持向量机
学习
cs231n
-Lecture 3: Loss Functions and Optimization
Lecture3:LossFunctionsandOptimizationlossfunctionRegularizationSoftmaxclassifierOptimizationlossfunctionAlossfunctiontellshowgoodourcurrentclassifieris.数据集在分类器中进行计算后,得到yiy_iyi表示了将xix_ixi代入W中进行计算,即代入不同
dyt2022
·
2022-11-10 10:08
支持向量机
机器学习
算法
cs231n
-Lecture12
CS231N
–可视化和理解一、概念定义:可视化的方法可以让我们理解神经网络是如何工作的。不同层的神经网络结果如何,卷积核/滤波器起什么作用。
sun1398
·
2022-11-10 10:07
cs231n
计算机视觉
CS231n
-2017 第12讲 可视化与理解
一、卷积神经网络首层与末层输出的可视化与理解1.首层的输出首层输出的可视化及解释已在第二课中阐述,概述而言,其反应了图像中的边、角、纹理等基础结构特征。2.末层输出卷积神经网络的最后一层输出,为图像的最终用于分类的特征。对于这些特征的解读可从如下角度进行。按照最近邻方法,找出特征相互接近的图片,则可发现特征相近的图片的视觉感受也相近。(呃,这应该归在"显然可见"系列。)使用主成分分析法进行降维展示
suredied
·
2022-11-10 10:07
CS231n
风格迁移
网络可视化
梯度上升法
CS231n
-课程总结
来自斯坦福
CS231n
课程李飞飞主讲我主要是对Notes部分的小总结包括图像基础,神经网络Backprop,卷积层做了基础的了解还有参数的调整,解决过拟合的问题等等0_图像基础1.k-Nearest-Neighber
cuixuange
·
2022-11-10 10:07
强化学习基础
cs231n
课程笔记
CS231n
-2017 第7讲 训练网络(下)
一.优化算法1.随机梯度下降法(SGD)表达式:xt+1=xt−α∇f(xt)x_{t+1}=x_t-\alpha\nablaf(x_t)xt+1=xt−α∇f(xt)缺点:如果损失函数对某一维的参数敏感,而对另一维的参数不敏感,那么容易出现z-形优化路径。图1.z-形优化路径会陷在局部最小值或鞍点附近。对于高维参数空间,出现鞍点的情形要远频繁于出现局部最小值的情形。小批量数据使得优化方向受噪声影
suredied
·
2022-11-10 10:37
CS231n
训练网络
梯度下降算法
正则化
cs231n
-Lecture6
CS231N
–神经网络训练(下)一、精细优化1.SGD的优化问题(1)不同维度梯度问题比如在趋近最优解的维度,梯度下降的慢,而在垂直方式梯度下降的快,梯度下降的和方向在偏离正确方向太远,这样优化过程中逼近最优解速度慢
sun1398
·
2022-11-10 10:36
cs231n
计算机视觉
人工智能
CS231n
-2017 第3讲 损失函数与优化
一.损失函数1.基本概念为了评估现有的模型的好坏,需要一个定量指标。这就是损失函数起作用之处。对于由NN个样本组成的数据集{(xi,yi)}Ni=1{(xi,yi)}i=1N,定义总体损失函数为各个样本造成的损失的平均L=1N∑iLi(f(xi,W),yi)L=1N∑iLi(f(xi,W),yi)2.SVM的损失函数多分类的支持向量损失函数可定义如下:Li=∑j≠yi{0sj−syi+1ifsyi
suredied
·
2022-11-10 10:36
CS231n
CS231n
深度学习
机器视觉
【
cs231n
】正则化
文章目录L2regularizationL1regularizationDropout当训练数据过少、网络复杂或训练过多时,会出现过拟合。在训练集上的准确度不断提高,但在测试集上的准确率不高。为了解决这个问题,就需要在损失函数中加入正则化项,来降低网络的复杂度,提高其泛化能力。L2regularizationL2范数是指向量各元素的平方和然后再求平方根。L2正则化就是在损失函数后加一项Loss+1
JoeYF_
·
2022-11-10 10:06
cs231n
cs231n
----训练神经网络(激活函数、数据预处理、权重初始化、批标准化、超参数优化、正则化、迁移学习)
激活函数sigmoid函数的缺点tanhRelu优点LeakyReluELUMaxout激活函数使用意见数据预处理PCA和白话图片数据的使用意见:通常只做中心化处理,不做标准化方差和PCA、白化权值初始化:具有零均值和1E-2标准偏差的高斯分布批量归一化超参数优化总结优化算法的拓展加入动量项,不易陷入鞍点
骑着蜗牛逛世界
·
2022-11-10 10:35
CS231n计算机视觉
cs231n
-学习笔记-02线性分类(续)
关于多分类SVM和Softmax代码实现本文根据
cs231n
作业1整理而来。
cheertt
·
2022-11-10 10:33
深度学习
cs231n
cs231n
-学习笔记-06训练神经网络
训练神经网络小批随机梯度下降①取一批样本数据②通过网络进行前向传播,得到损失函数③方向传播计算梯度④使用梯度更新参数概览本章内容:①初始化设置激活函数、数据预处理、权重初始哈、正则化、梯度检查②动态训练监控学习率、参数更新、超参数优化③评估整体模型评估第一部分①激活函数(使用relu)②数据预处理(对数据的每个特征都进行零中心化,然后将其数值范围都归一化到[-1,1]范围之内)③权重初始化(使用标
cheertt
·
2022-11-10 10:33
深度学习
cs231n
2022
CS231n
笔记-正则化和优化算法
代码部分:全连接层网络_iwill323的博客-CSDN博客目录正则化问题引出正则化作用L1和L2正则化优化算法随机梯度下降StochasticGradientDescent(SGD)存在的问题SGD+Momentum原理参数处理pytorch中的SGD+MomentumNesterovMomentum原理评价Adagrad原理优缺点RMSproppytorch中的RMSpropAdam公式偏移矫
iwill323
·
2022-11-10 10:32
CS231n笔记
机器学习
人工智能
计算机视觉
cs231n
--CNN 卷积神经网络
CNNConvolutionalNeuralNetworksConvolutionLayerFullyConnnectedLayer全连接层,将一张32323的图像展开成一个向量,然后进行向量的乘法ConvolutionLayer卷积核按照一定的规则在图像上进行滑动,卷积核的深度要和输入居真的深度相同。计算时,使用卷积核和被卷积区域进行点乘,再加上一个biaswTx+bw^Tx+bwTx+b使用一
黄昏贩卖机
·
2022-11-10 10:02
深度学习
cnn
深度学习
神经网络
cs231n
笔记7—优化/正则化/学习迁移
优化1普通更新。最简单的更新形式是沿着负梯度方向改变参数(因为梯度指向的是上升方向,但是我们通常希望最小化损失函数)。假设有一个参数向量x及其梯度dx,那么最简单的更新的形式是:#普通更新x+=-learning_rate*dx2动量(Momentum)更新在这里引入了一个初始化为0的变量v和一个超参数mu。说得不恰当一点,这个变量(mu)在最优化的过程中被看做动量(一般值设为0.9),但其物理意
kingsure001
·
2022-11-10 10:02
深度学习
深度学习
人工智能
机器学习
python
神经网络
cs231n
--正则化与优化
Regularization正则化Optimization优化batch是一次运行的所有数据集,每次只更新一次梯度下降,计算很慢。BGD批梯度下降batchgradientdescentBGD对整个数据总体的loss评估进行参数更新,由于需要扫描完整个数据机才做一次更新,所以收敛速度会很慢输出的结果实际上是对所有的训练样本对W求梯度dw,之后再对所有样本的dw求平均的结果。SGD随机梯度下降由于批
黄昏贩卖机
·
2022-11-10 10:59
深度学习
python
人工智能
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他