E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cs231n
CNN笔记:通俗理解卷积神经网络
2016年07月04日22:17:17阅读数:23408通俗理解卷积神经网络(
cs231n
与5月dl班课程笔记)http://blog.csdn.net/v_july_v/article/details
hellocsz
·
2023-02-05 13:16
CS231N
作业1Two-Layer Neural Network
继承上次作业的softmax计算损失,再额外加个隐藏层1.完成neural_net.py中scores的计算z1=X.dot(W1)+b1a1=np.maximum(0,z1)scores=a1.dot(W2)+b22.完成neural_net.py中loss的计算scores_max=np.max(scores,axis=1,keepdims=True)scores=scores-scores_
努力学习做大佬
·
2023-02-05 09:40
CS231N作业
python
开发语言
numpy
Linux Commands
日常工作Linux下常用的一些命令condainfo--envs/e##检查conda环境condacreate-n
cs231n
python=3.6anaconda##新建名字为“
cs231n
”的conda
年少万兜鍪_b534
·
2023-02-05 08:37
2020
cs231n
作业3 笔记 Generative_Adversarial_Networks_PyTorch
GenerativeAdversarialNetworks论文地址:GenerativeAdversarialNetworks对抗生成网络(GAN)的主要结构包括一个生成器G(Generator)和一个判别器D(Discriminator)。判别器D的目标:对输入的图片正确进行判别为真图片还是假图片。生成器G的目标:生成假图片,但是能让判别器判断为真。所以一方面:要最大化生成器生成的图片被判别为真
cheetah023
·
2023-02-05 07:32
cs231n
神经网络
深度学习
GAN
pytorch
第一天:计算机基础和Openmmlab算法框架
锚框级别)分割(像素级别)语义分割——只需要分类即可实例分割——除了分大类外,类间个体间也作区分关键点检测2.衍生任务图像:人脸检测,图像迁移,人脸关键点检测,视频:辅助剪辑,视频理解3.历史演进详见
CS231n
weixin_46362881
·
2023-02-04 13:23
OpenMMlab实战训练营
算法
计算机视觉
人工智能
计算机视觉基础知识点(根据
cs231n
以及博客内容整理)
1、计算机视觉1.1经典网络https://blog.csdn.net/liuxiao214/article/details/81914743AlexNet(errot15.4%)第一个成功展现出卷积神经网络潜力的网络结构,自从Alexnet之后,卷积神经网络开始迅速发展使用relu而不是sigmoid添加了dropout层提出了数据增强(对原图片进行随机裁剪256x256裁剪为227x227)V
肥肥李
·
2023-02-03 23:03
计算机视觉
“机器视觉+深度学习”进阶步骤
文章目录前言一、StanfordCS221(人工智能原理与技术)二、StanfordCS230(吴恩达深度学习DeepLearning|Autumn2018)三、Stanford
CS231N
(李飞飞计算机视觉课程
weixin_46771530
·
2023-02-03 14:37
计算机视觉
机器学习
人工智能
深度学习
神经网络
深度学习知识点笔记汇总
这段时间把
CS231n
课程作业网站上的知识点文档仔细看了一遍,感觉收获很大。于是后面就花了几天时间翻译、整理、总结这些文档的内容,并贴在CSDN博客上。
zeeq_
·
2023-02-03 13:44
CS231n课程笔记
神经网络
深度学习
人工智能
网络
笔记
计算机视觉算法基础与 OpenMMLab笔记
CS231N
里有讲~专用目标检测vs通用目标检测:你家的猫和猫视觉特征:OpenMMLabopenMMLab算法库基础知识:如何理解Batch:batch就是一批,你作为向量的一组Batch大小是一个超参数
Juli_Eyre
·
2023-02-03 09:13
计算机视觉
2023OpenmmLab实战训练营第一期(一)
计算机视觉及其应用计算机视觉是赋予计算机“看”的能力的学科,研究如何自动理解图像和视频中的内容计算机视觉的应用图像识别、人脸识别自动驾驶、环境感知图像生成、画风迁移视频理解与自动剪辑根据文本描述生成图片计算机视觉学习斯坦福
cs231n
青人子木
·
2023-02-03 08:05
人工智能
计算机视觉
深度学习
神经网络
如何阅读和学习深度学习项目代码
1.基础知识首先,需要保证有一定的深度学习基础知识,吴恩达的深度学习课还有斯坦福大学的
CS231n
都是不错的入门教程,只需要有大学数学的基础就可以看懂。
*pprp*
·
2023-02-02 13:54
知识总结
论文阅读
深度学习
python
人工智能
深度学习
编程语言
cs231n
作业环境搭建
主要参考资料:https://
cs231n
.github.io/assignments2019/assignment1/#option-b-local-development作业环境:window10步骤
ab84878
·
2023-02-02 07:39
深度学习
机器学习
人工智能
python
cs231n
学习之网络参数初始化(4)
前言本文旨在学习和记录,如需转载,请附出处https://www.jianshu.com/p/113246eb8f3b一、网络参数初始化在神经网络训练中,训练最小化损失函数以找到一个最优解。但是,不同的网络初始化可能会产生不同的结果。本节主要探讨不同网络参数初始化的效果。二、网络参数初始化都为0很显然,如果网络参数都初始化为0时,那么所有的神经元都是一样的功能,网络从一开始训练到结束,所有的神经元
Latet
·
2023-02-02 06:02
2020-09-26
CS231n
作业一 两层神经网络 源代码
1、导入头文件importnumpyasnp2、前向传播函数x:包含输入数据的numpy数组,形状为(N,d_1,...,d_k)w:形状为(D,M)的一系列权重b:偏置,形状为(M,)defaffine_forward(x,w,b):out=None#初始化返回值为NoneN=x.shape[0]#重置输入参数X的形状x_row=x.reshape(N,-1)#(N,D)out=np.dot(x
滴答大
·
2023-02-01 19:29
机器学习+Linux学习之路
数学基础与编程基础:*《统计学习方法》李航*《DeepLearning》前面部分有数学原理推导*《机器学习实战》*Tensorflow官方文档资料+《Tensorflow技术解析和实战》简单看看*CS229课程
CS231n
Frank_Zhang2ff
·
2023-02-01 14:44
学习规划
学习规划
cs231n
作业:Assignment1-SVM
defsvm_loss_naive(W,X,y,reg):dW=np.zeros(W.shape)#initializethegradientaszero#computethelossandthegradientnum_classes=W.shape[1]num_train=X.shape[0]loss=0.0foriinrange(num_train):scores=X[i].dot(W)cor
mrcoderrev
·
2023-02-01 11:59
cs231n
CS231N
作业1KNN
对于每一张测试图像,kNN把它与训练集中的每一张图像计算距离,找出距离最近的k张图像.这k张图像里,占多数的标签类别,就是测试图像的类别。1.补充k_nearest_neighbor.py中compute_distances_two_loops方法使用L2距离。#两层循环dists[i,j]=np.sqrt(np.sum(np.square(X[i]-self.X_train[j])))2.实现k
努力学习做大佬
·
2023-02-01 11:28
CS231N作业
python
numpy
CS231N
作业1Softmax
1.完成文件
cs231n
/classifiers/softmax.py中的softmax_loss_naive方法defsoftmax_loss_naive(W,X,y,reg):"""Softmaxlossfunction
努力学习做大佬
·
2023-02-01 11:28
CS231N作业
numpy
python
cs231n
作业:assignment1 - features
GitHub地址:https://github.com/ZJUFangzh/
cs231n
个人博客:fangzh.top抽取图像的HOG和HSV特征。
zjufangzh
·
2023-02-01 11:27
人工智能
cs231n
DeepLearning
CS231n
作业1 SVM+softmax+两层神经网络
大概用了有小半个月的时间断断续续的完成了作业1,因为期间每天都还在读论文,所以进度有些落后,不过做完感觉也是收获颇丰。附上地址http://note.youdao.com/noteshare?id=d9cadbb038e384c738c4bf27fcdec3fa转载于:https://www.cnblogs.com/Qmelbourne/p/8203384.html
weixin_30596343
·
2023-02-01 11:27
数据结构与算法
人工智能
CS231n
作业+代码实践:Assignment1 SVM
MulticlassSupportVectorMachineexercise#Runsomesetupcodeforthisnotebook.from__future__importprint_functionimportrandomimportnumpyasnpfrom
cs231n
.data_utilsimportload_CIFAR10importmatplotlib.pyplotasplt
littlesinway
·
2023-02-01 11:56
cs231n
神经网络
机器学习
深度学习
SVM支持向量机及
cs231n
作业解读
SVM支持向量机为了让自己的
cs231n
学习更加高效且容易复习,特此在这里记录学习过程,以供参考和自我监督。
塔克拉玛干沙漠的卖水小孩
·
2023-02-01 11:56
笔记
svm
机器学习
CS231n
第一次作业_问题1
深度学习第一次作业由于notebook环境的配置较为麻烦,我直接使用pycharm配置本地的python环境完成了
cs231n
课堂的第一次作业任务。
木独
·
2023-02-01 11:52
深度学习
深度学习
cs231n
CS231n
作业之SVM
前面的代码不贴了,还是跟KNN那个作业一样,加载了数据集并且可视化了一下,下面贴出需要我们自己补充的:首先进入svm.ipynb,根据提示转入linear_svm.pydefsvm_loss_naive(W,X,y,reg):dW=np.zeros(W.shape)#initializethegradientaszero#computethelossandthegradientnum_classe
不太冷的莱昂
·
2023-02-01 11:51
CS231n学习
深度学习
机器学习
CS231N
作业1SVM
介绍了一个线性SVM分类器为了使分类器在分类未知样本的时候,鲁棒性更好一点,我们希望正确分类的分数比错误分类分数大得多一点。这就得到了hinge损失函数,即求解线性SVM的损失。上代码1.补充linear_svm.py中的svm_loss_native方法已经给出了loss,需要补充dWdefsvm_loss_naive(W,X,y,reg):"""StructuredSVMlossfunctio
努力学习做大佬
·
2023-02-01 11:21
CS231N作业
人工智能
Day12 #100DaysofMLCoding#
2018825-27今日计划
cs231n
第13节代码新加一个维度img[None]isthesameasimg[np.newaxis,:]np.tile(数组,重复几次)np.repeat(数组,重复几次
MWhite
·
2023-01-31 23:29
cs231n
作业1中的SVM与Softmax
SVM在
cs231n
的作业1中,每个分类器都用loop和非loop方法,或是否直接处理矩阵方法,其中留给我们写的大多都是其中核心内容,所以额外部分我也
倒霉蛋or幸运儿
·
2023-01-30 11:45
使用Google Colab的python教程
原文链接https://
cs231n
.github.io/python-numpy-tutorial/PythonTutorialWithGoogleColab检查python版本!
熊舍尼奥
·
2023-01-29 18:01
笔记
初识图像分类——K近邻法(
cs231n
assignment)
imread‘in‘init.py‘error:(-209:Sizesofinputargumentsdonotmatch)Theoperationisneither‘arrayoparray‘(where
cs231n
非妃是公主
·
2023-01-29 07:11
计算机视觉
分类
人工智能
CS231n
-assignment3-Generative Adversarial Networks (GANs)
什么是GAN?2014年,Goodfellow等人提出了一种生成模型训练方法,简称生成对抗网络(generativeAdversarialNetworks,简称GANs)。在GAN中,我们构建两种不同的神经网络。我们的第一个网络是传统的分类网络,称为鉴别器。我们将训练鉴别器来拍摄图像,并将其分类为真实(属于训练集)或虚假(不存在于训练集)。我们的另一个网络称为生成器,它将随机噪声作为输入,并使用神
Esaka7
·
2023-01-26 03:21
卷积神经网络与视觉识别
算法
机器学习
深度学习
神经网络
生成对抗网络
cs231n
作业:Assignment2-Dropout
defdropout_forward(x,dropout_param):"""Performstheforwardpassfor(inverted)dropout.Inputs:-x:Inputdata,ofanyshape-dropout_param:Adictionarywiththefollowingkeys:-p:Dropoutparameter.Wekeepeachneuronoutpu
mrcoderrev
·
2023-01-21 16:34
cs231n
Cs231n
-assignment 2作业笔记
assignment2assignment2讲解参见:https://blog.csdn.net/BigDataDigest/article/details/79286510http://www.cnblogs.com/daihengchen/p/5765142.html最后一个作业Q5基于Tensorflow和Pytorch,将会需要在GPU上运行。1.softmax_loss:log_prob
weixin_30799995
·
2023-01-21 16:33
人工智能
CS231n
学习笔记--Assignment2/3
1.Assignment21.1全连接神经网络深度学习小白——
CS231n
Assignment2(FC)深度学习笔记8:softmax层的实现1.2卷积神经网络深度学习小白——
CS231n
Assignment2
Kuekua-seu
·
2023-01-21 16:03
深度学习
CS231n学习笔记
深度学习
cs231n
CS231n
-assignment2-Convolutional Networks
卷积网络到目前为止,我们已经使用了深度全连接网络,使用它们探索不同的优化策略和网络架构。全连接网络是一个很好的实验平台,因为它们的计算效率非常高,但实际上所有最先进的结果都使用卷积网络。首先,您将实现在卷积网络中使用的几种层类型。然后,您将使用这些层来训练CIFAR-10数据集上的卷积网络。ln[1]:#Asusual,abitofsetupimportnumpyasnpimportmatplot
Esaka7
·
2023-01-21 16:02
卷积神经网络与视觉识别
python
机器学习
人工智能
深度学习
神经网络
[
CS231n
Assignment 2 #04 ] 卷积神经网络(Convolutional Networks )
文章目录作业介绍1.卷积操作1.1Convolution:Naiveforwardpass1.2Aside:Imageprocessingviaconvolutions1.3.Convolution:Naivebackwardpass2.池化操作2.1Max-Pooling:Naiveforward2.2Max-Pooling:Naivebackward3.更高效率的实现4.Convolution
灵隐寺扫地僧
·
2023-01-21 16:01
#
CS231n
深度学习
【
CS231n
assignment 2022】Assignment 2 - Part 1,全连接网络的初始化以及正反向传播
前言博客主页:睡晚不猿序程⌚首发时间:2022.7.9⏰最近更新时间:2022.8.18本文由睡晚不猿序程原创,首发于CSDN作者是蒻蒟本蒟,如果文章里有任何错误或者表述不清,请tt我,万分感谢!orz文章目录前言1.内容简介2.Fully-Connected-Nets2.1网络初始化2.2损失函数2.2.1前向传播2.2.2反向传播2.3InitialLossandGradientCheck2.
睡晚不猿序程
·
2023-01-21 16:28
cs231n学习
python
深度学习
机器学习
CS231n
课程作业 Assignment Two(二)全连接神经网络(0820)
AssignmentTwo(二)全连接神经网络主要工作为:模块化设计、最优化更新的几种方法一、模块设计在A1中,实现了完全连接的两层神经网络。但功能上不是很模块化,因为损耗和梯度是在单个整体函数中计算的。这对于简单的两层网络是可管理的,但是随着转向更大的模型,这将变得不切实际。理想情况下,期望使用更具模块化的设计来构建网络,以便隔离地实现不同的层类型,然后将它们组合在一起成为具有不同体系结构的模型
阿桥今天吃饱了吗
·
2023-01-20 18:03
计算机视觉
神经网络
CS231n
课程作业 Assignment One(五)两层神经网络分类器(0816)
两层神经网络分类器–NeuralNetwork(2layers)全连接神经网络、单隐藏层一、原理1.1全连接神经网络基础理论见另一篇文章–全连接神经网络1.2损失函数(待完善,想看可留言)二、实现2.1损失函数与求导defloss(self,X,y=None,reg=0.0):"""Computethelossandgradientsforatwolayerfullyconnectedneural
阿桥今天吃饱了吗
·
2023-01-20 18:03
计算机视觉
神经网络
two layer net及
cs231n
作业解读
twolayernet为了让自己的
cs231n
学习更加高效且容易复习,特此在这里记录学习过程,以供参考和自我监督。
塔克拉玛干沙漠的卖水小孩
·
2023-01-20 18:03
笔记
机器学习
python
cs231n
assignment1 Two-Layer Neural Network
此次的作业的目的:了解NN的结构和搭建过程:本次实验的两层NN的结构:相当于使用了ReLu最后一层用softmax得出loss理解backpropagation:其目的是为了求任意函数的导数至于求导过程,在代码中有所体现,首要的是理解推导过程:Coding:如有错误,麻烦指出首先,搭建一个两层的的NN,实现forward和backward,并用简单的数据测试正确性Two-LayerNeuralNe
likyoo
·
2023-01-20 18:33
Machine
Learning
machine
learning
CS231n
-assignment1-two-Layer Neural Network
In[1]:importnumpyasnpimportmatplotlib.pyplotaspltfrom
cs231n
.classifiers.neural_netimportTwoLayerNetfrom
Esaka7
·
2023-01-20 18:33
卷积神经网络与视觉识别
python
深度学习
神经网络
计算机视觉
双层网络(仿射层+ReLu层)
理论部分:2022
Cs231n
笔记-神经网络和反向传播_iwill323的博客-CSDN博客目录导包和处理数据仿射层网络层代码测试ReLu层仿射+ReLuLosslayers:SoftmaxandSVMTwo-layernetworkSGDSolver
iwill323
·
2023-01-20 18:32
CS231n代码
机器学习
算法
python
cs231n
-2022-assignment1#Q4:Two-Layer Neural Network(Part1)
Forward5.ReLUactivation:Backward6.SVMlossandgradient7.Softmaxlossandgradient8.Two-layernetwork¶1.前言本文是李飞飞
cs231n
笨牛慢耕
·
2023-01-20 18:02
深度学习
人工智能
机器学习
深度学习
人工智能
python
分类器
CS231n
课程作业(一) Two-layer Neural Network
神经网络的过程主要就是forwardpropagation和backwardpropagation。forwardpropagationtoevaluatescorefunction&lossfunction,thenbackpropagation对每一层计算loss对W和b的梯度,利用梯度完成W和b的更新。总体过程可以理解为:forward–>backward–>update–>forward–
coder_mckee
·
2023-01-20 18:02
深度学习
深度学习
cs231n
assignment1 two-layer-net
two-layer-net首先完成神经网络对scores和损失函数的计算,其中激活函数使用RELU函数,即max(0,x)函数。neural_net.py的loss()函数#*****STARTOFYOURCODE(DONOTDELETE/MODIFYTHISLINE)*****h1=np.maximum(0,X.dot(W1)+b1)scores=h1.dot(W2)+b2pass#*****E
一叶知秋Autumn
·
2023-01-20 18:02
计算机视觉
CS231N
计算机视觉
2022
CS231n
PPT笔记 - 迁移学习
Indexof/slides/2022一切图片来自官网目录什么是迁移学习为什么要迁移学习迁移学习方式案例导包定义和初始化模型微调模型注意事项什么是迁移学习别人在一个非常大的数据集上训练CNN,然后我们直接使用该模型(全部或部分)结构和参数,用于自己的目标任务为什么要迁移学习对于数据集本身很小(几千张图片)的情况,从头开始训练具有几千万参数的大型神经网络是不现实的,因为越大的模型对数据量的要求越大,
iwill323
·
2023-01-20 18:02
CS231n笔记
迁移学习
深度学习
cs231n
Lecture1 学习笔记
otherthan(用于否定陈述后)除了…以外;嗅觉、听觉的神经网络和鼻子、耳朵的距离较近,但是视觉的神经网络却远离眼睛(大概是在脑后的位置)。视觉系统涉及到了整个大脑50%的神经元。主要视觉皮层在做什么->深度学习的起始知识butthemovementoftakingaslideoutorputtingaslidingdidtheexcitement(让猫看幻灯片很少能激活神经元,但是幻灯片的切
奔腾使者
·
2023-01-19 18:41
深度学习
怎样看pytorch源码最有效?
1.基础知识首先,需要保证有一定的深度学习基础知识,吴恩达的深度学习课还有斯坦福大学的
CS231n
都是不错的入门教程,只需要有大学数学的基础就可以看懂。然后,需要对Linux系统使用有一定的
Tom Hardy
·
2023-01-19 06:13
编程语言
人工智能
深度学习
python
java
CS231n
课程学习笔记(六)——常用的激活函数总结
翻译笔记:https://zhuanlan.zhihu.com/p/21462488?refer=intelligentunit1.Sigmoidσ(x)=1(1+e−x)Sigmoid函数将实数压缩到[0,1]之间,如下图左所示。现在sigmoid函数已经不太受欢迎,实际很少使用了,这是因为它有两个主要缺点:Sigmoid函数饱和使梯度消失,当神经元的激活在接近0或者1时会饱和,在这些区域,梯度
StarCoo
·
2023-01-18 11:32
深度学习
激活函数
深度学习
CS231N
学习笔记(从9到10)
九.介绍神经网络———反向传播
CS231n
课程笔记翻译:反向传播笔记-知乎专栏杜客Source译者注:本文智能单元首发,译自斯坦福
CS231n
课程笔记BackpropNote__,课程教师AndrejKarpathy
garrulousabyss
·
2023-01-18 11:31
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他