E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习相关(cs231n)
cs231n
学习之网络参数初始化(4)
前言本文旨在学习和记录,如需转载,请附出处https://www.jianshu.com/p/113246eb8f3b一、网络参数初始化在神经网络训练中,训练最小化损失函数以找到一个最优解。但是,不同的网络初始化可能会产生不同的结果。本节主要探讨不同网络参数初始化的效果。二、网络参数初始化都为0很显然,如果网络参数都初始化为0时,那么所有的神经元都是一样的功能,网络从一开始训练到结束,所有的神经元
Latet
·
2023-02-02 06:02
2020-09-26
CS231n
作业一 两层神经网络 源代码
1、导入头文件importnumpyasnp2、前向传播函数x:包含输入数据的numpy数组,形状为(N,d_1,...,d_k)w:形状为(D,M)的一系列权重b:偏置,形状为(M,)defaffine_forward(x,w,b):out=None#初始化返回值为NoneN=x.shape[0]#重置输入参数X的形状x_row=x.reshape(N,-1)#(N,D)out=np.dot(x
滴答大
·
2023-02-01 19:29
机器学习+Linux学习之路
数学基础与编程基础:*《统计学习方法》李航*《DeepLearning》前面部分有数学原理推导*《机器学习实战》*Tensorflow官方文档资料+《Tensorflow技术解析和实战》简单看看*CS229课程
CS231n
Frank_Zhang2ff
·
2023-02-01 14:44
学习规划
学习规划
cs231n
作业:Assignment1-SVM
defsvm_loss_naive(W,X,y,reg):dW=np.zeros(W.shape)#initializethegradientaszero#computethelossandthegradientnum_classes=W.shape[1]num_train=X.shape[0]loss=0.0foriinrange(num_train):scores=X[i].dot(W)cor
mrcoderrev
·
2023-02-01 11:59
cs231n
CS231N
作业1KNN
对于每一张测试图像,kNN把它与训练集中的每一张图像计算距离,找出距离最近的k张图像.这k张图像里,占多数的标签类别,就是测试图像的类别。1.补充k_nearest_neighbor.py中compute_distances_two_loops方法使用L2距离。#两层循环dists[i,j]=np.sqrt(np.sum(np.square(X[i]-self.X_train[j])))2.实现k
努力学习做大佬
·
2023-02-01 11:28
CS231N作业
python
numpy
CS231N
作业1Softmax
1.完成文件
cs231n
/classifiers/softmax.py中的softmax_loss_naive方法defsoftmax_loss_naive(W,X,y,reg):"""Softmaxlossfunction
努力学习做大佬
·
2023-02-01 11:28
CS231N作业
numpy
python
cs231n
作业:assignment1 - features
GitHub地址:https://github.com/ZJUFangzh/
cs231n
个人博客:fangzh.top抽取图像的HOG和HSV特征。
zjufangzh
·
2023-02-01 11:27
人工智能
cs231n
DeepLearning
CS231n
作业1 SVM+softmax+两层神经网络
大概用了有小半个月的时间断断续续的完成了作业1,因为期间每天都还在读论文,所以进度有些落后,不过做完感觉也是收获颇丰。附上地址http://note.youdao.com/noteshare?id=d9cadbb038e384c738c4bf27fcdec3fa转载于:https://www.cnblogs.com/Qmelbourne/p/8203384.html
weixin_30596343
·
2023-02-01 11:27
数据结构与算法
人工智能
CS231n
作业+代码实践:Assignment1 SVM
MulticlassSupportVectorMachineexercise#Runsomesetupcodeforthisnotebook.from__future__importprint_functionimportrandomimportnumpyasnpfrom
cs231n
.data_utilsimportload_CIFAR10importmatplotlib.pyplotasplt
littlesinway
·
2023-02-01 11:56
cs231n
神经网络
机器学习
深度学习
SVM支持向量机及
cs231n
作业解读
SVM支持向量机为了让自己的
cs231n
学习更加高效且容易复习,特此在这里记录学习过程,以供参考和自我监督。
塔克拉玛干沙漠的卖水小孩
·
2023-02-01 11:56
笔记
svm
机器学习
CS231n
第一次作业_问题1
深度学习第一次作业由于notebook环境的配置较为麻烦,我直接使用pycharm配置本地的python环境完成了
cs231n
课堂的第一次作业任务。
木独
·
2023-02-01 11:52
深度学习
深度学习
cs231n
CS231n
作业之SVM
前面的代码不贴了,还是跟KNN那个作业一样,加载了数据集并且可视化了一下,下面贴出需要我们自己补充的:首先进入svm.ipynb,根据提示转入linear_svm.pydefsvm_loss_naive(W,X,y,reg):dW=np.zeros(W.shape)#initializethegradientaszero#computethelossandthegradientnum_classe
不太冷的莱昂
·
2023-02-01 11:51
CS231n学习
深度学习
机器学习
CS231N
作业1SVM
介绍了一个线性SVM分类器为了使分类器在分类未知样本的时候,鲁棒性更好一点,我们希望正确分类的分数比错误分类分数大得多一点。这就得到了hinge损失函数,即求解线性SVM的损失。上代码1.补充linear_svm.py中的svm_loss_native方法已经给出了loss,需要补充dWdefsvm_loss_naive(W,X,y,reg):"""StructuredSVMlossfunctio
努力学习做大佬
·
2023-02-01 11:21
CS231N作业
人工智能
Day12 #100DaysofMLCoding#
2018825-27今日计划
cs231n
第13节代码新加一个维度img[None]isthesameasimg[np.newaxis,:]np.tile(数组,重复几次)np.repeat(数组,重复几次
MWhite
·
2023-01-31 23:29
通俗理解神经网络BP传播算法
在学习
深度学习相关
知识,无疑都是从神经网络开始入手,在神经网络对参数的学习算法bp算法,接触了很多次,每一次查找资料学习,都有着似懂非懂的感觉,这次趁着思路比较清楚,也为了能够让一些像我一样疲于各种查找资料
忆臻
·
2023-01-31 15:11
机器学习与深度学习算法
通俗理解神经网络BP传播算法
强化学习学习资源
一、
深度学习相关
《深度学习》(IanJ.Goodfellow等)网址一:《DeepLearning》(深度学习)中文版PDF免费下载下载到的文件有水印,如有更有选择,不建议使用。
Mocode
·
2023-01-31 13:45
深度学习
tensorflow等
深度学习相关
软件安装出现的一些小问题
虽是一些小问题,却困扰我许久。。1,piplist等cmd指令出现类似问题:查找显示不是内部外部指令,也不是可运行程序python中pip的一些安装包没有装,可以单个装,太麻烦,我是直接下载anaconda安装包,这样安装也比较齐全。2,distributed1.21.8requiresmsgpack,whichisnotinstalledcmd运行pipinstallmsgpack3,我是用wi
zhuimengshaonian66
·
2023-01-30 20:49
cs231n
作业1中的SVM与Softmax
SVM在
cs231n
的作业1中,每个分类器都用loop和非loop方法,或是否直接处理矩阵方法,其中留给我们写的大多都是其中核心内容,所以额外部分我也
倒霉蛋or幸运儿
·
2023-01-30 11:45
最基本的25道深度学习面试问题和答案
如果你最近正在参加
深度学习相关
的面试工作,那么这些问题会对你有所帮助。1、什么是深度学习?深度学习涉及获取大量结构化或非结构化数据,并使用复杂算法训练神经网络。
deephub
·
2023-01-30 10:57
深度学习
面试
机器学习
人工智能
神经网络
Pytorch与keras的差别
20220825-在前期,一直是使用keras进行
深度学习相关
的编程,但后来由于学习各种其他源码的缘故,也学习了pytorch的相关方式。
V丶Chao
·
2023-01-29 21:26
深度学习
pytorch
keras
深度学习
使用Google Colab的python教程
原文链接https://
cs231n
.github.io/python-numpy-tutorial/PythonTutorialWithGoogleColab检查python版本!
熊舍尼奥
·
2023-01-29 18:01
笔记
【第一周】深度学习基础
绪论从专家系统到机器学习从传统机器学习到深度学习深度学习的能与不能1.2深度学习概述浅层神经网络:生物神经元到单层感知器,多层感知器,反向传播和梯度消失神经网络到深度学习:逐层预训练,自编码器和受限玻尔兹曼机附:
深度学习相关
概念
Hekiiu
·
2023-01-29 09:00
深度学习
深度学习
人工智能
【深度学习Deep Learning】资料大全
转:【深度学习DeepLearning】资料大全最近在学
深度学习相关
的东西,在网上搜集到了一些不错的资料,现在汇总一下:FreeOnlineBooksDeepLearning66byYoshuaBengio
weixin_33969116
·
2023-01-29 08:13
大数据
java
数据结构与算法
深度学习Pytorch代码框架推荐(入门推荐)
改了模型中的一个组件,跑起来一个新的训练,这时候测试旧模型却发现结果跟原来不一样了;把所有的训练测试代码写在一个文件里,加入各种ifelse,最后一个文件上千行,一个周末没看,回来改一个逻辑要找半天……其实这些情况除了
深度学习相关
的开发
云隐雾匿
·
2023-01-29 07:06
深度学习
NLP
每日学习
深度学习
pytorch
人工智能
初识图像分类——K近邻法(
cs231n
assignment)
imread‘in‘init.py‘error:(-209:Sizesofinputargumentsdonotmatch)Theoperationisneither‘arrayoparray‘(where
cs231n
非妃是公主
·
2023-01-29 07:11
计算机视觉
分类
人工智能
CS231n
-assignment3-Generative Adversarial Networks (GANs)
什么是GAN?2014年,Goodfellow等人提出了一种生成模型训练方法,简称生成对抗网络(generativeAdversarialNetworks,简称GANs)。在GAN中,我们构建两种不同的神经网络。我们的第一个网络是传统的分类网络,称为鉴别器。我们将训练鉴别器来拍摄图像,并将其分类为真实(属于训练集)或虚假(不存在于训练集)。我们的另一个网络称为生成器,它将随机噪声作为输入,并使用神
Esaka7
·
2023-01-26 03:21
卷积神经网络与视觉识别
算法
机器学习
深度学习
神经网络
生成对抗网络
20190822-使用keras预训练模型进行图像识别并利用pyinstaller打包程序为server.exe且启动后在状态栏显示
1.前言目前
深度学习相关
应用的部署还达不到传统程序的方便,尤其一些老旧的桌面应用,如果要进行全部升级难免耗资巨大,因此能简单地将python完成程序能通过打包为服务,然后客户端仅需要添加基于socket
atlantistin
·
2023-01-24 11:01
杂七杂八
打包
pyinstaller
keras
服务
托盘图标
梅飞飞飞的假期学习日记day3
今日通过对深度学习tensorflow库中的模型训练过程的细节进行了重新的理解,自己对深度学习底层框架有了更深的认知能力,确实觉得自己需要再细细过一遍
深度学习相关
的基础内容知识,正所谓语速则不达,加快进度在本月往后推进更新模型权重时
飞呀飞呀飞飞飞
·
2023-01-22 07:00
学习
深度学习
cs231n
作业:Assignment2-Dropout
defdropout_forward(x,dropout_param):"""Performstheforwardpassfor(inverted)dropout.Inputs:-x:Inputdata,ofanyshape-dropout_param:Adictionarywiththefollowingkeys:-p:Dropoutparameter.Wekeepeachneuronoutpu
mrcoderrev
·
2023-01-21 16:34
cs231n
Cs231n
-assignment 2作业笔记
assignment2assignment2讲解参见:https://blog.csdn.net/BigDataDigest/article/details/79286510http://www.cnblogs.com/daihengchen/p/5765142.html最后一个作业Q5基于Tensorflow和Pytorch,将会需要在GPU上运行。1.softmax_loss:log_prob
weixin_30799995
·
2023-01-21 16:33
人工智能
CS231n
学习笔记--Assignment2/3
1.Assignment21.1全连接神经网络深度学习小白——
CS231n
Assignment2(FC)深度学习笔记8:softmax层的实现1.2卷积神经网络深度学习小白——
CS231n
Assignment2
Kuekua-seu
·
2023-01-21 16:03
深度学习
CS231n学习笔记
深度学习
cs231n
CS231n
-assignment2-Convolutional Networks
卷积网络到目前为止,我们已经使用了深度全连接网络,使用它们探索不同的优化策略和网络架构。全连接网络是一个很好的实验平台,因为它们的计算效率非常高,但实际上所有最先进的结果都使用卷积网络。首先,您将实现在卷积网络中使用的几种层类型。然后,您将使用这些层来训练CIFAR-10数据集上的卷积网络。ln[1]:#Asusual,abitofsetupimportnumpyasnpimportmatplot
Esaka7
·
2023-01-21 16:02
卷积神经网络与视觉识别
python
机器学习
人工智能
深度学习
神经网络
[
CS231n
Assignment 2 #04 ] 卷积神经网络(Convolutional Networks )
文章目录作业介绍1.卷积操作1.1Convolution:Naiveforwardpass1.2Aside:Imageprocessingviaconvolutions1.3.Convolution:Naivebackwardpass2.池化操作2.1Max-Pooling:Naiveforward2.2Max-Pooling:Naivebackward3.更高效率的实现4.Convolution
灵隐寺扫地僧
·
2023-01-21 16:01
#
CS231n
深度学习
【
CS231n
assignment 2022】Assignment 2 - Part 1,全连接网络的初始化以及正反向传播
前言博客主页:睡晚不猿序程⌚首发时间:2022.7.9⏰最近更新时间:2022.8.18本文由睡晚不猿序程原创,首发于CSDN作者是蒻蒟本蒟,如果文章里有任何错误或者表述不清,请tt我,万分感谢!orz文章目录前言1.内容简介2.Fully-Connected-Nets2.1网络初始化2.2损失函数2.2.1前向传播2.2.2反向传播2.3InitialLossandGradientCheck2.
睡晚不猿序程
·
2023-01-21 16:28
cs231n学习
python
深度学习
机器学习
深度学习相关
笔记
生成对抗网络监督式学习是指基于大量带有标签的训练集与测试集的机器学习过程,而非监督式学习可以自己从错误中进行学习并降低未来出错的概率。前者的缺点是需要大量标签样本且非常耗时耗力,而后者虽然没有这个问题,但准确率往往比前者低。Goodfellow等人于2014年提出生成对抗网络(GAN),它提供了一种不需要大量标注训练数据就能学习深度表征的方式,可以通过反射传播算法分别更新生成器和判别器以执行竞争性
x5675602
·
2023-01-21 08:16
算法
数学
遥感
英文
CS231n
课程作业 Assignment Two(二)全连接神经网络(0820)
AssignmentTwo(二)全连接神经网络主要工作为:模块化设计、最优化更新的几种方法一、模块设计在A1中,实现了完全连接的两层神经网络。但功能上不是很模块化,因为损耗和梯度是在单个整体函数中计算的。这对于简单的两层网络是可管理的,但是随着转向更大的模型,这将变得不切实际。理想情况下,期望使用更具模块化的设计来构建网络,以便隔离地实现不同的层类型,然后将它们组合在一起成为具有不同体系结构的模型
阿桥今天吃饱了吗
·
2023-01-20 18:03
计算机视觉
神经网络
CS231n
课程作业 Assignment One(五)两层神经网络分类器(0816)
两层神经网络分类器–NeuralNetwork(2layers)全连接神经网络、单隐藏层一、原理1.1全连接神经网络基础理论见另一篇文章–全连接神经网络1.2损失函数(待完善,想看可留言)二、实现2.1损失函数与求导defloss(self,X,y=None,reg=0.0):"""Computethelossandgradientsforatwolayerfullyconnectedneural
阿桥今天吃饱了吗
·
2023-01-20 18:03
计算机视觉
神经网络
two layer net及
cs231n
作业解读
twolayernet为了让自己的
cs231n
学习更加高效且容易复习,特此在这里记录学习过程,以供参考和自我监督。
塔克拉玛干沙漠的卖水小孩
·
2023-01-20 18:03
笔记
机器学习
python
cs231n
assignment1 Two-Layer Neural Network
此次的作业的目的:了解NN的结构和搭建过程:本次实验的两层NN的结构:相当于使用了ReLu最后一层用softmax得出loss理解backpropagation:其目的是为了求任意函数的导数至于求导过程,在代码中有所体现,首要的是理解推导过程:Coding:如有错误,麻烦指出首先,搭建一个两层的的NN,实现forward和backward,并用简单的数据测试正确性Two-LayerNeuralNe
likyoo
·
2023-01-20 18:33
Machine
Learning
machine
learning
CS231n
-assignment1-two-Layer Neural Network
In[1]:importnumpyasnpimportmatplotlib.pyplotaspltfrom
cs231n
.classifiers.neural_netimportTwoLayerNetfrom
Esaka7
·
2023-01-20 18:33
卷积神经网络与视觉识别
python
深度学习
神经网络
计算机视觉
双层网络(仿射层+ReLu层)
理论部分:2022
Cs231n
笔记-神经网络和反向传播_iwill323的博客-CSDN博客目录导包和处理数据仿射层网络层代码测试ReLu层仿射+ReLuLosslayers:SoftmaxandSVMTwo-layernetworkSGDSolver
iwill323
·
2023-01-20 18:32
CS231n代码
机器学习
算法
python
cs231n
-2022-assignment1#Q4:Two-Layer Neural Network(Part1)
Forward5.ReLUactivation:Backward6.SVMlossandgradient7.Softmaxlossandgradient8.Two-layernetwork¶1.前言本文是李飞飞
cs231n
笨牛慢耕
·
2023-01-20 18:02
深度学习
人工智能
机器学习
深度学习
人工智能
python
分类器
CS231n
课程作业(一) Two-layer Neural Network
神经网络的过程主要就是forwardpropagation和backwardpropagation。forwardpropagationtoevaluatescorefunction&lossfunction,thenbackpropagation对每一层计算loss对W和b的梯度,利用梯度完成W和b的更新。总体过程可以理解为:forward–>backward–>update–>forward–
coder_mckee
·
2023-01-20 18:02
深度学习
深度学习
cs231n
assignment1 two-layer-net
two-layer-net首先完成神经网络对scores和损失函数的计算,其中激活函数使用RELU函数,即max(0,x)函数。neural_net.py的loss()函数#*****STARTOFYOURCODE(DONOTDELETE/MODIFYTHISLINE)*****h1=np.maximum(0,X.dot(W1)+b1)scores=h1.dot(W2)+b2pass#*****E
一叶知秋Autumn
·
2023-01-20 18:02
计算机视觉
CS231N
计算机视觉
2022
CS231n
PPT笔记 - 迁移学习
Indexof/slides/2022一切图片来自官网目录什么是迁移学习为什么要迁移学习迁移学习方式案例导包定义和初始化模型微调模型注意事项什么是迁移学习别人在一个非常大的数据集上训练CNN,然后我们直接使用该模型(全部或部分)结构和参数,用于自己的目标任务为什么要迁移学习对于数据集本身很小(几千张图片)的情况,从头开始训练具有几千万参数的大型神经网络是不现实的,因为越大的模型对数据量的要求越大,
iwill323
·
2023-01-20 18:02
CS231n笔记
迁移学习
深度学习
cs231n
Lecture1 学习笔记
otherthan(用于否定陈述后)除了…以外;嗅觉、听觉的神经网络和鼻子、耳朵的距离较近,但是视觉的神经网络却远离眼睛(大概是在脑后的位置)。视觉系统涉及到了整个大脑50%的神经元。主要视觉皮层在做什么->深度学习的起始知识butthemovementoftakingaslideoutorputtingaslidingdidtheexcitement(让猫看幻灯片很少能激活神经元,但是幻灯片的切
奔腾使者
·
2023-01-19 18:41
深度学习
怎样看pytorch源码最有效?
1.基础知识首先,需要保证有一定的深度学习基础知识,吴恩达的深度学习课还有斯坦福大学的
CS231n
都是不错的入门教程,只需要有大学数学的基础就可以看懂。然后,需要对Linux系统使用有一定的
Tom Hardy
·
2023-01-19 06:13
编程语言
人工智能
深度学习
python
java
CS231n
课程学习笔记(六)——常用的激活函数总结
翻译笔记:https://zhuanlan.zhihu.com/p/21462488?refer=intelligentunit1.Sigmoidσ(x)=1(1+e−x)Sigmoid函数将实数压缩到[0,1]之间,如下图左所示。现在sigmoid函数已经不太受欢迎,实际很少使用了,这是因为它有两个主要缺点:Sigmoid函数饱和使梯度消失,当神经元的激活在接近0或者1时会饱和,在这些区域,梯度
StarCoo
·
2023-01-18 11:32
深度学习
激活函数
深度学习
CS231N
学习笔记(从9到10)
九.介绍神经网络———反向传播
CS231n
课程笔记翻译:反向传播笔记-知乎专栏杜客Source译者注:本文智能单元首发,译自斯坦福
CS231n
课程笔记BackpropNote__,课程教师AndrejKarpathy
garrulousabyss
·
2023-01-18 11:31
深度学习
斯坦福
CS231n
课程笔记纯干货2
11.神经网络的数据预处理均值减法(Meansubtraction)是预处理最常用的形式。它对数据中每个独立特征减去平均值,从几何上可以理解为在每个维度上都将数据云的中心都迁移到原点。在numpy中,该操作可以通过代码X-=np.mean(X,axis=0)实现。而对于图像,更常用的是对所有像素都减去一个值,可以用X-=np.mean(X)实现,也可以在3个颜色通道上分别操作。归一化(Normal
marsjhao
·
2023-01-18 11:30
机器学习/深度学习
神经网络
卷积神经网络
CS231n
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他