E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231n深度学习笔记
第一天:计算机基础和Openmmlab算法框架
锚框级别)分割(像素级别)语义分割——只需要分类即可实例分割——除了分大类外,类间个体间也作区分关键点检测2.衍生任务图像:人脸检测,图像迁移,人脸关键点检测,视频:辅助剪辑,视频理解3.历史演进详见
CS231n
weixin_46362881
·
2023-02-04 13:23
OpenMMlab实战训练营
算法
计算机视觉
人工智能
计算机视觉基础知识点(根据
cs231n
以及博客内容整理)
1、计算机视觉1.1经典网络https://blog.csdn.net/liuxiao214/article/details/81914743AlexNet(errot15.4%)第一个成功展现出卷积神经网络潜力的网络结构,自从Alexnet之后,卷积神经网络开始迅速发展使用relu而不是sigmoid添加了dropout层提出了数据增强(对原图片进行随机裁剪256x256裁剪为227x227)V
肥肥李
·
2023-02-03 23:03
计算机视觉
深度学习入门--基于Python的理论与实现
深度学习笔记
(一)第1章Python入门NumPy是用于数值计算的库,提供了很多高级的数学算法和便利的数组(矩阵)操作方法。Matplotlib是用来画图的库。
Tiramisu66
·
2023-02-03 18:01
菜鸟的学习笔记
深度学习
Python
“机器视觉+深度学习”进阶步骤
文章目录前言一、StanfordCS221(人工智能原理与技术)二、StanfordCS230(吴恩达深度学习DeepLearning|Autumn2018)三、Stanford
CS231N
(李飞飞计算机视觉课程
weixin_46771530
·
2023-02-03 14:37
计算机视觉
机器学习
人工智能
深度学习
神经网络
深度学习笔记
深度学习笔记
前言学习内容什么是深度学习?
枫楠Kuiy
·
2023-02-03 13:44
深度学习笔记
深度学习
机器学习
人工智能
深度学习知识点笔记汇总
这段时间把
CS231n
课程作业网站上的知识点文档仔细看了一遍,感觉收获很大。于是后面就花了几天时间翻译、整理、总结这些文档的内容,并贴在CSDN博客上。
zeeq_
·
2023-02-03 13:44
CS231n课程笔记
神经网络
深度学习
人工智能
网络
笔记
2021年李宏毅机器/
深度学习笔记
持续更新中......
https://gitee.com/codingWang1/machineLearning/tree/master/https://github.com/wangyu-debug/-欢迎交流指正
9377_
·
2023-02-03 13:43
李宏毅机器学习
深度学习
计算机视觉算法基础与 OpenMMLab笔记
CS231N
里有讲~专用目标检测vs通用目标检测:你家的猫和猫视觉特征:OpenMMLabopenMMLab算法库基础知识:如何理解Batch:batch就是一批,你作为向量的一组Batch大小是一个超参数
Juli_Eyre
·
2023-02-03 09:13
计算机视觉
2023OpenmmLab实战训练营第一期(一)
计算机视觉及其应用计算机视觉是赋予计算机“看”的能力的学科,研究如何自动理解图像和视频中的内容计算机视觉的应用图像识别、人脸识别自动驾驶、环境感知图像生成、画风迁移视频理解与自动剪辑根据文本描述生成图片计算机视觉学习斯坦福
cs231n
青人子木
·
2023-02-03 08:05
人工智能
计算机视觉
深度学习
神经网络
深度学习笔记
(三十六)1x1卷积(网络中的网络)及谷歌Inception网络
提到1x1卷积,能想到什么?我能想到的就是把图像中每个像素点乘以某个倍数,这除了调整图像亮度什么的有用,还能有什么用处呢?带着疑惑我们来学习网络中的网络及1x1卷积。学习了1x1卷积后,我们开始接触谷歌Inception网络结果,通过1x1卷积的方式大幅度降低运算量。一、1x1卷积(网络中的网络)放在二维图像中,1x1卷积确实是这么个用处。而放在三维图像中,会显得非常实用。最终的结果是:高和宽的维
Mr.zwX
·
2023-02-03 08:33
【深度学习/神经网络】Deep
Learning
深度学习笔记
(十一):各种特征金字塔合集
文章目录FPNPANBiFPNFPN#Modification2020RangiLyu#Copyright2018-2019Open-MMLab.#LicensedundertheApacheLicense,Version2.0(the"License");#youmaynotusethisfileexceptincompliancewiththeLicense.#Youmayobtainacop
ZZY_dl
·
2023-02-03 08:01
深度学习
python
FPN
学习笔记
源
如何阅读和学习深度学习项目代码
1.基础知识首先,需要保证有一定的深度学习基础知识,吴恩达的深度学习课还有斯坦福大学的
CS231n
都是不错的入门教程,只需要有大学数学的基础就可以看懂。
*pprp*
·
2023-02-02 13:54
知识总结
论文阅读
深度学习
python
人工智能
深度学习
编程语言
深度学习笔记
—— 物体检测和数据集 + 锚框
任务:识别我们所有感兴趣的物体,同时将每个物体的位置找出来importtorchfromd2limporttorchasd2limportmatplotlib.pyplotaspltd2l.set_figsize()img=d2l.plt.imread('./img/catdog.jpg')d2l.plt.imshow(img)plt.show()#定义在这两种表示之间进行转换的函数defbox_
Whisper_yl
·
2023-02-02 08:45
#
深度学习
深度学习
深度学习笔记
----数据增强
在5.6节(深度卷积神经网络)里我们提到过,大规模数据集是成功应用深度神经网络的前提。图像增广(imageaugmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。图像增广的另一种解释是,随机改变训练样本可以降低模型对某些属性的依赖,从而提高模型的泛化能力。例如,我们可以对图像进行不同方式的裁剪,使感兴趣的物体出现在不同位置,从而减轻模型
Agetha
·
2023-02-02 08:44
深度学习
深度学习笔记
(3)-pytorch模型训练流程&实现小GPU显存跑大Batchsize
近期在进行pytorch模型的训练,对pytorch的流程进行一次简单梳理作为笔记。此外,由于GPU显存有限,数据的Batchsize一般只能到2,而相关资料显示较大的Batchsize有利于提高模型训练效果,经查阅资料,找到通过梯度累加的方式来等效增大Batchsize。一、pytorch模型训练流程在用pytorch训练模型时,通常会在遍历epochs的过程中依次用到optimizer.zer
高不胖
·
2023-02-02 07:48
深度学习
人工智能
神经网络
cs231n
作业环境搭建
主要参考资料:https://
cs231n
.github.io/assignments2019/assignment1/#option-b-local-development作业环境:window10步骤
ab84878
·
2023-02-02 07:39
深度学习
机器学习
人工智能
python
cs231n
学习之网络参数初始化(4)
前言本文旨在学习和记录,如需转载,请附出处https://www.jianshu.com/p/113246eb8f3b一、网络参数初始化在神经网络训练中,训练最小化损失函数以找到一个最优解。但是,不同的网络初始化可能会产生不同的结果。本节主要探讨不同网络参数初始化的效果。二、网络参数初始化都为0很显然,如果网络参数都初始化为0时,那么所有的神经元都是一样的功能,网络从一开始训练到结束,所有的神经元
Latet
·
2023-02-02 06:02
动手学
深度学习笔记
(二)
从零开始写多层感知机多层感知机本节中,我们将以多层感知机(multilayerperceptron,简称MLP)为例,介绍多层神经网络的概念。importsyssys.path.insert(0,'..')importgluonbookasgbbatch_size=256train_data,test_data=gb.load_data_fashion_mnist(batch_size)隐藏层多层
文武_665b
·
2023-02-02 04:36
深度学习笔记
(十四)—— 超参数优化[Hyperparameter Optimization]
这是
深度学习笔记
第十四篇,完整的笔记目录可以点击这里查看。 训练神经网络会涉及到许多超参数设置。
zeeq_
·
2023-02-01 20:47
CS231n课程笔记
算法
深度学习
人工智能
python
李宏毅
深度学习笔记
(各种优化方法)
主要思路有两种:固定学习率和动态变化学习率固定学习率:代表算法SGD,SGDM(SGDwithMomentum)动量梯度下降法SGD最大的缺点是下降速度慢,而且可能会在沟壑的两边持续震荡,停留在一个局部最优点。为了抑制SGD的震荡,SGDM认为梯度下降过程可以加入惯性。下坡的时候,如果发现是陡坡,那就利用惯性跑的快一些。SGDM全称是SGDwithmomentum,在SGD基础上引入了一阶动量mt
在水一方_果爸
·
2023-02-01 20:09
深度学习
机器学习
人工智能
深度学习笔记
(MNIST手写识别)
先看了点花书,后来觉得有点枯燥去看了b站up主六二大人的pytorch深度学习实践的课,对深度学习的理解更深刻一点,顺便做点笔记,记录一些我认为重要的东西,便于以后查阅。一、机器学习基础学习的定义:对于某类任务T核性能度量P,一个程序被认为可以从经验E中学习是指,通过E改进后,在任务T上由P衡量的性能有所提升。常见学习任务一、分类二、输入缺失分类三、回归四、转录无监督学习和监督学习1)无监督学习设
烟火青年_Yan
·
2023-02-01 20:35
笔记
深度学习
深度学习
人工智能
2020-09-26
CS231n
作业一 两层神经网络 源代码
1、导入头文件importnumpyasnp2、前向传播函数x:包含输入数据的numpy数组,形状为(N,d_1,...,d_k)w:形状为(D,M)的一系列权重b:偏置,形状为(M,)defaffine_forward(x,w,b):out=None#初始化返回值为NoneN=x.shape[0]#重置输入参数X的形状x_row=x.reshape(N,-1)#(N,D)out=np.dot(x
滴答大
·
2023-02-01 19:29
深度学习笔记
---三层神经网络的推理过程实现(前向处理)
#1.三层神经网络推理过程示意图上图从左到右依次是输入层、隐藏层1、隐藏层2和输出层。由于有权重的只有三层,故称之为三层神经网络。x1,x2表示整个神经网络的输入信号,y1,y2表示整个神经网络的输出信号。内含1的神经元以及bij标识是为了表示偏置,bij表示第i层偏置的第j个元素。比较大的神经元中aij表示它的输入信号,zij表示它的输出信号。图中的直线均表示从左到右的箭头,各层权重的具体数据没
武松111
·
2023-02-01 17:14
python与深度学习
机器学习+Linux学习之路
数学基础与编程基础:*《统计学习方法》李航*《DeepLearning》前面部分有数学原理推导*《机器学习实战》*Tensorflow官方文档资料+《Tensorflow技术解析和实战》简单看看*CS229课程
CS231n
Frank_Zhang2ff
·
2023-02-01 14:44
学习规划
学习规划
【
深度学习笔记
(五)】之卷积神经网络组成介绍
本文章由公号【开发小鸽】发布!欢迎关注!!!老规矩–妹妹镇楼:一.卷积神经网络(CNN)(一)结构组成经典的神经网络我们之间已经讲过了,现在我们要讲的是卷积神经网络。神经网络的结构是:输入层+隐藏层+激活函数+输出层卷积神经网络的组成:输入层+卷积层+激活函数+池化层+全连接层INPUT+CONV+RELU+POOL+FC(二)卷积层:所谓的卷积类似于图像空间域处理的卷积操作,设置一个小区域的滤波
开发小鸽
·
2023-02-01 13:12
#
深度学习
卷积
神经网络
深度学习
cs231n
作业:Assignment1-SVM
defsvm_loss_naive(W,X,y,reg):dW=np.zeros(W.shape)#initializethegradientaszero#computethelossandthegradientnum_classes=W.shape[1]num_train=X.shape[0]loss=0.0foriinrange(num_train):scores=X[i].dot(W)cor
mrcoderrev
·
2023-02-01 11:59
cs231n
CS231N
作业1KNN
对于每一张测试图像,kNN把它与训练集中的每一张图像计算距离,找出距离最近的k张图像.这k张图像里,占多数的标签类别,就是测试图像的类别。1.补充k_nearest_neighbor.py中compute_distances_two_loops方法使用L2距离。#两层循环dists[i,j]=np.sqrt(np.sum(np.square(X[i]-self.X_train[j])))2.实现k
努力学习做大佬
·
2023-02-01 11:28
CS231N作业
python
numpy
CS231N
作业1Softmax
1.完成文件
cs231n
/classifiers/softmax.py中的softmax_loss_naive方法defsoftmax_loss_naive(W,X,y,reg):"""Softmaxlossfunction
努力学习做大佬
·
2023-02-01 11:28
CS231N作业
numpy
python
cs231n
作业:assignment1 - features
GitHub地址:https://github.com/ZJUFangzh/
cs231n
个人博客:fangzh.top抽取图像的HOG和HSV特征。
zjufangzh
·
2023-02-01 11:27
人工智能
cs231n
DeepLearning
CS231n
作业1 SVM+softmax+两层神经网络
大概用了有小半个月的时间断断续续的完成了作业1,因为期间每天都还在读论文,所以进度有些落后,不过做完感觉也是收获颇丰。附上地址http://note.youdao.com/noteshare?id=d9cadbb038e384c738c4bf27fcdec3fa转载于:https://www.cnblogs.com/Qmelbourne/p/8203384.html
weixin_30596343
·
2023-02-01 11:27
数据结构与算法
人工智能
CS231n
作业+代码实践:Assignment1 SVM
MulticlassSupportVectorMachineexercise#Runsomesetupcodeforthisnotebook.from__future__importprint_functionimportrandomimportnumpyasnpfrom
cs231n
.data_utilsimportload_CIFAR10importmatplotlib.pyplotasplt
littlesinway
·
2023-02-01 11:56
cs231n
神经网络
机器学习
深度学习
SVM支持向量机及
cs231n
作业解读
SVM支持向量机为了让自己的
cs231n
学习更加高效且容易复习,特此在这里记录学习过程,以供参考和自我监督。
塔克拉玛干沙漠的卖水小孩
·
2023-02-01 11:56
笔记
svm
机器学习
CS231n
第一次作业_问题1
深度学习第一次作业由于notebook环境的配置较为麻烦,我直接使用pycharm配置本地的python环境完成了
cs231n
课堂的第一次作业任务。
木独
·
2023-02-01 11:52
深度学习
深度学习
cs231n
CS231n
作业之SVM
前面的代码不贴了,还是跟KNN那个作业一样,加载了数据集并且可视化了一下,下面贴出需要我们自己补充的:首先进入svm.ipynb,根据提示转入linear_svm.pydefsvm_loss_naive(W,X,y,reg):dW=np.zeros(W.shape)#initializethegradientaszero#computethelossandthegradientnum_classe
不太冷的莱昂
·
2023-02-01 11:51
CS231n学习
深度学习
机器学习
CS231N
作业1SVM
介绍了一个线性SVM分类器为了使分类器在分类未知样本的时候,鲁棒性更好一点,我们希望正确分类的分数比错误分类分数大得多一点。这就得到了hinge损失函数,即求解线性SVM的损失。上代码1.补充linear_svm.py中的svm_loss_native方法已经给出了loss,需要补充dWdefsvm_loss_naive(W,X,y,reg):"""StructuredSVMlossfunctio
努力学习做大佬
·
2023-02-01 11:21
CS231N作业
人工智能
【
深度学习笔记
整理-4.1】如何避免过拟合?
其实神经网络训练的过程就是一个欠拟合与过拟合拉锯的过程,一方面,我们希望我们的网络可以比较好的拟合训练数据,另一方面,我们又不希望它学习的那么好,以至于最终只是记忆住了全部答案。解决过拟合的问题非常重要,一般有如下四种方法:1.增加训练数据数量模型的训练数据越多,泛化能力自然也越好。这是因为更多的数据可以给我们找到更一般的模式。如果无法获取更多数据,次优解决方法是调节模型允许存储的信息量,或对模型
Y·Not·Try
·
2023-02-01 09:58
深度学习
机器学习
python
深度学习笔记
(一):卷积,池化
问题的提出常规的神经网络存在着一些致命的问题。对于大图片来说,如果使用神经网络,那么我们需要width*height*channel个weight,对于大图片来说这是难以处理的。首先这种全连接的方式是一种浪费,其次这么多weight很容易造成过拟合。所以我们提出了cnn。cnn的定义cnn是很多层layer的组合。每一层都通过一个不同的函数将一种activation转化为另一种。通常使用三种lay
Android笨鸟之旅
·
2023-02-01 05:36
深度学习笔记
—— 转置卷积
语义分割要做像素级别的预测,但是卷积不断地减小高宽,所以需要另外一种卷积把小的高宽变大。转置卷积:输入中的单个元素与kernel按元素做乘法但不相加,然后按元素写回到原始的地方。再谈转置卷积:换算成卷积之后,卷积是正常卷积,也就是填充为0,步幅为1,与前面填充和步幅是无关的。如果要做逆变换需要能推出来:n>=sn'+k-2p-s(刚好整除的情况下取等号)转置卷积是形状上做逆运算,但元素值不是。转置
Whisper_yl
·
2023-02-01 04:59
#
深度学习
深度学习
Day12 #100DaysofMLCoding#
2018825-27今日计划
cs231n
第13节代码新加一个维度img[None]isthesameasimg[np.newaxis,:]np.tile(数组,重复几次)np.repeat(数组,重复几次
MWhite
·
2023-01-31 23:29
【01李宏毅
深度学习笔记
2021春季】课程笔记Introduction&Regression(简介和回归)
01-1Introduction课程网址:https://speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.html1.PrerequisiteMathCalculus(微积分)Linearalgebra(线性代数)Probability(概率)ProgrammingPythonPyTorchHardware:不需要硬件设备,在GoogleColab上运行2.A
is_colorful
·
2023-01-31 18:56
深度学习
深度学习
回归
人工智能
动手学
深度学习笔记
第四章(多层感知器)
4.1多层感知器y.backward(torch.ones_like(x),retain_graph=True)这里的retain_graph=True参数:pytorch进行一次backward之后,各个节点的值会清除,这样进行第二次backward会报错,因为虽然计算节点数值保存了,但是计算图结构被释放了,如果加上retain_graph==True后,可以再来一次backward。关于det
冬青庭院
·
2023-01-31 14:25
我的动手学深度学习笔记
深度学习
pytorch
python
深度学习笔记
(一)
一张图片被表示成三维数组的形式,每个像素的值从0到255,图片上的值代表像素点,值越大越亮。例如:300*1003指的是图片的长宽*颜色3=RGB1=黑白图一、机器学习的步骤:1.收集数据并给定标签。标签的意思是加入你有一对猫和狗的图片,你要给猫图片定义一个猫的标签,给狗的图片定义一个狗的标签。2.训练一-个分类器,例如逻辑回归、随即森林3.测试,评估。二、找参数:把数据分为train、val、t
奋斗的猪猪霞
·
2023-01-30 21:08
深度学习
机器学习
人工智能
深度学习笔记
(三)——对Tensor索引操作函数gather的解释
索引操作函数gather函数详解gather函数的输出规则第一条规则第二条规则gather函数内部的代码机理推测代码示例输出结果参考文献事先声明:本文只会对二维张量的gather操作进行介绍,三维张量的gather操作规则在csdn上的博文屡见不鲜。本文的解释是从个人的理解出发,相信解释也会对理解三维张量的操作规则起到触类旁通的作用。gather函数的输出规则out[i][j]=input[ind
小白成长之旅
·
2023-01-30 20:19
深度学习(基于pytorch)
深度学习
pytorch
深度学习笔记
2019独角兽企业重金招聘Python工程师标准>>>注意不要在舒适区练习。也就是如果你俯卧撑能做100个,那么每次做50个,都是你的舒适区,是没有任何效果的。不要在恐慌区练习。初学吉他的,上来扫几个和弦还行,直接学solo一段加州旅馆肯定会挂。同样没有任何效果。要在学习区练习。学习区就是舒适区之外,恐慌区之内的部分。即你踮脚使劲伸手,是能够到的高度,有难度,但是是可实现的。要有反馈。如果你没有足
Mathilda91
·
2023-01-30 19:31
人工智能
python
【
深度学习笔记
】卷积网络中的卷积与互相关的那点事
卷积层的来源与作用深度学习的计算机视觉是基于卷积神经网络实现的,卷积神经网络与传统的神经网络(可以理解为多层感知机)的主要区别是卷积神经网络中除了全连接层外还有卷积层和pooling层等。卷积层算是图像处理中非常基础的东西,它其实也是全连接层演变来的,卷积可视为局部连接和共享参数的全连接层。局部连接:在全连接层中,每个输出通过权值(weight)和所有输入相连。而在视觉识别中,关键性的图像特征、边
秋天的波
·
2023-01-30 18:20
深度学习
机器学习
计算机视觉
深度学习
网络
计算机视觉
【
深度学习笔记
】为什么用F1-score
问题为什么使用F1score?(这里主要讨论为何使用F1score而不是算术平均)F1scoreF1score是分类问题中常用的评价指标,定义为精确率(Precision)和召回率(Recall)的调和平均数。F1=21Precision+
秋天的波
·
2023-01-30 18:20
机器学习
深度学习
计算机视觉
深度学习
人工智能
【
深度学习笔记
】弄明白感受野大小的计算问题
感受野Receptivefield(RF)的概念卷及神经网络中每一层输出的特征图(featuremap)中的每一个像素映射到原始输入图像的区域大小。卷积输入输出的大小关系根据感受野的概念,大家可以体会到感受野的计算应该与卷积的计算是相反的过程,所以先回顾下卷积输入输出的大小关系公式:(以高度为例)Heightout=(Height
秋天的波
·
2023-01-30 18:49
深度学习
计算机视觉
机器学习
深度学习
计算机视觉
人工智能
cs231n
作业1中的SVM与Softmax
SVM在
cs231n
的作业1中,每个分类器都用loop和非loop方法,或是否直接处理矩阵方法,其中留给我们写的大多都是其中核心内容,所以额外部分我也
倒霉蛋or幸运儿
·
2023-01-30 11:45
深度学习笔记
(一)记录训练过程
深度学习笔记
(一)记录训练过程前言一、tensorboardX中SummaryWriter记录训练过程二、总结前言本帖子主要记录深度学习编程过程中的一些笔记,欢迎指导批评。
汤姆和佩琦
·
2023-01-30 05:40
pytorch深度学习
深度学习
pytorch
python
使用Google Colab的python教程
原文链接https://
cs231n
.github.io/python-numpy-tutorial/PythonTutorialWithGoogleColab检查python版本!
熊舍尼奥
·
2023-01-29 18:01
笔记
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他