E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231n深度学习笔记
CS231N
课程学习笔记-计算机视觉发展史
第一讲计算机视觉发展史仅供自己学习记录参考注:感谢B站up主,同济子豪兄的优质课程【子豪兄】精讲
CS231N
斯坦福计算机视觉公开课(2020最新)_哔哩哔哩_bilibili课程介绍(着重神经网络和深度学习
麻花地
·
2023-04-08 16:43
python
深度学习框架
深度学习
深度学习
计算机视觉
cnn
前端
深度学习笔记
最全
本站点无更新最全内容链接:https://www.yuque.com/liyang-qjg8h/ogb65t一、JS发展历史、ECMA简介、变量、值1、JavaScript发展史1.1、主流浏览器(⭐)5大主流浏览器:1、chrome2、IE3、safari4、firefox5、opera对应内核:1、trident2、webkitblink3、webkit4、gecko5、presto1.2浏览
Lidayang_
·
2023-04-07 23:12
前端
javascript
开发语言
CS231n
学习笔记--计算机视觉历史回顾与介绍2
PASCALVisialObjectChallengePASCALVisialObjectChallenge为图像识别和分类提供了一整套标准化的优秀的数据集,共20类。ImageNet从2010年开始,由于PASCAL项目的终结,斯坦福大学建立了一个超大规模的项目,叫ImageNet。全部经过人工清晰和标注。每年举行一次比赛,被称为计算机视觉的奥林匹克比赛。自从2012年开始,ImageNet的夺
听城
·
2023-04-07 00:22
深度学习笔记
—— 矩阵计算
布局:个人理解,不论是分子布局,还是分母布局,都不过是人为规定的布局方式而已。它们的目的是为了对求导后的形式作规定,以达到方便计算的目的。
Whisper_yl
·
2023-04-06 21:18
#
深度学习
深度学习
矩阵
人工智能
深度学习笔记
—— 自动求导
显示构造:先定义好公式,再待入值。隐式构造:系统负责记住一步步的计算,之后定义公式。importtorch#假设我们想对函数y=2xTx关于列向量x求导x=torch.arange(4.0)#计算y关于x的梯度之前,需要一个地方来存储梯度x.requires_grad_(True)#等价于x=torch.arange(4.0,require_grad=True)print(x.grad)#默认值是
Whisper_yl
·
2023-04-06 21:18
#
深度学习
深度学习
人工智能
CS231n
卷积神经网络与计算机视觉 9 卷积神经网络结构分析
终于进入我们的主题了ConvNets或者CNNs,它的结构和普通神经网络都一样,之前我们学习的各种技巧方法都适用,其主要不同之处在于:ConvNet假定输入的是图片,我们根据图片的特性对网络进行设定以达到提高效率,减少计算参数量的目的。1.结构总览首先我们分析下传统神经网络对于图片的处理,如果还是用CIFAR-10上的图片,共3072个特征,如果普通网络结构输入那么第一层的每一个神经单元都会有30
bea_tree
·
2023-04-06 18:37
卷积神经网络CS231n笔记
卷积神经网络
结构
ConvNet
计算机视觉
卷积层
特征向量、标签、模型、算法
深度学习笔记
一基本术语特征向量、标签、模型、算法训练集&测试集深度学习过程监督学习、非监督学习、强化学习公式中x,y,d,m的意义特征向量、标签、模型、算法特征向量:用于解决问题的一系列属性标签:我们想要预测的目标模型
Small___ming
·
2023-04-05 12:48
深度学习
深度学习
机器学习
神经网络
吴恩达
深度学习笔记
(3)-神经网络如何实现监督学习?
神经网络的监督学习(SupervisedLearningwithNeuralNetworks)(请注意文中粗体部分内容,划重点吶!)关于神经网络也有很多的种类,考虑到它们的使用效果,有些使用起来恰到好处,但事实表明,到目前几乎所有由神经网络创造的经济价值,本质上都离不开一种叫做监督学习的机器学习类别,让我们举例看看。在监督学习中你有一些输入x,你想学习到一个函数来映射到一些输出y,比如我们之前提到
极客Array
·
2023-04-05 00:56
深度学习笔记
:深度学习CNN python程序实现
加深网络深度学习相对于一般的神经网络区别就在于使用多层隐藏层。在该例中我们构造一个基于CNN的深度学习网络,其训练完成后对于mnist数据集失败准确率可以超过99%该网络隐藏层结构:卷积层—ReLU—卷积层—ReLU—池化层—卷积层—ReLU—卷积层—ReLU—池化层—卷积层—ReLU—卷积层—ReLU—池化层—affine—ReLU—dropout—affine—dropout—softmax先
Raine_Yang
·
2023-04-04 21:43
人工智能
深度学习
python
cnn
人工智能
神经网络
深度学习笔记
:卷积神经网络(2)
卷积神经网络SimpleConvNet的python实现#coding:utf-8importsys,ossys.path.append('D:\AIlearningsourcecode')#为了导入父目录的文件而进行的设定importpickleimportnumpyasnpfromcollectionsimportOrderedDictfromcommon.layersimport*fromc
Raine_Yang
·
2023-04-04 21:13
人工智能
python
机器学习
深度学习
神经网络
CNN
深度学习笔记
(六)——分类网络的训练问题-2
3.4Newmodel3.4.1SavemodelPytorchprovidetwokindsofmethodtosavemodel.Werecommmendthemethodwhichonlysavesparameters.Becauseit'smorefeasibleanddont'relyonfixedmodel.Whensavingparameters,wenotonlysavelearn
Nino_Lau
·
2023-04-04 18:48
尚硅谷-机器学习与
深度学习笔记
本文章仅仅记录本人的学习过程,侵权删。视频地址:https://www.bilibili.com/video/BV1zb411P7iV代码和数据:代码和数据P3.人工智能的发展和现状什么是人工智能:人工智能(ArtificialIntelligence),英文缩写:AI。它是研究,开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它试图
qq_41273406
·
2023-04-04 12:04
深度学习
人工智能
神经网络
python
tensorflow
机器学习
【
CS231N
笔记】P7 P8:训练神经网络
子豪兄YYDShttps://www.bilibili.com/video/BV1K7411W7So?p=7https://www.bilibili.com/video/BV1K7411W7So?p=8一、简介神经网络的训练主要是包括三部分:固定性的设置、动态的训练以及评估。固定性的设置包括激活函数的选择、预处理、权重初始化、正则化、梯度校验,这些内容在训练之前就可以确定好,在训练过程中不需要再关
林北不要忍了
·
2023-04-02 06:01
CS231N笔记
神经网络
深度学习
机器学习
深度学习笔记
4 过拟合+欠拟合+解决方案
目录1.偏差与方差2.产生原因3.解决欠拟合(高偏差)的方法3.1模型复杂化3.2增加更多的特征3.3调整参数和超参数3.4增加训练数据(效果不明显)3.5降低正则化约束4.解决过拟合(高方差)的方法4.1增加训练数据数4.2使用正则化约束4.3批归一化BN4.4使用Dropout4.5提前结束训练4.6减少特征数4.7调整参数和超参数4.8降低模型的复杂度5.正则化5.1L1、L2正则化(Reg
李同学_道阻且行
·
2023-04-02 05:34
深度学习笔记(理论)
深度学习
人工智能
吴恩达
深度学习笔记
(13)-多样本梯度下降和向量化处理多批次数据
m个样本的梯度下降(GradientDescentonmExamples)在之前的笔记中,已经讲述了如何计算导数,以及应用梯度下降在逻辑回归的一个训练样本上。现在我们想要把它应用在m个训练样本上。首先,让我们时刻记住有关于损失函数就J(w,b)的定义。当你的算法输出关于样本y的a(i),a(i)是训练样本的预测值,即:所以我们在前面展示的是对于任意单个训练样本,如何计算微分当你只有一个训练样本。因
极客Array
·
2023-04-01 05:06
cs231n
作业:Assignment1-KNN
加载数据集#LoadtherawCIFAR-10data.cifar10_dir='
cs231n
/datasets/cifar-10-batches-py'X_train,y_train,X_test,
Diane小山
·
2023-03-31 18:22
CV (3)- CNNs
本次学习笔记主要记录学习CV时的各种记录,包括李飞飞团队的视频
cs231n
。作者能力有限,如有错误等,望联系修改,非常感谢!
997and
·
2023-03-31 15:54
计算机视觉
人工智能
网络
深度学习
深度学习笔记
: Jupyter notebook 在虚拟环境下运行
前言:为了更好的管理深度学习环境,在安装tensorflow环境时,我新建了一个python虚拟环境(tensorflow)专门来做深度学习,这个虚拟环境下相对于原始的本地环境,它拥有我为tensorflow安装所以架包,这样就不会导致环境的架包管理混乱(使用python做其他项目如爬虫也是一样的道理,为什么安装虚拟环境可以看:Python为什么要使用虚拟环境-Python虚拟环境的安装和配置-v
第一段代码
·
2023-03-31 04:41
学术夜谈
深度学习
jupyter
python
吴恩达深度学习编程作业_吴恩达
深度学习笔记
(57)-深度学习框架Deep Learning frameworks...
深度学习框架(DeepLearningframeworks)如果你已经差不多从零开始学习了使用Python和NumPy实现深度学习算法,很高兴你这样做了。但你会发现,除非应用更复杂的模型,例如卷积神经网络,或者循环神经网络,或者当你开始应用很大的模型,否则它就越来越不实用了,至少对大多数人而言,从零开始全部靠自己实现并不现实。幸运的是,现在有很多好的深度学习软件框架,可以帮助你实现这些模型。类比一
weixin_39824033
·
2023-03-31 03:28
吴恩达深度学习编程作业
CS231n
-K近邻与线性分类器
CS231n
笔记系列(一)数据驱动的图像分类方式——K近邻与线性分类器(上)1.ImageClassification:acoretaskinComputerVision为什么图像分类问题在计算机里很困难
JaimeOw
·
2023-03-29 21:14
CNN输出尺寸公式与感受野计算公式;何为感受野(receptive field)?何为Scale?
输出featuremap尺寸计算经过某一层Conv2D后,featuremap的输出大小为其中,N为原图尺寸,F为Filter/Kernelsize.一下图片截图自stanford
cs231n
图片.png
Williamongh
·
2023-03-29 14:42
cs231n
assignment1
cs231n
的assignment1主要是通过使用numpy库,来构造三个:KNN、MulticlassSVM以及Softmax,imageclassificationpipeline;而且在构造pipeline
没天赋的学琴
·
2023-03-28 11:13
2020-3-2
深度学习笔记
12 - 深度学习应用 3(自然语言处理NLP - n-gram / 神经语言模型NNLM / 高维输出 / 结合 n-gram 和神经语言模型 / 神经机器翻译)
第十二章应用中文官网英文原版2020-2-29
深度学习笔记
12-深度学习应用1(大规模深度学习)2020-3-1
深度学习笔记
12-深度学习应用2(计算机视觉,语音识别)自然语言处理NLP统计语言建模的目标是学习语言中单词序列的联合概率函数
没人不认识我
·
2023-03-27 07:23
深度学习
IT
神经网络和
深度学习笔记
——01 神经元
神经元模型感知机(perceptron)感知机多个二进制输入经过感知机得到一个二进制输出;感知机对每个输入赋予权重,表明每个输入的重要程度;如果输入的加权和大于某个阈值,则输出1,否则输出0;阈值函数举个例子,比如说你的镇上要举行奶酪节,你想去参加,但是你需要考虑几个因素:节日那天天气如何?你的女朋友陪不陪你去?坐车过去是否方便?这里就可以把x1当做天气,天气好则为1,否则为0;x2当做女朋友的陪
小李弹花
·
2023-03-25 23:23
【学习笔记】动手学深度学习1
动手学
深度学习笔记
1关于本书数字:标量可以看作0维张量向量可以看作1维张量矩阵可以看作2维张量张量可以看作一个多维数组关于本书函数和运算符指示函数是定义在某集合X上的函数,表示其中有哪些元素属于子集A。
华慕
·
2023-03-22 07:02
自用
深度学习
深度学习
深度学习笔记
12_卷积神经网络
卷积神经网络Keras中的卷积神经网络的搭建主要利用keras中的两个函数进行构建:Conv2Dfilters:Integer,thedimensionalityoftheoutputspace(i.e.thenumberofoutputfiltersintheconvolution).kernel_size:Anintegerortuple/listof2integers,specifyingt
瓦力人工智能
·
2023-03-22 07:27
keras深度学习笔记
卷积神经网络
keras
深度学习
模型
猫狗
深度学习笔记
——Solver超参数配置文件
Øcaffe提供了六种优化算法来求解最优参数,在solver配置文件中,通过设置type类型来选择。StochasticGradientDescent(type:"SGD"),#梯度下降AdaDelta(type:"AdaDelta"),#自适应学习率AdaptiveGradient(type:"AdaGrad"),#自适应梯度下降Adam(type:"Adam"),#本质上是带有动量项的RMSp
三度就好
·
2023-03-21 07:06
深度学习
实践开发
caffe框架
深度学习
ubuntu
【连载】
深度学习笔记
10:三维卷积、池化与全连接
在上一讲中,我们对卷积神经网络中的卷积操作进行了详细的解读,但仅仅是对二维图像,即通道数为1的图像(灰度图)进行了卷积,对于三维或者更高维的图像卷积显然并没有这么简单。如果图像大小为6*6*3,那么这里的3指的是三个颜色通道,你可以将其理解为3个6*6的图像的堆叠,如果要对此图像进行卷积的话,我们的滤波器也需要变成三维的,假设采用一个3*3*3的滤波器对其进行卷积(这里需要注意的是,滤波器的通道数
linux那些事
·
2023-03-16 02:32
cs231n
_softmax损失函数对权重W求导
目录前言一、公式推导1.1将评分函数表达为矩阵形式1.2标量对列向量求导规则1.3单个样本对权重求导到全训练集二、实现代码前言矩阵对矩阵求导法则:从上面公式可以看出,矩阵对矩阵求导,会导致维度倍增,即dC/dB的维度会变成(s×p,r×q),好在本文只是用到了标量(视为1*1矩阵)对矩阵求导,故所求倒数的维度和B会一样p∗qp*qp∗q。一、公式推导基于softmax函数的损失函数形式与SVM大致
清风微升至
·
2023-03-15 01:42
cs231n
深度学习
李宏毅
深度学习笔记
1 - 深度学习入门
在谈到深度学习之前,我们都会提机器学习,因为深度学习是机器学习的一个分支。那么什么时机器学习呢?简单来说机器学习是一种算法,是一种通过数据来解决问题的方法。解决什么问题?最常用的有两类问题:分类:通过病人的病理报告等数据判断是否患病回归:通过历史交易数据判断期货行情走势机器学习和深度学习都是通过大量的(历史)数据来寻找一个模型,或者叫函数,或者映射也可以,他可以完成从问题到答案的推理过程。而判断这
木头里有虫911
·
2023-03-13 17:04
cs231n
深度学习课程笔记——(两层)神经网络
摘要这是我学习了斯坦福大学的
cs231n
课程有关神经网络部分的学习笔记,是我对自己的知识的复习和自己编程过程中出错的问题总结。主要按照作业实现的思路进行总结。
TheMask_7f68
·
2023-03-11 12:07
向量,矩阵,张量求导法则
向量,矩阵,张量求导向量对向量求导向量对矩阵求导矩阵对矩阵求导使用链式法则总结向量,矩阵,张量求导参考:http://
cs231n
.stanford.edu/vecDerivs.pdf向量对向量求导如何对求导
丰谷数
·
2023-03-10 09:15
李沐的
深度学习笔记
来了!
Datawhale干货来源:机器之心,编辑:张倩markdown笔记与原课程视频一一对应,Jupyter代码均有详细中文注释,这份学习笔记值得收藏。去年年初,机器之心知识站上线了亚马逊资深首席科学家李沐博士的「动手学深度学习」中文系列课程。这门课从3月持续到8月,超过28000人参与了直播,课程回放在B站的播放量达到了上百万次。这门课程基于李沐等人编写的《动手学深度学习》第二版。《动手学深度学习》
Datawhale
·
2023-03-08 21:01
人工智能
java
深度学习
机器学习
python
深度学习笔记
第四门课 卷积神经网络 第三周 目标检测
本文是吴恩达老师的深度学习课程[1]笔记部分。作者:黄海广[2]主要编写人员:黄海广、林兴木(第四所有底稿,第五课第一二周,第三周前三节)、祝彦森:(第三课所有底稿)、贺志尧(第五课第三周底稿)、王翔、胡瀚文、余笑、郑浩、李怀松、朱越鹏、陈伟贺、曹越、路皓翔、邱牧宸、唐天泽、张浩、陈志豪、游忍、泽霖、沈伟臣、贾红顺、时超、陈哲、赵一帆、胡潇杨、段希、于冲、张鑫倩参与编辑人员:黄海广、陈康凯、石晴路
湾区人工智能
·
2023-03-08 21:30
深度学习笔记
9 mobilenet v1:轻量级神经网络1
自从AlexNet在2012年赢得ImageNet大赛的冠军一来,卷积神经网络就在计算机视觉领域变得越来越流行,一个主要趋势就是为了提高准确率就要做更深和更复杂的网络模型,然而这样的模型在规模和速度方面显得捉襟见肘,在许多真实场景,比如机器人、自动驾驶、增强现实等识别任务及时地在一个计算力有限的平台上完成,这是我们的大模型的局限性所在。目前针对这一问题的研究主要是从两个方面来进行的:一是对复杂模型
(●—●)_(●—●)
·
2023-02-27 19:07
神经网络
深度学习
HALCON 20.11:
深度学习笔记
(12)---语义分割
HALCON20.11:
深度学习笔记
(12)---语义分割HALCON20.11.0.0中,实现了深度学习方法。本章解释了如何使用基于深度学习的语义分割,包括训练和推理阶段。
机器视觉001
·
2023-02-26 07:03
深度学习
HALCON
人工智能
深度学习
HALCON
BERT - PyTorch
动手学
深度学习笔记
一、BERT1.BERT:把两个结合起来2.BERT的输入表示3.编码器4.预训练任务掩蔽语言模型下一句预测5.整合代码二、用于预训练BERT的数据集1.下载并读取数据集2.生成下一句预测任务的数据
葫芦娃啊啊啊啊
·
2023-02-23 21:26
深度学习知识点
pytorch
bert
深度学习
自然语言处理
李飞飞
CS231n
关于hinge loss函数求导的问题
在做CS2312020Assignment1的SVM部分时,遇到了关于hingeloss的求梯度(求导)编程实现的问题,故在此记录一下。首先,给出hingeloss在多分类时的表达式:Li=∑j≠yimax(0,wjTxi−wyiTxi+Δ)L_i=\sum_{j\neqy_i}max(0,w_j^Tx_i-w_{y_i}^Tx_i+\Delta)Li=j=yi∑max(0,wjTxi−wyiT
JackTheWhite
·
2023-02-22 09:20
李飞飞
CS231n
机器学习
常见损失函数
常见损失函数@(
cs231n
)文章目录常见损失函数损失函数定义0-1损失函数(zero-oneloss)绝对值损失函数(Absoluteloss)log对数损失函数(LogLoss)平方损失函数(SquareLoss
Dreamcreationman
·
2023-02-22 09:40
机器学习
深度学习
深度学习
数据挖掘
机器学习
CNN学习笔记1
附上链接:http://
cs231n
.github.io/convolutional-networks/#casehttp://www.cnblogs.com/wj-1314/p/9593364.html
小白的颠覆之路
·
2023-02-22 07:14
吴恩达
深度学习笔记
(15-21)总结-浅层神经网络总结
恩达老师的这一周的浅层神经网络总结,还是简单的架构说明,但是还是要仔细读哦!架构分为四部分:神经网络表示计算神经网络输出激活函数神经网络的梯度下降第一和第二部分:神经网络表示和计算神经网络输出部分,由于本部分讲的是浅层的网络输出,所以就是只有一个隐藏层的神经网络,你也可以理解成一个两层的神经网络,因为输入层并不能算为一层神经网络结构。另外就是神经网络的输出部分了,首先你要理解单个神经元的内部是如何
极客Array
·
2023-02-17 08:11
Stanford
cs231n
学习笔记(1)Linear Model
##非参数化学习(数据驱动型学习)和参数化学习###数据驱动型学习整个学习算法依赖的是训练集中的数据样本。典型代表:KNN。即通过对比带预测样本与训练集中的样本的“距离”或者某种度量,来实现分类的功能。在这种算法中,每次的样本预测是依赖和训练集中样本的比对得到的,可以理解为并没有一个真正的模型,而是纯粹地依赖训练集中的数据样本。###参数化学习关注的是模型的参数,即以模型的参数作为优化的目标。通过
ZerinHwang03
·
2023-02-07 08:25
Deep
Learning
cs231n学习笔记
动手
深度学习笔记
(四十三)7.7. 稠密连接网络(DenseNet)
动手
深度学习笔记
(四十三)7.7.稠密连接网络(DenseNet)7.7.稠密连接网络(DenseNet)7.7.稠密连接网络(DenseNet)ResNet极大地改变了如何参数化深层网络中函数的观点。
落花逐流水
·
2023-02-07 07:45
pytorch
pytorch实践
深度学习
动手
深度学习笔记
(四十二)7.6. 残差网络(ResNet)
动手
深度学习笔记
(四十二)7.6.残差网络(ResNet)7.6.残差网络(ResNet)7.6.1.函数类7.6.2.残差块7.6.3.ResNet模型7.6.4.训练模型7.6.5.小结7.6.6.
落花逐流水
·
2023-02-07 07:14
pytorch实践
深度学习
人工智能
神经网络
神经网络与
深度学习笔记
(一)梯度下降算法
1、定义一个代价函数w表示所有的网络中权重的集合n是训练输入数据的个数a是表示当输入为x时输出的向量求和则是在总的训练输入x上进行的C称为二次代价函数;有时也称被称为均方误差或者MSE2、C我们训练神经网络的目的是找到能最小化二次代价函数C(w,b)的权重和偏置假设我们要最小化某些函数,C(v)。它可以是任意的多元实值函数,v=v1,v2,…。注意我们用v代替了w和b以强调它可能是任意的函数——我
dsjdjsa
·
2023-02-06 17:35
神经网络和深度学习
神经网络
深度学习
算法
梯度下降
【
深度学习笔记
】实例分割数据集标定Labelme软件安装+使用
一、安装AnacondaAnaconda下载Windows版:https://www.anaconda.com/products/individual二、创建虚拟环境安装好Anaconda后,打开Anaconda命令行(1)运行创建虚拟环境指令,环境名称可自定condacreate-nmypytorchpython=3.8(2)激活mypytorch环境condaactivatemypytorch
aalekvar
·
2023-02-06 16:16
python
CNN笔记:通俗理解卷积神经网络
2016年07月04日22:17:17阅读数:23408通俗理解卷积神经网络(
cs231n
与5月dl班课程笔记)http://blog.csdn.net/v_july_v/article/details
hellocsz
·
2023-02-05 13:16
CS231N
作业1Two-Layer Neural Network
继承上次作业的softmax计算损失,再额外加个隐藏层1.完成neural_net.py中scores的计算z1=X.dot(W1)+b1a1=np.maximum(0,z1)scores=a1.dot(W2)+b22.完成neural_net.py中loss的计算scores_max=np.max(scores,axis=1,keepdims=True)scores=scores-scores_
努力学习做大佬
·
2023-02-05 09:40
CS231N作业
python
开发语言
numpy
Linux Commands
日常工作Linux下常用的一些命令condainfo--envs/e##检查conda环境condacreate-n
cs231n
python=3.6anaconda##新建名字为“
cs231n
”的conda
年少万兜鍪_b534
·
2023-02-05 08:37
2020
cs231n
作业3 笔记 Generative_Adversarial_Networks_PyTorch
GenerativeAdversarialNetworks论文地址:GenerativeAdversarialNetworks对抗生成网络(GAN)的主要结构包括一个生成器G(Generator)和一个判别器D(Discriminator)。判别器D的目标:对输入的图片正确进行判别为真图片还是假图片。生成器G的目标:生成假图片,但是能让判别器判断为真。所以一方面:要最大化生成器生成的图片被判别为真
cheetah023
·
2023-02-05 07:32
cs231n
神经网络
深度学习
GAN
pytorch
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他