E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习
Tensorflow2.0实现ResNet +(卷积块注意模块CBAM )+垃圾分类
1.残差网络残差网络我是在
吴恩达深度学习
里了解的,真正领会还是看了几篇博文才慢慢的瞎编出来。我们先来了解一下为什么会衍生出残差网络。
一尺之棰
·
2020-07-10 10:33
吴恩达深度学习
笔记(五)
吴恩达深度学习
笔记(五)自然语言处理NLP:序列模型循环神经网络RNN自然语言处理与词嵌入序列模型和注意力机制序列模型编程作业自然语言处理NLP:序列模型循环神经网络RNN为什么选择序列模型?
love_pegy
·
2020-07-10 10:54
深度学习
吴恩达深度学习
猫咪识别(一)
准备1.逻辑回归在深度学习中简介逻辑回归是一种用在监督学习(supervisedlearning)中解决输出结果为离散值,例如y=1,y=0的一种学习算法。进行逻辑回归的目的,它可以使训练数据的标签值与预测出来的值之间的误差最小化。例:实现图片的识别CatvsNo-cat,(二分类问题)RGB三色混合可以组成任意颜色且电脑中图片以RGB编码方式存贮,每张图片都有像素,n_pixel*n_pixel
kj7541
·
2020-07-10 09:08
AI
【资源共享】eBook分享大集合
服务器系统类Linux高性能服务器编程Shell脚本学习指南高级Bash脚本编程指南.3.9.1(杨春敏黄毅译)鸟哥的Linux私房菜基础篇(第3版)深入理解计算机系统机器学习类
吴恩达深度学习
教
weixin_30342209
·
2020-07-10 06:03
零基础入门CV之街道字符识别 Task3 字符识别模型
深度学习与神经网络此前没有深度学习神经网络的基础,理解CNN比较困难,于是先观看了B站上
吴恩达深度学习
课程,从logistics回归学起,到单层神经网络,多层神经网络,基本弄懂了损失函数,成本函数,梯度下降法
Olivia_奥
·
2020-07-09 14:36
CV
01深度学习概论-1.1欢迎
吴恩达深度学习
课程系列:欢迎来到深度学习工程师微专业第一个视频主要讲了什么是深度学习,深度学习能做些什么事情。以下是吴恩达老师的原话:深度学习改变了传统互联网业务,例如如网络搜索和广告。
banzycr285163
·
2020-07-09 13:44
花书+
吴恩达深度学习
(二四)蒙特卡罗方法(重要采样,MCMC)
文章目录0.前言1.重要采样2.马尔可夫链蒙特卡罗MCMC3.不同峰值之间的混合挑战如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~花书+
吴恩达深度学习
(二三)结构化概率模型(贝叶斯网络
zhq9695
·
2020-07-09 05:46
深度学习
吴恩达深度学习
第一课第三周(浅层神经网络)
打卡(1)3.1神经网络概览*可以很多个sigmoid单元堆叠起来构成一个神经网络。*图中[1]、[2]表示层((1),(2)表示单个样本);*图中圆圈是sigmoid函数,由两步算的,第一步算z。第二步算a;打卡(2)3.2神经网络表示*输入层———隐藏层————输出层————预测值(输入层一般不看作是一个标准层,神经网络的层数指隐藏层和输出层)*隐藏层的含义:在训练集中这些中间节点的真正数值,
xavierri
·
2020-07-09 01:28
吴恩达深度学习
吴恩达Course 2 改善深层神经网络 笔记
该笔记是
吴恩达深度学习
课程中Course2改善深层神经网络的全部内容小结,综合了课后编程的部分代码实现
CoreJia
·
2020-07-08 22:54
深度学习
吴恩达深度学习
第一课第三周作业及学习心得体会
概述在完成吴恩达第一课第三周,即1hiddenlayer的neuralnetwork学习后,了解了两层神经网络的结构,然后参考网上的资料,完成该周作业,现将心得体会记录如下。核心代码调用库如下所示;importnumpyasnpimportmatplotlib.pyplotaspltSigmoid函数;defsigmoid(z):return1.0/(1+np.exp(-z))初始化参数函数;de
袁野_0073
·
2020-07-08 20:28
吴恩达第一课第三周作业
三元分类
吴恩达深度学习
4.1练习_Convolutional Neural Networks_Convolution_model_Application_2
版权声明:本文为博主原创文章,未经博主允许不得转载。https://blog.csdn.net/weixin_42432468学习心得:1、每周的视频课程看一到两遍2、做笔记3、做每周的作业练习,这个里面的含金量非常高。先根据notebook过一遍,掌握后一定要自己敲一遍,这样以后用起来才能得心应手。1、LoadDataset1.1、观察数据1.2、数据处理(归一化、去极值、缺失值处理等)2、构建
Hayden112
·
2020-07-08 20:43
吴恩达深度学习_练习
吴恩达深度学习
第一课第二周作业---解决了原作业由于低版本产生的各种bug(附修改后的完整代码及作业数据集)
C1W2-LogisticRegressionwithaNeuralNetworkmindset参考文章链接:https://github.com/Kulbear/deep-learning-coursera/blob/master/Neural%20Networks%20and%20Deep%20Learning/Logistic%20Regression%20with%20a%20Neural
不想秃顶还想当程序猿
·
2020-07-08 20:05
深度学习
神经网络
吴恩达深度学习
入门学习笔记之神经网络和深度学习(第二周:神经网络基础)
第二周:神经网络基础2.1二分分类训练数据集大小:m_train测试数据集大小:m_test对于一个训练数据(x,y),x代表特征,x∈Rn,n表示数据维度,y代表label,y∈{0,1}。对于一组训练数据,既包含特征信息,也包含标签信息。‘对于一个容量为m的训练数据集:(x(1),y(1)),(x(2),y(2)),……,(x(m),y(m))定义特征矩阵X(一般每个数据作为一列,列数为样本个
没有头像的宝宝
·
2020-07-07 20:08
计算机视觉
机器学习
深度学习
吴恩达深度学习
课程作业:Class 4 Week 1 Convolution model - Application 避坑指南
先看代码,如果tensorflow版本不是1.2.0,在执行fowardpropagation那部分的代码时,有可能你的代码都是正确的,但是你的运行结果却与notebook上的expectedoutput的结果不一样。有一个解决办法:那就是换成老版本的tensorflow。在1.2.0以上的版本怎么能让迭代收敛呢?把第208行注释掉就行了。用1.8版本的tensorflow也很难收敛,迭代100次
pestzhang
·
2020-07-07 18:29
Python
机器学习
吴恩达深度学习
课程deeplearning.ai课程作业:Class 4 Week 1 Convolutional Neural Networks: Step by Step
吴恩达deeplearning.ai课程作业,自己写的答案。补充说明:1.评论中总有人问为什么直接复制这些notebook运行不了?请不要直接复制粘贴,不可能运行通过的,这个只是notebook中我们要自己写的那部分,要正确运行还需要其他py文件,请自己到GitHub上下载完整的。这里的部分仅仅是参考用的,建议还是自己按照提示一点一点写,如果实在卡住了再看答案。个人觉得这样才是正确的学习方法,况且
hongbin_xu
·
2020-07-07 09:41
吴恩达深度学习
课程deeplearning.ai课程作业:Class 2 Week 1 2.Regularization
吴恩达deeplearning.ai课程作业,自己写的答案。补充说明:1.评论中总有人问为什么直接复制这些notebook运行不了?请不要直接复制粘贴,不可能运行通过的,这个只是notebook中我们要自己写的那部分,要正确运行还需要其他py文件,请自己到GitHub上下载完整的。这里的部分仅仅是参考用的,建议还是自己按照提示一点一点写,如果实在卡住了再看答案。个人觉得这样才是正确的学习方法,况且
hongbin_xu
·
2020-07-07 09:40
吴恩达深度学习
课程deeplearning.ai课程作业:Class 1 Week 4 assignment4_2
吴恩达deeplearning.ai课程作业,自己写的答案。补充说明:1.评论中总有人问为什么直接复制这些notebook运行不了?请不要直接复制粘贴,不可能运行通过的,这个只是notebook中我们要自己写的那部分,要正确运行还需要其他py文件,请自己到GitHub上下载完整的。这里的部分仅仅是参考用的,建议还是自己按照提示一点一点写,如果实在卡住了再看答案。个人觉得这样才是正确的学习方法,况且
hongbin_xu
·
2020-07-07 09:40
吴恩达深度学习
笔记(35)-加快归一化的网络训练方法
归一化输入(Normalizinginputs)训练神经网络,其中一个加速训练的方法就是归一化输入。假设一个训练集有两个特征,输入特征为2维,归一化需要两个步骤:1.零均值2.归一化方差;我们希望无论是训练集和测试集都是通过相同的μ和σ^2定义的数据转换,这两个是由训练集得出来的。第一步是零均值化它是一个向量,x等于每个训练数据x减去μ,意思是移动训练集,直到它完成零均值化。第二步是归一化方差,注
极客Array
·
2020-07-07 07:01
吴恩达深度学习
笔记(67)-迁移学习(Transfer learning)
迁移学习(Transferlearning)深度学习中,最强大的理念之一就是迁移学习,有的时候神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中。所以例如,也许你已经训练好一个神经网络,能够识别像猫这样的对象,然后使用那些知识,或者部分习得的知识去帮助您更好地阅读x射线扫描图,这就是所谓的迁移学习。我们来看看,假设你已经训练好一个图像识别神经网络,所以你首先用一个神经网络,并在
极客Array
·
2020-07-07 02:02
吴恩达深度学习
课程deeplearning.ai课程作业:Class 4 Week 1 Convolution model - Application
吴恩达deeplearning.ai课程作业,自己写的答案。补充说明:1.评论中总有人问为什么直接复制这些notebook运行不了?请不要直接复制粘贴,不可能运行通过的,这个只是notebook中我们要自己写的那部分,要正确运行还需要其他py文件,请自己到GitHub上下载完整的。这里的部分仅仅是参考用的,建议还是自己按照提示一点一点写,如果实在卡住了再看答案。个人觉得这样才是正确的学习方法,况且
hongbin_xu
·
2020-07-06 16:04
Error when checking input: expected input_1 to have 3 dimensions, but got array with shape (37, 30)
吴恩达深度学习
作业Neural+machine+translation+with+attention+-+yangdaxia运行报错:原因如下:模型要求输入维度为(m,30,37)实际输入维度为(37,
yang_daxia
·
2020-07-06 10:17
深度学习作业
吴恩达深度学习
笔记(49)-为超参数选择合适的范围
为超参数选择合适的范围(Usinganappropriatescaletopickhyperparameters)在上一个笔记中,你已经看到了在超参数范围中,随机取值可以提升你的搜索效率。但随机取值并不是在有效范围内的随机均匀取值,而是选择合适的标尺,用于探究这些超参数,这很重要。在这个笔记中,会教你怎么做。假设你要选取隐藏单元的数量n^([l]),假设你选取的取值范围是从50到100中某点,这种
极客Array
·
2020-07-06 09:14
吴恩达深度学习
1-4课后作业1 Building your Deep Neural Network: Step by Step
BuildingyourDeepNeuralNetwork:StepbyStepWelcometoyourweek4assignment(part1of2)!Youhavepreviouslytraineda2-layerNeuralNetwork(withasinglehiddenlayer).Thisweek,youwillbuildadeepneuralnetwork,withasmanyl
xiayuanma
·
2020-07-06 09:58
deeplearning.ai
吴恩达深度学习
笔记(32)-Dropout正则化Dropout Regularization
dropout正则化(DropoutRegularization)除了L2正则化,还有一个非常实用的正则化方法——“Dropout(随机失活)”,我们来看看它的工作原理。假设你在训练上图这样的神经网络,它存在过拟合,这就是dropout所要处理的,我们复制这个神经网络,dropout会遍历网络的每一层,并设置消除神经网络中节点的概率。假设网络中的每一层,每个节点都以抛硬币的方式设置概率,每个节点得
极客Array
·
2020-07-05 07:40
吴恩达深度学习
(五)
优化算法第一课:小批量梯度下降本周学习加快神经网络训练速度的优化算法。我们之前学习过矢量化可以让你有效的计算所有m个样例,而不需要用一个具体的for循环就能处理整个训练集,这就是为什么我们要将所有的训练样例集中到这些巨型矩阵X中。X为nxm维矩阵,Y为1m维矩阵。矢量化运算能够相对更快地处理M个样例,但是如果M很大,速度也会相对变慢。对你的整个训练集进行梯度下降,你必须先处理你的训练集,从而加快你
带刺的小花_ea97
·
2020-07-04 11:18
1.
吴恩达深度学习
第一周
1.1欢迎深度学习改变了传统的互联网业务,例如网络搜索和广告。但是深度学习同时也使得许多产品和企业以很多方式帮助人们。从获得更好的健康关注:深度学习读取x光图像,到生活中的个性化教育,到精准化农业甚至到驾驶汽车和其他方面。如果你想用深度学习来做这些令人窒息的操作,我(吴老师)将帮助你做到这一点。学完这套课程之后,你将能更加自信的继续深度学习之路。AI让我们在接下来的十年中创造更好的社会和时代。AI
余生的观澜
·
2020-07-02 17:59
深度学习
B站
吴恩达深度学习
视频笔记(6)——逻辑回归
前言逻辑回归是机器学习非常重要的一种模型,在机器学习的某些场景下,甚至出现了“一个LR打天下”的情况,可以说这个模型是机器学习必须精通的模型。在这之前,你肯定接触过线性回归,但是逻辑回归和线性回归存在不小的差异,我需要先帮你弄清线性回归和逻辑回归是什么,他们有什么区别,再通过吴恩达老师的视频,详细地讲一下逻辑回归。什么是线性回归(Linearregression)首先我们要了解,什么是回归?我们认
nine_mink
·
2020-07-02 13:17
B站吴恩达深度学习视频笔记
吴恩达深度学习
系列笔记:第一课 神经网络和深度学习
第二周神经网络基础1.logistic回归logistic回归是一个用于二分分类的算法,即输入一幅图像(64x64x3=12288),输出1或者0,将图像中的特征全部提取出来,形成一个[12288,1]的特征矩阵,若是M个样本,则M_train=[12288,m],Y=[y1,y2...ym].输入参数X的维度为[12288,m],参数w的维度同为[12288,1],b为一个实数,则输出由于输出要
布莱克1997
·
2020-07-02 11:51
吴恩达深度学习
吴恩达深度学习
课后作业汇总及遇到的问题
近期正在学习吴恩达老师的深度学习课程,相关的博文正在逐步更新,之所以没有写完之后再发布是为了再学习过程中能和更多的人交流,希望能够找到一群跟我进度差不多的小伙伴共同交流进步~~所以欢迎大家积极留言~本文主要是分享了一位博主整理的课后作业,以及自己在做作业过程中遇到的一些疑问以及解决办法。作业:网易云课堂上没有提供作业的下载入口,在CSDN上找了很多作业的分享,下面这个博主总结的还是比较全面且细致的
布莱克1997
·
2020-07-02 11:20
吴恩达深度学习
吴恩达深度学习
系列笔记:第二课 改善深层神经网络
第一周:深度学习的实用层面本周主要讲解神经网络机器学习中的问题,学习一些能够确保神经网络正确运行的技巧。例如在配置训练、验证和测试集的过程中做出正确的决策会在很大程度上帮助大家创建高效的神经网络。训练神经网络时,我们常需要做出很多决策,例如神经网络分多少层;每层含有多少个隐藏单元;学习速率是多少;各层采取哪些激活函数等。1.1训练、开发、测试集深度学习的数据一般有三种用途:训练集、交叉验证集和测试
布莱克1997
·
2020-07-02 11:19
吴恩达深度学习
吴恩达深度学习
笔记(51)-归一化网络的激活函数(重要!)
归一化网络的激活函数(Normalizingactivationsinanetwork)在深度学习兴起后,最重要的一个思想是它的一种算法,叫做Batch归一化,由Sergeyloffe和ChristianSzegedy两位研究者创造。Batch归一化会使你的参数搜索问题变得很容易,使神经网络对超参数的选择更加稳定,超参数的范围会更加庞大,工作效果也很好,也会使你的训练更加容易,甚至是深层网络。让我
极客Array
·
2020-07-02 05:52
吴恩达深度学习
笔记(27)-深度学习与大脑的区别
深度学习和大脑有什么关联性吗?回答是:关联不大。那么人们为什么会说深度学习和大脑相关呢?当你在实现一个神经网络的时候,那些公式是你在做的东西,你会做前向传播、反向传播、梯度下降法,其实很难表述这些公式具体做了什么,深度学习像大脑这样的类比其实是过度简化了我们的大脑具体在做什么,但因为这种形式很简洁,也能让普通人更愿意公开讨论,也方便新闻报道并且吸引大众眼球,但这个类比是非常不准确的。一个神经网络的
极客Array
·
2020-07-01 11:26
吴恩达深度学习
系列课程随记——Course2Week2
1.Mini-batch梯度下降回顾梯度下降:每一轮都要处理全部样本,样本量太大的话,即使进行了向量化,运行也十分缓慢使用Mini-batch梯度下降:将X、Y分成t个小批(batch),分别执行梯度下降。每一个batch执行完都更新W和b,这样一次遍历全部样本后更新了t次W和b而不是一次,这称为一代(epoch)运算。当然我们可以通过循环增加代数来继续运算直到满足要求。2.理解Mini-batc
Asteries
·
2020-07-01 08:16
深度学习
神经网络
深度学习
个人笔记
菜鸟
吴恩达深度学习
卷积神经网络学习笔记(1)
1垂直边缘检测器图1.1实现上图的卷积运算:python中使用函数conv_forward在tensorflow中使用函数tf.nn.conv2d在keras框架中使用函数Conv2D其实这个就是数字图像处理里图像分割里面的梯度算子。要得到一幅图像的梯度,要求在图像的每个像素处计算偏导数和。我们处理的是数字量,因此要求关于一点的领域上的偏导数的数字近似。(1.1-1)(1.1-2)这两个公式对所有
steadfastly
·
2020-07-01 05:52
深度学习
机器学习的性能优化方法
1.引言最近看
吴恩达深度学习
的深度学习课程笔记,笔记公布网站:https://github.com/fengdu78/deeplearning_ai_bookshttp://www.ai-start.com
zourzh123
·
2020-06-30 19:34
机器学习
技术布道
花书+
吴恩达深度学习
(六)优化方法之 Mini-batch(SGD, MBGD, BGD)
Stochasticgradientdescent(SGD)3.Mini-batchgradientdescent(MBGD)如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~花书+
吴恩达深度学习
zhq9695
·
2020-06-30 17:35
深度学习
花书+
吴恩达深度学习
(四)多分类 softmax
目录0.前言1.二分类sigmoid2.多分类softmax3.多分类softmax梯度下降推导如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~花书+
吴恩达深度学习
(一)前馈神经网络
zhq9695
·
2020-06-30 17:35
深度学习
吴恩达深度学习
——机器学习策略(二)
文章目录引言进行错误分析清除标记错误的数据快速搭建你的第一个系统,并进行迭代在不同的分布上进行训练并测试不匹配数据划分的偏差和方差定位数据不匹配迁移学习多任务学习什么是端到端深度学习是否要应用端到端方法参考引言本文是
吴恩达深度学习
第三课
愤怒的可乐
·
2020-06-30 08:45
人工智能
读书笔记
吴恩达深度学习
——深度学习概论
引言本文是
吴恩达深度学习
第一课:神经网络与深度学习的笔记。神经网络与深度学习主要讨论了如何建立神经网络(包括一个深度神经网络)、以及如何训练这个网络。第一课有以下四个部分,本文是第一部分。
愤怒的可乐
·
2020-06-30 08:12
人工智能
读书笔记
吴恩达深度学习
——深层神经网络
文章目录引言深层神经网络深层网络中的前向传播核对矩阵的维数为什么使用深层表示搭建深度神经网络前向和反向传播参数与超参数参考引言本文是
吴恩达深度学习
第一课:神经网络与深度学习的笔记。
愤怒的可乐
·
2020-06-30 08:12
人工智能
读书笔记
吴恩达深度学习
笔记(70)-何时需要端到端的深度学习?
是否要使用端到端的深度学习?(Whethertouseend-to-endlearning?)假设你正在搭建一个机器学习系统,你要决定是否使用端对端方法,我们来看看端到端深度学习的一些优缺点,这样你就可以根据一些准则,判断你的应用程序是否有希望使用端到端方法。这里是应用端到端学习的一些好处,首先端到端学习真的只是让数据说话。所以如果你有足够多的(x,y)数据,那么不管从x到y最适合的函数映射是什么
极客Array
·
2020-06-30 04:50
用Pytorch手工实现ResNet50
《
吴恩达深度学习
课程》第四课第二周的作业是:使用Keras和Tensorflow编写ResNet50,用程序实现题目中描述的网络结构。
xieyan0811
·
2020-06-30 01:57
深度学习
吴恩达深度学习
课后编程题讲解(python)
小博极其喜欢这位人工智能领域大牛,非常膜拜,早在他出机器学习的课程的时候,就对机器学习产生了浓厚的兴趣,最近他又推出深度学习的课程,实在是又大火了一把,小博怎能不关注呢,我也跟随着吴恩达老师慢慢敲开深度学习的大门。吴恩达是斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任。吴恩达主要成就在机器学习和人工智能领域,他是人工智能和机器学习领域最权威的学者之一。2010年,时任斯坦福大学教授的
xiao__run
·
2020-06-30 00:08
机器学习
吴恩达深度学习
笔记(第五课时)
title:
吴恩达深度学习
笔记(第五课时)categories:人工智能tags:nlpdate:2019-12-0516:22:04cover:https://www.github.com/OneJane
布丁和尚
·
2020-06-29 17:01
人工智能
吴恩达深度学习
笔记(第三课时)
title:
吴恩达深度学习
笔记(第三课时)date:2019-10-0916:38:16categories:人工智能tags:nlpcover:https://www.github.com/OneJane
布丁和尚
·
2020-06-29 17:59
人工智能
吴恩达深度学习
笔记(第四课时)
title:
吴恩达深度学习
笔记(第四课时)date:2019-12-0515:38:39categories:人工智能tags:nlpcover:https://www.github.com/OneJane
布丁和尚
·
2020-06-29 17:59
人工智能
吴恩达深度学习
笔记(第一课时)
title:
吴恩达深度学习
笔记(第一课时)date:2019-12-0418:03:25categories:人工智能tags:nlpcover:https://www.github.com/OneJane
布丁和尚
·
2020-06-29 17:27
人工智能
AI 人工智能 各类资源大汇总 (完善中.....)
********本帖纯属依据个人自学经历收集整理…
吴恩达深度学习
课程值不值得学?
xuwx66
·
2020-06-29 14:09
Python
人工智能
吴恩达深度学习
——第一课第三周课后编程作业Debug经历
Miss思的踩坑历程DeepLearningCourse1Week3本次作业Bug给自己挖的坑(一个起因很二表现很诡异的bug)心得与体会DeepLearningCourse1Week3学吴恩达的深度学习课程,自然是要认真完成课后编程题的,于是贫穷的我扫荡到了整套的课后习题,开始了我的编程之旅。然后,面对这节课的坑,我不仅没爬出来,还给自己挖了一个更深的。。。仅以此文,记录下我艰难的Debug经历
Miss思
·
2020-06-29 11:27
深度学习
吴恩达深度学习
梯度下降法
笔记逻辑回归、成本函数及梯度下降概念以及公式逻辑回归:对于多维空间中存在的样本点,用特征的线性组合(特征加权)去拟合空间中点的分布和轨迹,并通过在线性回归模型中引入Sigmoid函数,将线性回归的不确定范围的连续输出值映射到(0,1)范围内,成为一个概率预测问题。成本函数:是关于参数w和b的函数,用来估量模型的预测值f(x)与真实值Y的不一致程度,衡量参数w和b在全部训练集上的效果。其函数值越小,
CoreJia
·
2020-06-29 11:08
深度学习
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他