E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CS231n深度学习笔记
深度学习笔记
第三门课 结构化机器学习项目 第二周 机器学习(ML)策略(2)...
本文是吴恩达老师的深度学习课程[1]笔记部分。作者:黄海广[2]主要编写人员:黄海广、林兴木(第四所有底稿,第五课第一二周,第三周前三节)、祝彦森:(第三课所有底稿)、贺志尧(第五课第三周底稿)、王翔、胡瀚文、余笑、郑浩、李怀松、朱越鹏、陈伟贺、曹越、路皓翔、邱牧宸、唐天泽、张浩、陈志豪、游忍、泽霖、沈伟臣、贾红顺、时超、陈哲、赵一帆、胡潇杨、段希、于冲、张鑫倩参与编辑人员:黄海广、陈康凯、石晴路
湾区人工智能
·
2023-11-03 15:22
吴恩达
深度学习笔记
(一)——第一课第二周
深度学习概论什么是神经网络上图的单神经元就完成了下图中函数的计算。下图的函数又被称为ReLU(修正线性单元)函数复杂的神经网络也是由这些简单的单神经元构成。实现后,要得到结果,只需要输入即可。x那一列是输入,y是输出,中间是隐藏单元,由神经网络自己定义用神经网络进行监督学习领域所用的神经网络房产预测等领域标准架构StandardedNN计算机视觉卷积神经网络CNN音频,文字翻译(一维序列问题)循环
Laurie-xzh
·
2023-10-29 16:57
吴恩达深度学习笔记
深度学习
神经网络
机器学习
深度学习笔记
(1)——虚拟环境操作
深度学习笔记
(1)——虚拟环境操作提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加文章目录
深度学习笔记
(1)——虚拟环境操作前言一、虚拟环境是什么?
江清月近人。
·
2023-10-29 10:42
深度学习
深度学习
python
人工智能
【连载】
深度学习笔记
7:Tensorflow入门
从前面的学习笔记中,和大家一起使用了numpy一步一步从感知机开始到两层网络以及最后实现了深度神经网络的算法搭建。而后我们又讨论了改善深度神经网络的基本方法,包括神经网络的正则化、参数优化和调参等问题。这一切工作我们都是基于numpy完成的,没有调用任何深度学习框架。在学习深度学习的时候,一开始不让大家直接上手框架可谓良苦用心,旨在让大家能够跟笔者一样,一步一步通过numpy搭建神经网络的过程就是
linux那些事
·
2023-10-27 15:22
CS231N
assignment2 SVM
CS231N
Assignment2SupportVectorMachineBegin本文主要介绍
CS231N
系列课程的第一项作业,写一个SVM无监督学习训练模型。
weixin_30363509
·
2023-10-27 09:38
数据结构与算法
人工智能
python
【AI】斯坦福
CS231n
课程练习(1)—— KNN和SVM分类
文章目录一、前言1、
CS231n
是啥?2、本篇博客任务3、使用的数据集二、知识准备1、KNN是什么?2、SVM是什么?
李清焰
·
2023-10-27 09:06
CS231n
KNN
SVM
深度学习系列之
cs231n
assignment1 KNN(二)
写在前面:久经周折,终于能够将KNN系列给大家继续分享了,这次的内容来源于李飞飞教授团队的
cs231n
深度学习课程的作业1中的KNN研究,我会在全文我遇到困难的地方进行分享,以及一些想法。
明曦君
·
2023-10-27 09:06
深度学习
python
机器学习
cs231n
assignment2(3)
assignment2的第三部分,是熟悉深度学习框架pytorch或者tensorflow,这里选择的是使用pytorch框架。该部分主要通过三个层次:Barebones、ModuleAPI、SequentialAPI,来了解pytorch。Barebones在该层次中,需要利用pytorch所提供的一些函数,不仅需要定义神经网络的结构,同时还需编写网络的前向传播以及模型的训练部分;而参数的梯度可
没天赋的学琴
·
2023-10-26 23:40
第三十三周学习笔记
第三十三周学习笔记
CS231n
DeepLearningSoftwareCPUvsGPUCPU:Fewercores,buteachcoreismuchfasterandmuchmorecapable;greatatsequentialtasksGPU
luputo
·
2023-10-26 08:07
学习笔记
深度学习笔记
(二)—— Numpy & PyTorch
Tensorloadingandpolyfitimporttorchimportnumpyasnpimportmatplotlib.pyplotasplt#loadtensorsx,y=torch.load('xs.pt'),torch.load('ys.pt')x_np=x.numpy()y_np=y.numpy()#tensortonumpy.arrayforiinrange(len(x_np
Nino_Lau
·
2023-10-26 04:06
CNN(卷积神经网络)、RNN(循环神经网络)、DNN,LSTM
http://
cs231n
.github.io/neural-networks-1https://arxiv.org/pdf/1603.07285.pdfhttps://adeshpande3.github.io
weixin_34174132
·
2023-10-26 01:08
人工智能
CNN笔记:通俗理解卷积神经网络
通俗理解卷积神经网络(
cs231n
与5月dl班课程笔记)1前言2012年我在北京组织过8期machinelearning读书会,那时“机器学习”非常火,很多人都对其抱有巨大的热情。
I_O_fly
·
2023-10-26 01:07
神经网络
cnn
神经网络
深度学习
深度学习笔记
:三维图片分类与三维卷积神经网络
简介做为机器学习领域里的“Helloworld”,MNIST手写数字图片数据集,是许多人研初学机器学习时都接触过的数据集。近期,为了研究深度学习在时空序列数据方面的应用,我想要了解三维卷积神经网络。在入门阶段,我接触到了三维的MNIST数据集,并且根据国外研究者给出示例代码来理解了三维卷积神经网络的基本结构。数据集:3DMNIST2Dvs3DMNIST3DMNIST的Kaggle地址是3DMNIS
adi0229
·
2023-10-21 16:00
深度学习笔记
(六):Encoder-Decoder模型和Attention模型
深度学习笔记
(二):简单神经网络,后向传播算法及实现
深度学习笔记
(三):激活函数和损失函数
深度学习笔记
:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam)
深度学习笔记
stay_foolish12
·
2023-10-17 21:14
面试经验
自然语言处理
阅读理解
深度学习
decoder
encoder
attention
RNN
Deep Learning
深度学习笔记
1(基础知识)
参考:1.AndrewNg,Sparseautoencoder(Lecturenotes)2.tornadomeet的博客,大部分从此博客摘录[http://www.cnblogs.com/tornadomeet/archive/2013/03/14/2959138.html]基础知识1术语Modelrepresentation:其实就是指学习到的函数的表达形式,可以用矩阵表示。Vectorize
chenlongzhen_tech
·
2023-10-17 06:11
机器学习
r语言
吴恩达
深度学习笔记
(31)-为什么正则化可以防止过拟合
为什么正则化有利于预防过拟合呢?(Whyregularizationreducesoverfitting?)为什么正则化有利于预防过拟合呢?为什么它可以减少方差问题?我们通过两个例子来直观体会一下。左图是高偏差,右图是高方差,中间是JustRight,这几张图我们在前面课程中看到过。现在我们来看下这个庞大的深度拟合神经网络。我知道这张图不够大,深度也不够,但你可以想象这是一个过拟合的神经网络。这是
极客Array
·
2023-10-14 20:17
minigpt-4 本地部署
笔者参考了
深度学习笔记
–本地部署Mini-GPT4,使用了http链接,huggingface下载llama和vicuna权重的download.txt分别如下:http://huggingface.co
duoyasong5907
·
2023-10-13 21:07
AI与ML
python
深度学习笔记
(python 面向对象高级编程)
自己看的视频网址:【深度学习保姆级教学】草履虫都能看懂!理论到实战、入门到起飞!人工智能基础入门必看!【ML机器学习|DL深度学习|CV计算机视觉|NLP自然语言处理】_哔哩哔哩_bilibili机器学习流程数据获取特征工程(最核心的部分)建立模型评估与应深度学习解决了怎么提取特征?python入门知识来判断对象类型,使用type()函数lambdaargument_list:expression
NightHacker
·
2023-10-12 07:15
深度学习
深度学习
人工智能
自然语言处理
深度学习DAY1:神经网络NN;二元分类
深度学习笔记
DAY1深度学习基本知识1.神经网络1.1单一神经元所有神经元将房屋大小size作为输入x,计算线性方程,结果取max(0,y),输出预测房价yReLU函数(线性整流函数)–max(0,y)
小白脸cty
·
2023-10-11 12:57
深度学习
深度学习
深度学习笔记
之优化算法(四)Nesterov动量方法的简单认识
机器学习笔记之优化算法——Nesterov动量方法的简单认识引言回顾:梯度下降法与动量法Nesterov动量法Nesterov动量法的算法过程描述总结(2023/10/9)补充与疑问附:Nesterov动量法示例代码引言上一节对动量法进行了简单认识,本节将介绍Nesterov\text{Nesterov}Nesterov动量方法。回顾:梯度下降法与动量法关于梯度下降法的迭代步骤描述如下:θ⇐θ−η
静静的喝酒
·
2023-10-09 21:39
深度学习
最优化理论与方法
python
深度学习
动量法
nesterov动量法
深度学习笔记
之优化算法(五)AdaGrad算法的简单认识
机器学习笔记之优化算法——AdaGrad算法的简单认识引言回顾:动量法与Nesterov动量法优化学习率的合理性AdaGrad算法的简单认识AdaGrad的算法过程描述引言上一节对Nesterov\text{Nesterov}Nesterov动量法进行了简单认识,本节将介绍AdaGrad\text{AdaGrad}AdaGrad方法。回顾:动量法与Nesterov动量法关于动量法(Momentum
静静的喝酒
·
2023-10-09 21:05
深度学习
最优化理论与方法
机器学习
深度学习
Adagrad算法
中欧Mini-MBA
深度学习笔记
+总结 Day-2
一、学习笔记怎样缓和部门间冲突.png二、总结/心得《团队协作的五大障碍》的作者兰西奥尼曾在书中写到,阻碍高效团队形成的主要原因是行为问题和人际问题,今天我们学习的“怎样缓和部门间冲突”这一课,就收获了两大方向与七种工具:方向一:改变员工的行为工具1:自然分离法工具2:定下规则法方向二:改变员工的态度工具3:整合法工具4:谈判法工具5:第三方介入工具6:远景的设立工具7:群体培训七种工具分别适用于
Maggie雷玮
·
2023-10-09 12:04
【
深度学习笔记
】过拟合与欠拟合
过拟合简答来说即模型在训练集上错误率较低,但在未知数据(包括测试集)上错误率很高。欠拟合简单来说是模型不能很好的拟合训练集,在训练集上就已经错误率较高。模型复杂度是影响拟合的一个因素。模型复杂度较低就会出现欠拟合的现象。模型复杂度较高,导致与训练集拟合非常好,模型参数训练出来是十分适合训练集的,可能出现过拟合的现象。影响欠拟合和过拟合的另⼀个重要因素是训练数据集的大小。⼀般来说,如果训练数据集中样
RealWeakCoder
·
2023-10-08 10:32
深度学习
机器学习
深度学习
神经网络
过拟合
欠拟合
吴恩达
深度学习笔记
优化算法
一、Mini-batchgradientdescent(小批量梯度下降法)Mini-batch:把整个训练数据集分成若干个小的训练集,即为Mini-batch。为什么要分?梯度下降法必须处理整个训练数据集,才能进行下一次迭代。当训练数据集很大时,对整个训练集进行一次处理,处理速度较慢。但是如果每次迭代只使用一部分训练数据进行梯度下降法,处理速度就会变慢。而处理的这些一小部分训练子集即称为Mini-
uponwyz
·
2023-10-07 20:27
深度学习
算法
cnn
2.2吴恩达
深度学习笔记
之优化算法
1.Mini_batchgradientdescent小批量梯度下降法思想:batchgd是一次性处理所有数据,在数据集较大时比如500万个样本,一次迭代的时间会很长,而mini_batchgd是把数据集分为多个子数据集,每个eopch中对子集进行一次处理实现:实现mini_batch分为两步,第一步shuffle,将原集打乱,乱序步骤确保将样本被随机分成不同的小批次。第二步partition分割
Traviscxy
·
2023-10-07 20:25
深度学习
深度学习
深度学习笔记
:优化算法
1、minibatch梯度下降传统的batch梯度下降是把所有样本向量化成一个矩阵,每一次iteration遍历所有样本,进行一次参数更新,这样做每一次迭代的计算量大,要计算所有样本,速度慢,但是收敛可以比较直接地收敛到costfunction的最小值。随机梯度下降(stochasticgradientdescent)是每次迭代以一个样本为输入,这种方法每次迭代更新参数时,参数不一定是朝着cost
a251844314
·
2023-10-07 20:23
笔记
深度学习
minibatch
指数加权平均
动量梯度下降
深度学习笔记
之优化算法(三)动量法的简单认识
机器学习笔记之优化算法——动量法的简单认识引言回顾:条件数与随机梯度下降的相应缺陷动量法简单认识动量法的算法过程描述附:动量法示例代码引言上一节介绍了随机梯度下降(StochasticGradientDescent,SGD)(\text{StochasticGradientDescent,SGD})(StochasticGradientDescent,SGD),本节将介绍动量法。回顾:条件数与随机
静静的喝酒
·
2023-10-07 20:20
深度学习
python
最优化理论与方法
深度学习
条件数与梯度下降法的缺陷
动量法
深度学习笔记
(二十一)—— CNN可视化
IntroductionOneofthemostdebatedtopicsindeeplearningishowtointerpretandunderstandatrainedmodel–particularlyinthecontextofhighriskindustrieslikehealthcare.Theterm“blackbox”hasoftenbeenassociatedwithdeep
Nino_Lau
·
2023-10-07 19:53
深度学习笔记
-工具使用Anaconda, jupyter
关于在Anaconda3中配置环境,打开AnacondaPrompt通过输入命令:1.activategluon2.jupyternotebook如若打开指定的文件目录如学习的课件:1.activategluon进入环境gluon,然后选择文件目录-进入D:cdd:\d2l-zh2.jupyternotebookjupyternotebook几个常用的快捷键H查看本次使用jupyternotebo
古镇风雨
·
2023-10-06 07:24
深度学习入门
深度学习
mxnet
python
深度学习笔记
7:模型选择+过拟合和欠拟合
模型选择例子:预测谁会偿还贷款银行雇你来调查谁会偿还贷款你得到了100个申请人的信息其中五个人在3年内违约了发现:5个人在面试的时候都穿模型也发现了这个强信号这会有什么问题?训练误差和泛化误差训练误差:模型在训练数据上的误差泛化误差:模型在新数据上的误差(主要关注)例子:根据模考成绩来预测未来考试分数在过去的考试中表现很好(训练误差)不代表未来考试一定会好(泛化误差)学生A通过背书在模考中拿到好成
燏羡
·
2023-10-05 18:17
深度学习(pytorch)笔记
深度学习
人工智能
机器学习
Knn算法与 Svm算法对比
Knn算法与Svm算法对比这里首先借用一个博主所做的图表,讲的很有理有据(7条消息)[
cs231n
]KNN与SVM区别_Rookie’Program的博客-CSDN博客_knn和svm的区别这里我们来讲一下我对这两个算法的理解
一个不知名的码农
·
2023-10-05 15:32
支持向量机
算法
机器学习
深度学习笔记
_4、CNN卷积神经网络+全连接神经网络解决MNIST数据
1、首先,导入所需的库和模块,包括NumPy、PyTorch、MNIST数据集、数据处理工具、模型层、优化器、损失函数、混淆矩阵、绘图工具以及数据处理工具。importnumpyasnpimporttorchfromtorchvision.datasetsimportmnistimporttorchvision.transformsastransformsfromtorch.utils.datai
Element_南笙
·
2023-10-05 00:18
深度学习
深度学习
神经网络
笔记
深度学习笔记
之微积分及绘图
深度学习笔记
之微积分及绘图学习资料来源:微积分%matplotlibinlinefrommatplotlib_inlineimportbackend_inlinefrommxnetimportnp,npxfromd2limportmxnetasd2lnpx.set_np
白芷加茯苓
·
2023-10-03 20:02
Python学习记录
机器学习
深度学习
笔记
WED笔记
神经网络与
深度学习笔记
要点在numpy中矩阵乘法与点乘:1.1矩阵乘法np.dot(a,b)=a@b其中矩阵a的列和b的行数相等看一下下面的这两个随机数组“a”和“b”:a=np.random.randn
挥手致何意
·
2023-10-03 04:58
神经网络与深度学习
深度学习笔记
之线性代数
深度学习笔记
之线性代数一、向量在数学表示法中,向量通常记为粗体小写的符号(例如,x,y,z)当向量表示数据集中的样本时,它们的值具有一定的现实意义。
白芷加茯苓
·
2023-10-02 20:02
Python学习记录
机器学习
深度学习
笔记
线性代数
深度学习笔记
_3、全连接神经网络解决MNIST数据
1、导入包importnumpyasnpimporttorch#导入pytorch内置的mnist数据fromtorchvision.datasetsimportmnist#importtorchvision#导入预处理模块importtorchvision.transformsastransformsfromtorch.utils.dataimportDataLoader#导入nn及优化器imp
Element_南笙
·
2023-10-02 20:53
深度学习
深度学习
笔记
神经网络
斯坦福大学CS520知识图谱系列课程学习笔记:第一讲什么是知识图谱
之前,斯坦福大学的面向计算机视觉的
CS231n
和面向自然语言处理的CS224n成为了全球非常多AI研究人员的入门经典学习课程。
ngl567
·
2023-10-02 02:17
深度学习笔记
:一些理解上的问题
1、特征映射什么意思指在卷积神经网络(ConvolutionalNeuralNetwork,CNN)中的卷积层中,通过对输入数据进行卷积操作得到的输出数据。特征映射可以看作是输入数据在卷积神经网络中的“抽象”,它可以提取输入数据中的不同特征,例如边缘、纹理、形状等信息。随着网络深度的增加,特征映射也变得越来越抽象,可以提取更高级别的特征,例如物体的部分、整体、类别等信息。这些特征映射最终会通过池化
愿你酷得像风
·
2023-10-01 05:21
深度学习
深度学习
深度学习笔记
(四)—— 前馈神经网络的 PyTorch 实现
1AUTOGRADAUTOMATICDIFFERENTIATIONCentraltoallneuralnetworksinPyTorchistheautogradpackage.Let’sfirstbrieflyvisitthis,andwewillthengototrainingourfirstneuralnetwork.Theautogradpackageprovidesautomaticdi
Nino_Lau
·
2023-10-01 01:52
深度学习笔记
_1、定义神经网络
1、使用了PyTorch的nn.Module类来定义神经网络模型;使用nn.Linear来创建全连接层。(CPU)importtorch.nnasnnimporttorch.nn.functionalasFfromtorchsummaryimportsummary#定义神经网络模型classNet(nn.Module):def__init__(self):super(Net,self).__ini
Element_南笙
·
2023-09-30 22:17
深度学习
深度学习
笔记
神经网络
深度学习笔记
_2、多种方法定义神经网络
1、nn.Moduleimporttorchfromtorchimportnnimporttorch.nn.functionalasFclassModel_Seq(nn.Module):""def__init__(self,in_dim,n_hidden_1,n_hidden_2,n_hidden_3,out_dim):super(Model_Seq,self).__init__()self.fl
Element_南笙
·
2023-09-30 22:45
深度学习
深度学习
笔记
神经网络
【李沐
深度学习笔记
】Softmax回归
课程地址和说明Softmax回归p1本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。Softmax回归虽然它名字叫作回归,但是它其实是分类问题本节课的基础想要学会本节课得需要一点基础,我真没看懂这节课讲的是什么,查了一些资料补了补基础此处参考视频信息量|熵|交叉熵|KL散度(相对熵)|交叉熵损失函数信息量(AmountofInformation)定义事件
魔理沙偷走了BUG
·
2023-09-30 13:39
李沐深度学习
深度学习
笔记
回归
深度学习笔记
之优化算法(二)随机梯度下降
深度学习笔记
之优化算法——随机梯度下降引言回顾:梯度下降法梯度下降法在机器学习中的问题随机梯度下降随机梯度下降方法的思想随机梯度下降方法的步骤描述关于学习率引言本节将介绍随机梯度下降(StochasticGradientDescent
静静的喝酒
·
2023-09-28 13:05
深度学习
机器学习
随机梯度下降与Bagging
梯度下降法的问题
【李沐
深度学习笔记
】线性回归的简洁实现
课程地址和说明线性回归的简洁实现p4本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。线性回归的简洁实现通过使用深度学习框架来简洁地实现线性回归模型生成数据集importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2l#真实w和btrue_w=torch.tensor(
魔理沙偷走了BUG
·
2023-09-27 20:58
李沐深度学习
深度学习
笔记
线性回归
动手
深度学习笔记
(三十三)6.3. 填充和步幅
动手
深度学习笔记
(三十三)6.3.填充和步幅题6.卷积神经网络6.3.填充和步幅6.3.1.填充6.3.2.步幅6.3.3.小结6.3.4.练习6.卷积神经网络6.3.填充和步幅在前面的例子图6.2.1
落花逐流水
·
2023-09-27 06:07
pytorch实践
pytorch
pytorch
李沐
深度学习笔记
(利用pytorch的深度学习框架实现线性回归)
1.主要代码:#线性回归的简单实现importtorchfromtorch.utilsimportdatafromd2limporttorchasd2l#获取数据集true_w=torch.tensor([2,-3.4])true_b=4.2features,labels=d2l.synthetic_data(true_w,true_b,1000)#调用d2l库中的synthetic_data构造
小蔡是小菜
·
2023-09-25 17:25
python
深度学习
pytorch
线性回归
【李沐
深度学习笔记
】自动求导实现
课程地址和说明自动求导实现p2本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。自动求导#创建变量importtorchx=torch.arange(4,dtype=torch.float32)#只有浮点数才能求导#计算y关于x的梯度之前,需要一个地方存储梯度x.requires_grad_(True)print("x为:",x)#计算yy=2*torch
魔理沙偷走了BUG
·
2023-09-24 16:47
李沐深度学习
深度学习
笔记
人工智能
吴恩达
深度学习笔记
-搭建多层神经网络
吴恩达作业-搭建多层神经网络。神经网络的结构可以有很多层,结构是输入层>隐藏层>隐藏层>>>输出层,在每一层中,首先计算的是矩阵相乘[linear_forward],然后再计算激活函数[linear_activation_forward],合并起来就是这一层的计算方式,所以每一层的计算都有两个步骤。可参照如下图:计算步骤表示图文末附全部代码链接计算伪代码如下:1.初始化网络参数2.前向传播(1)计
一技破万法
·
2023-09-23 13:40
【李沐
深度学习笔记
】矩阵计算(2)
课程地址和说明线性代数实现p4本系列文章是我学习李沐老师深度学习系列课程的学习笔记,可能会对李沐老师上课没讲到的进行补充。本节是第二篇矩阵计算矩阵的导数运算此处参考了视频:矩阵的导数运算为了方便看出区别,我将所有的向量都不按印刷体加粗,而是按手写体在向量对应字母上加箭头的方式展现。标量方程对向量的导数在一元函数中,求一个函数的极值点,一般令导数为0(该点切线斜率为0),求得驻点,最后通过极值点定义
魔理沙偷走了BUG
·
2023-09-22 22:34
李沐深度学习
深度学习
笔记
矩阵
深度学习笔记
-使用神经网络进行手写数字分类(1)
注:关于类和标签的说明。在机器学习中,分类问题中的某个类别叫做类(class)。数据点叫做样本(Sample)。某个样本对应的类叫做标签(lable)。MNIST数据集预加载在Keras库中fromkeras.datasetsimportmnist(train_images,train_labels),(test_images,test_labels)=mnist.load_data()注:tra
布莱克先生
·
2023-09-22 09:28
深度学习
深度学习
神经网络
分类
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他