E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达-Coursera
吴恩达
深度学习 5.2 序列模型-NLP和词嵌入
1.知识点单词的向量表示:one-hot:向量长度为词典全部单词数,对应单词的位置用1表示,其他位置用0表示。缺点是每两个单词向量的乘积都为0,无法获取词与词之彰的相似性和相关性。词嵌入:用不同特征对各个词汇进行表征,相对与不同的特征,不同的单词均有不同的值。词嵌入的应用名字实体识别:比如,数据集不包含durain(榴莲)词汇,无法对包含durain的句子做实体识别。但我们从durain的词嵌入向
垚焱焱
·
2022-12-03 08:03
深度学习
自然语言处理
人工智能
【序列模型】第二课--自然语言处理与词嵌入
课程来源:
吴恩达
深度学习
王小小小草
·
2022-12-03 08:00
吴恩达
机器学习课上lab C1_W1_Lab02_Course_Preview_Soln-checkpoint
吴恩达
机器学习labC1_W1_Lab02_Model_Representation_Soln-checkpoint前置代码块1代码块2代码块3代码块4代码块5代码块6(绘制图像)代码块7代码块8代码块
qq_47881858
·
2022-12-03 08:30
吴恩达机器学习课上lab
numpy
python
关于运行
吴恩达
老师C1_W1_Lab04_Cost_function_Soln出现的错误
这是
吴恩达
老师在上面标注的话localplottingroutinesinthelab_utils_uni.pyfileinthelocaldirectory总共需要两个文件最后成功
qq_37670641
·
2022-12-03 08:27
python
机器学习
matlab
深度学习笔记 第五门课 序列模型 第二周 自然语言处理与词嵌入
本文是
吴恩达
老师的深度学习课程[1]笔记部分。
湾区人工智能
·
2022-12-03 08:20
吴恩达
机器学习lab C1_W1_Lab01_Python_Jupyter_Soln
吴恩达
机器学习labC1_W1_Lab01_Python_Jupyter_Soln代码块1代码块2总结代码块1#Thisisa'Code'Cellprint("Thisiscodecell")Thisiscodecell
qq_47881858
·
2022-12-03 08:48
吴恩达机器学习课上lab
python
jupyter
【
吴恩达
机器学习笔记】九、机器学习系统的设计
spm=1011.2415.3001.5343专栏定位:为学习
吴恩达
机器学习视频的同学提供的随堂笔记。专栏简介:在这个专栏,我将整理
吴恩达
机器学习视频的所有内容的笔记,方便大家参考学习。
Pandaconda
·
2022-12-03 06:21
机器学习
机器学习
人工智能
深度学习
算法
c++
吴恩达
深度学习 | (20) 序列模型专项课程第一周学习笔记
课程视频第一周PPT汇总
吴恩达
深度学习专项课程共分为五个部分,本篇博客将介绍第五部分序列模型专项的第一周课程:循环序列模型。目录1.为什么选择序列模型?
CoreJT
·
2022-12-03 03:08
吴恩达深度学习
吴恩达深度学习
序列模型
RNN
5-1
Coursera
吴恩达
《序列模型》 第一周课程笔记-循环序列网络(RNN)
记录
吴恩达
AndrewNg深度学习专项课程笔记,方便之后回顾,共5门课。
双木的木
·
2022-12-03 03:01
吴恩达深度学习笔记
笔记
AI
自然语言处理
深度学习
神经网络
机器学习
python
深度学习笔记 第五门课 序列模型 第一周 循环序列模型
本文是
吴恩达
老师的深度学习课程[1]笔记部分。
湾区人工智能
·
2022-12-03 03:59
tensorflow—tf.gradients()简单实用教程
声明:参考官方文档参考tensorflow学习笔记(三十)关于神经网络中的梯度计算,推荐
吴恩达
的deeplearning公开课tf.gradients()在tensorflow中,tf.gradients
hustqb
·
2022-12-02 22:12
TensorFlow
如何阅读论文
如何阅读论文李沐1.第一遍:文章主要讲什么1.1看整体1.2看图表2.第二遍:文章每一部分讲什么3.第三遍:真正读懂
吴恩达
1.1系统阅读论文集1.2论文至少要看三遍1.2.1第一遍,仔细阅读论文中的标题
Paul-Huang
·
2022-12-02 19:54
吴恩达-深度学习笔记
医学图像&论文笔记
阅读论文
李沐
吴恩达
2.逻辑回归算法梳理
逻辑回归与线性回归的联系与区别2、逻辑回归的原理3、逻辑回归损失函数推导及优化4、正则化与模型评估指标5、逻辑回归的优缺点6、样本不均衡问题解决办法7.sklearn参数参考资料1、西瓜书2、cs229
吴恩达
机器学习课程
weixin_30823683
·
2022-12-02 10:32
人工智能
数据结构与算法
RNN循环神经网络(
吴恩达
《序列模型》笔记一)
1、为什么选择序列模型2、数学符号用1来代表人名,0来代表非人名,句子x便可以用y=[110110000]来表示3、循环网络模型值得一提的是,共享特征还有助于减少神经网络中的参数数量,一定程度上减小了模型的计算复杂度。RNN模型包含三类权重系数,分别是Wax,Waa,Wya。优点:不同元素之间同一位置共享同一权重系数。缺点:它只使用了这个序列中之前的信息来做出预测。比如作出预测y的时候没有用到之后
cici_iii
·
2022-12-02 07:06
深度学习笔记
RNN
吴恩达
序列模型
笔记
【
吴恩达
deeplearning.ai】深度学习(9):循环神经网络
随深度学习技术的发展,使用循环神经网络(RecurrentNeuralNetwork,RNN)建立的各种序列模型,使语音识别、机器翻译及自然语言理解等应用成为可能。表示与类型自然语言、音频等数据都是前后相互关联的数据,比如理解一句话要通过一整句而不是其中的几个词,分析一段音频要通过连续的片段而不是其中的几帧。前面所学的DNN以及CNN处理的都是前后毫无关联的一个个单独数据,对于这些序列数据则需要采
Hugsy19
·
2022-12-02 07:05
机器学习
深度学习
机器学习
深度学习
自然语言处理
吴恩达
深度学习第五章序列模型——第一周循环序列模型
循环序列模型自然语言和音频都是前后相互关联的数据,对于这些序列数据需要使用循环神经网络(RecurrentNeuralNetwork,RNN)来进行处理。使用RNN实现的应用包括下图中所示:数学模型对于一个序列数据x,用符号x〈t〉来表示这个数据中的第t个元素,用y〈t〉来表示第t个标签,用Tx和Ty来表示输入和输出的长度。对于一段音频,元素可能是其中的几帧;对于一句话,元素可能是一到多个单词。第
倚剑笑紅尘
·
2022-12-02 07:34
机器学习
机器学习
机器学习
深度学习
nlp
吴恩达
《序列模型》01——循环神经网络RNN
文章目录一、序列模型1.什么是序列模型?2.数学符号(Notation)二、循环神经网络1.标准NN存在的问题2.RNN3.通过时间反向传播(Backpropagationthroughtime)4.不同结构三、语言模型1.Languagemodelandsequencegeneration2.采样(Samplingnovelsequences)四、GRU和LSTM1.RNN的梯度消失(Vanis
美式咖啡不加糖x
·
2022-12-02 07:33
DeepLearning
rnn
人工智能
吴恩达
深度学习笔记05——序列模型1循环序列模型
自然语言和音频都是前后相互关联的数据,对于这些序列数据需要使用循环神经网络(RecurrentNeuralNetwork,RNN)来进行处理。使用RNN实现的应用包括下图中所示:一、数学符号对于一个序列数据x,用符号x⟨t⟩x^{⟨t⟩}x⟨t⟩来表示这个数据中的第t个元素,用y⟨t⟩y^{⟨t⟩}y⟨t⟩来表示第t个标签,用TxT_xTx和TyT_yTy来表示输入和输出的长度。对于一段音频,元素
阿尔基亚
·
2022-12-02 07:03
吴恩达深度学习
吴恩达
机器学习笔记2
Logistic回归:判定边界:logistics回归代价函数:高级优化:利用一些高级算法,来更快计算出结果。通常这些算法:能够自主选择α,速度大大快于梯度下降,但比梯度下降更为复杂。正则化:过拟合解决方法:1.丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(例如PCA)2.正则化。保留所有的特征,但是减少参数的大小。正则化线性回归:正则化logi
m0_74248994
·
2022-12-02 00:56
吴恩达
机器学习笔记1
监督学习和无监督学习:监督学习这个想法是指,我们将教计算机如何去完成任务,而在无监督学习中,我们打算让它自己进行学习。监督学习指的就是我们给学习算法一个数据集,这个数据集由“正确答案”组成。在房价的例子中,我们给了一系列房子的数据,我们给定数据集中每个样本的正确价格,即它们实际的售价然后运用学习算法,算出更多的正确答案。回归问题:分类问题:无监督学习无监督学习中没有任何的标签或者是有相同的标签或者
m0_74248994
·
2022-12-02 00:22
人工智能
算法
吴恩达
新公司获500万美元种子轮融资,用AI帮零售商实时追踪竞品优化价格,将在香港开办事处...
羿阁发自凹非寺量子位|公众号QbitAIAI大牛
吴恩达
又创立了一家新公司:Netail。最新消息是,这家公司刚刚完成500万美元种子轮投资。
QbitAl
·
2022-12-01 22:06
人工智能
大数据
用Python学习
吴恩达
机器学习——梯度下降算法理论篇
开篇词:(CSDN专供)欢迎阅读我的文章,本文起先是在B站上进行投稿,一开始是采用
吴恩达
机器学习2012年版的,目前已经出了十二期了。
寻觅那宇宙
·
2022-12-01 13:53
python
机器学习
2022
吴恩达
机器学习课程学习笔记(第一课第二周)
2022
吴恩达
机器学习课程学习笔记(第一课第二周)多维特征向量化用于多元线性回归的梯度下降法多元线性回归的实现正规方程特征缩放特征大小、参数大小以及梯度下降之间的关系特征缩放定义特征缩放实现判断梯度下降是否收敛画学习曲线图自动收敛测试如何设置学习率特征工程多项式回归多维特征上周我们学习了单特征线性回归模型
Ys能保研
·
2022-12-01 13:22
机器学习
机器学习
人工智能
2022
吴恩达
机器学习课程学习笔记(第二课第二周)
2022
吴恩达
机器学习课程学习笔记(第二课第二周)TensorFlow实现模型训练细节sigmoid激活函数的替代方案如何选择激活函数如何为输出层选择激活函数如何为隐藏层选择激活函数为什么模型需要激活函数多分类问题
Ys能保研
·
2022-12-01 13:22
机器学习
人工智能
吴恩达
机器学习笔记(第二章)
2.Linearregressionwithonevariable2-1Modelrepresentation标记:m:训练样本数x:输入y:输出(x,y):一个训练样本第i个训练样本用训练样本和学习算法得出假设函数h(hypothesis)如右图用直线表达的h是线性回归模型(Linearregression)2-2Costfunction目标是找出θ0,1使得代价函数J最小这个代价函数被叫做平方
岁月标记
·
2022-12-01 13:22
机器学习
人工智能
python
吴恩达
2022机器学习——第二部分高级学习算法第三周笔记
目录1.1决定下一步做什么(构建机器学习的实用建议)1.2模型评估1.3模型选择&交叉验证测试集的训练方法模型选择总结举例2.1通过偏差与方法进行诊断2.2正则化、偏差、方差1.1决定下一步做什么(构建机器学习的实用建议)从一个例子开始:假设你已经实现了正则化线性回归来预测房价,所以你有了学习算法的普通代价函数,平方误差加上这个正则化项,如下图:但如果你训练模型时发现它的预测结果出现了太大的误差,
爱敲代码的小雨
·
2022-12-01 13:21
机器学习
笔记
算法
学习
吴恩达
机器学习笔记一
目录:机器学习监督学习无监督学习单变量线性回归代价函数梯度下降批量梯度下降1.机器学习含义机器学习(MachineLearning)是研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。目标“让机器自己学习怎么来解决问题”由TomMitchell定义的机器学习是,一个好的学习问题或一个程序认为能从经验E中学习,解决任务T,达到性能度量值P,当
luky_yu
·
2022-12-01 13:20
机器学习
机器学习
梯度下降
回归
监督学习
代价函数
吴恩达
机器学习笔记(七)神经网络:代价函数
NeuralNetworks:LearningCostfunction逻辑回归代价函数:J(θ)=−1m∑i=1m(y(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i))))+λ2m∑j=1mθj2J(\theta)=-\frac{1}{m}\sum_{i=1}^{m}(y^{(i)}\log(h_\theta(x^{(i)}))+(1-y^{(i)})\log(1-
哇哈哈哈哈呀哇哈哈哈
·
2022-12-01 13:18
机器学习
机器学习
吴恩达
机器学习笔记 —— 9 神经网络学习
http://www.cnblogs.com/xing901022/p/9344621.html本章讲述了神经网络的起源与神经元模型,并且描述了前馈型神经网络的构造。更多内容参考机器学习&深度学习在传统的线性回归或者逻辑回归中,如果特征很多,想要手动组合很多有效的特征是不现实的;而且处理这么大的特征数据量,计算上也很复杂。神经网络最开始起源于生物信息中的大脑,在上世纪80-90年代的时候很火,后来
喜欢打酱油的老鸟
·
2022-12-01 13:17
人工智能
吴恩达
机器学习
神经网络学习
吴恩达
《机器学习》学习笔记(三)
目录深层神经网络深层神经网络概述前向传播和反向传播核对矩阵的维数为什么使用深层表示?搭建神经网络块参数VS超参数(ParametersvsHyperparameters)深度学习和大脑的关联性深层神经网络深层神经网络概述计算算神经网络的层数时,不算输入层,我们只算隐藏层和输出层。前向传播和反向传播前向传播可以归纳为多次迭代zl=wlal-1+bl,al=g[l]z[l]核对矩阵的维数在做深度神经网
梦想的小鱼
·
2022-12-01 13:45
机器学习
人工智能
深度学习
机器学习
吴恩达
机器学习笔记---神经网络前向传播
前言1.非线性假设(Non-linearHypotheses)2.模型表示(ModelRepresentation)3.向量化(Vectorization)神经网络表述(一)非线性假设(Non-linearHypotheses) 之前我们学习了线性回归和逻辑回归算法,理论上它们可以解决绝大部分的问题了,但是实际上,当我们的特征逐渐变多的时候,用线性回归和逻辑回归来解决问题通常会导致计算的负荷非常
ML0209
·
2022-12-01 13:15
机器学习
人工智能
神经网络
机器学习
吴恩达
机器学习——神经网络学习笔记
术语神经网络NeuralNetworks输入层inputlayer隐藏层hiddenlayer输出层ourputlayera(j)i第j层第i个激活项(具体的一个神经元输入或输出的值)θ(j)权重矩阵(控制从第j层到第j+1层映射)例子
左Ying
·
2022-12-01 13:12
机器学习
【免积分下载】
吴恩达
机器学习笔记PDF版v5.5.pdf
众所周知,
吴恩达
先生的机器学习课程与深度学习课程对初学者十分友好。根据我个人的学习经验,视频可能会更容易理解,但是阅读却是我认为的一种高效的复习方式。
江南蜡笔小新
·
2022-12-01 13:11
tricks
机器学习
人工智能
深度学习
神经网络
吴恩达
吴恩达
机器学习笔记(八):神经网络
吴恩达
机器学习笔记(八):神经网络前言:毫无疑问这是新的一章,算是机器学习的一步向上的台阶,也算深度学习的入门预备,所以说我们应该感谢那个一直在坚持学习的自己,并一鼓作气,一直走下去!
BANKA1_
·
2022-12-01 13:11
吴恩达机器学习笔记
神经网络
机器学习
深度学习
【机器学习笔记】
吴恩达
机器学习
spm=1011.2415.3001.5343专栏定位:为学习
吴恩达
机器学习视频的同学提供的随堂笔记。专栏简介:在这个专栏,我将整理
吴恩达
机器学习视频的所有内容的笔记,方便大家参考学习。
Pandaconda
·
2022-12-01 13:10
机器学习
python
人工智能
算法
c++
【
吴恩达
机器学习笔记】八、应用机器学习的建议
spm=1011.2415.3001.5343专栏定位:为学习
吴恩达
机器学习视频的同学提供的随堂笔记。专栏简介:在这个专栏,我将整理
吴恩达
机器学习视频的所有内容的笔记,方便大家参考学习。
Pandaconda
·
2022-12-01 13:10
机器学习
人工智能
深度学习
算法
c++
吴恩达
机器学习 - 神经网络笔记
第四周8、神经网络8.1非线性假设图像识别难,计算机看到的是灰度矩阵/RGB存储量x38.2神经元和大脑假设大脑思维方式不需要成千上万算法,而只需要一个。躯体感觉皮层进行神经重接(视觉)实验,该皮层也能学会看。如果人体有同一块脑组织可以处理光、声或触觉信号,也许存在一种学习算法,可以同时处理视觉、听觉和触觉。8.3模型展示1神经元(激活单位),输入/树突,输出/轴突第一层成为输入层,最后一层称为输
糖加三勺-
·
2022-12-01 13:10
小罗自学机器学习
机器学习
神经网络
吴恩达
机器学习学习笔记 --- 神经网络
(1)逻辑单元(2)神经网络模型展示【主要加入偏置量】【注意下标】(3)前向传播【从前往后计算a值】(4)举例【AND】【OR】【NOT】【XNOR】【更深一层计算更加复杂的函数】(5)多元分类【一对多】(6)代价函数(7)反向传播【怎么求偏导项、确定参数】【计算误差】【计算偏导项】【理解反向传播】(8)梯度检测【theta是实数】【theta是向量】【当发现反向传播无误后,应理解关掉梯度检测】(
奔跑的星黛露
·
2022-12-01 13:40
机器学习
神经网络
机器学习
学习
机器学习笔记(4)--神经网络前向传播 --基于
吴恩达
机器学习配套笔记
代价函数理解:神经网络本质也是分类算法,但是比原来的逻辑回归复杂一点点。所以其代价函数也只需要对逻辑回归的代价函数进行亿点点修改:变成:因为很长一下子接受不了,咱也是在草稿纸上演画了一会才懂:前面一大段求和看另外的图:不过在真实的神经网络训练和测试中,至少在下面的简单的神经网络方法内,每个输出节点不可能完全为0或完全为1,此时认定最大的为1,其余为0。这样一来,对神经网络的代价函数应该有了直观的印
Cake_C
·
2022-12-01 13:39
机器学习笔记
神经网络
python
机器学习
人工智能
【
吴恩达
机器学习笔记】七、神经网络
spm=1011.2415.3001.5343专栏定位:为学习
吴恩达
机器学习视频的同学提供的随堂笔记。专栏简介:在这个专栏,我将整理
吴恩达
机器学习视频的所有内容的笔记,方便大家参考学习。
Pandaconda
·
2022-12-01 13:37
机器学习
神经网络
人工智能
python
算法
线性回归及logistic回归详解
机器学习线性回归logistic回归(主要参考
吴恩达
机器学习)线性回归线性回归是机器学习中比较基本的一个算法。
农夫三犭
·
2022-12-01 10:16
强化学习
线性回归
机器学习
logistic
regression
吴恩达
机器学习课程笔记+代码实现(26)17.大规模机器学习(Large Scale Machine Learning)
17.大规模机器学习(LargeScaleMachineLearning)文章目录17.大规模机器学习(LargeScaleMachineLearning)17.1大型数据集的学习17.2随机梯度下降法17.3小批量梯度下降17.4随机梯度下降收敛17.5在线学习17.6映射化简和数据并行17.1大型数据集的学习如果我们有一个低方差的模型,增加数据集的规模可以帮助你获得更好的结果。我们应该怎样应对
geekxiaoz
·
2022-12-01 07:07
SGD随机梯度下降
吴恩达
机器学习
西瓜书+实战+
吴恩达
机器学习(七)监督学习之决策树 Decision Tree
文章目录0.前言1.划分选择1.1.ID3决策树1.2.C4.5决策树1.3.CART决策树2.剪枝3.连续值处理4.缺失值处理如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔,我会非常开心的~0.前言一颗决策树包含一个根节点、若干个内部节点、若干个叶子节点,叶子节点对应于决策结果,其他每个节点对应于一个属性测试。构建决策树算法如下图所示(图源:机器学习):有以下三种情况递归返回:当前节点的
I can丶
·
2022-12-01 07:37
机器学习
机器学习
决策树
ID3
C4.5
CART
Andrew-Ng-ML
吴恩达
机器学习 课后练习错题总结
Andrew-Ng-ML
吴恩达
机器学习课后练习错题总结4LinearRegressionwithMultipleVariables5Octave/MatlabTutorial6LogisticRegression7Regularization8NeuralNetworks
持续战斗状态
·
2022-12-01 07:34
【AI】调研与实战
人工智能
机器学习
神经网络
python实现决策树(
吴恩达
课程)
python实现决策树(
吴恩达
课程)#UNQ_C1#GRADEDFUNCTION:compute_entropydefcompute_entropy(y):"""ComputestheentropyforArgs
sherlockjjobs
·
2022-12-01 07:04
Python
python
决策树
机器学习
吴恩达
机器学习系列课程笔记——第十七章:大规模机器学习(Large Scale Machine Learning)
17.1大型数据集的学习https://www.bilibili.com/video/BV164411b7dx?p=102接下来的课程,我们会学习大规模机器学习,也就是处理大型数据集的算法,对比之前的算法,我们拥有大量的数据集,使得我们的准确度更高,现在我们要学习如何处理大型数据集。为什么我们要学会处理大型数据集呢?我们之前学习过一种高性能的机器学习算法,是采用低偏差的学习算法,并用大数据进行训练
Lishier99
·
2022-12-01 07:04
机器学习
机器学习
人工智能
算法
学习
【Machine Learning,
Coursera
】机器学习Week10 大规模机器学习笔记
ML:LargeScaleMachineLearning本节内容:适用于大规模数据的梯度下降方法及如何确保算法收敛机器学习概念:批量梯度下降(BatchGradientDescent)随机梯度下降(StochasticGradientDescent)小批量梯度下降(Mini-batchGradientDescent)1.GradientDescent1.1Methods以线性回归为例:批量梯度下降
Aki-Z
·
2022-12-01 07:03
机器学习
吴恩达
机器学习笔记60-大规模机器学习(Large Scale Machine Learning)
一、随机梯度下降算法之前了解的梯度下降是指批量梯度下降;如果我们一定需要一个大规模的训练集,我们可以尝试使用随机梯度下降法(SGD)来代替批量梯度下降法。在随机梯度下降法中,我们定义代价函数为一个单一训练实例的代价:随机梯度下降算法为:首先对训练集随机“洗牌”,然后:下面是随机梯度下降算法的过程以及和批量梯度下降算法的异同:随机梯度下降算法是先只对第1个训练样本计算一小步的梯度下降,即这个过程包括
weixin_34122810
·
2022-12-01 07:33
人工智能
吴恩达
机器学习笔记(十一) —— Large Scale Machine Learning
主要内容:一.Batchgradientdescent二.Stochasticgradientdescent三.Mini-batchgradientdescent四.Onlinelearning五.Map-reduceanddataparallelism一.Batchgradientdescentbatchgradientdescent即在损失函数对θ求偏导时,用上了所有的训练集数据(假设有m个数
你狗
·
2022-12-01 07:02
人工智能
数据结构与算法
【2022
吴恩达
机器学习】神经网络week3
1.2模型评估选取70%作为训练集,30%作为测试集。为了训练模型并对其进行评估,使用有平方误差成本的线性回归。首先通过最小化w和b的成本函数j来拟合参数。然后为了说明这个模型表现如何,计算测试集误差以及训练集误差。训练集的平均误差是0或接近0,所以训练集的J将会很接近0;测试集里可能有没训练过的示例,那么测试集的J会很高。模型选择:发现d=5时,j最低,但可能会导致过拟合。问题是d=5时,Jte
lucky_08
·
2022-12-01 07:02
神经网络
人工智能
上一页
31
32
33
34
35
36
37
38
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他