E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Descent
梯度下降算法(Gradient
Descent
Algorithm)
目录一、梯度下降算法简述二、不同函数梯度下降算法表示1、一元函数2、二元函数3、任意多元函数三、梯度计算四、常见的梯度下降法1、批量梯度下降算法(BatchGradientDescent)2、随机梯度下降算法(StochasticGradientDescent)3、小批量梯度下降(Mini-batchGradientDescent)4、梯度下降算法注意点与调优5、冲量梯度下降算法(Momentum
海棠未语
·
2024-08-30 16:35
算法
机器学习
人工智能
python
多变量梯度下降(Gradient
Descent
for Multiple Variables)
与单变量线性回归类似,在多变量线性回归中,我们也构建一个代价函数,则这个代价函数是所有建模误差的平方和,即:image.png,其中:image.png我们的目标和单变量线性回归问题中一样,是要找出使得代价函数最小的一系列参数。多变量线性回归的批量梯度下降算法为:image即:image求导数后得到:imageimage.png我们开始随机选择一系列的参数值,计算所有的预测结果后,再给所有的参数一
东京的雨不会淋湿首尔
·
2024-02-07 01:36
CS229-DAY2:梯度下降(Gradient
Descent
)
学习一个算法,首先就想了解它的作用。我们使用训练数据让机器去训练,无论结果是什么,我们会得到一个模型(或好或坏),那么梯度下降算法就是用来对这个模型来进行优化的。先来了解几组概念:梯度:在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。梯度向量代表着函数在那一点变化的快慢,这样我们就能找到最大值/最小值。步长(Learningrate):步长决定了在梯
shyayaya
·
2024-02-03 01:44
字体基础知识
纵向结构字体结构baseline(基线):理解为坐标原点ascent(上):基线之上占有空间x-heightcapheightdescent(下):长字母比如j的尾巴占有的空间linegap(行间距):
descent
_贺瑞丰
·
2024-01-27 08:28
深度学习记录--Momentum gradient
descent
Momentumgradientdescent正常的梯度下降无法使用更大的学习率,因为学习率过大可能导致偏离函数范围,这种上下波动导致学习率无法得到提高,速度因此减慢(下图蓝色曲线)为了减小波动,同时加快速率,可以使用momentum梯度下降:将指数加权平均运用到梯度下降,成为momentum梯度下降(图中红色曲线)原理:纵轴上,平均过程中正负数相互抵消,所以纵轴上的平均值接近于0横轴上,所有的微
蹲家宅宅
·
2024-01-22 10:11
深度学习记录
深度学习
人工智能
深度学习记录--mini-batch gradient
descent
batchvsmini-batchgradientdescentbatch:段,块与传统的batch梯度下降不同,mini-batchgradientdescent将数据分成多个子集,分别进行处理,在数据量非常巨大的情况下,这样处理可以及时进行梯度下降,大大加快训练速度mini-batchgradientdescent的原理两种方法的梯度下降图如下图所示batchgradientdescent是一
蹲家宅宅
·
2024-01-19 22:14
深度学习记录
深度学习
batch
人工智能
Gradient
Descent
补充
GradientDescent是机器学习中非常通用的参数优化方法,也有很多的变种。之前在这里也记录过一些。此次听李宏毅老师的课程又有新收获。1、AdaGrad在梯度下降法中,学习率的选择和调整是非常重要的,有时直接决定了训练的质量和收敛的速度。上图展示了学习率过大或过小会产生的问题。一种自然的思路是,初始时候我们的参数值位于离极小值点较远的地方,因此学习率可以大一些,随着训练进行参数渐渐靠近极小值
单调不减
·
2024-01-11 06:15
梯度下降法(Gradient
Descent
)
梯度下降法(GradientDescent)梯度下降法批量梯度下降法随机梯度下降法scikit-learn中的随机梯度下降法小批量梯度下降法梯度下降法梯度下降法,不是一个机器学习算法(既不是再做监督学习,也不是非监督学习,分类、回归问题都解决不了),是一种基于搜索的最优化方法。梯度下降法作用是,最小化一个损失函数;而如果我们要最大化一个效用函数,应该使用梯度上升法。这个二维平面描述了,当我们定义了
Debroon
·
2024-01-10 03:23
#
机器学习
#
凸优化
【机器学习:Stochastic gradient
descent
随机梯度下降 】机器学习中随机梯度下降的理解和应用
【机器学习:随机梯度下降Stochasticgradientdescent】机器学习中随机梯度下降的理解和应用背景随机梯度下降的基本原理SGD的工作流程迭代方法示例:线性回归中的SGD历史主要应用扩展和变体隐式更新(ISGD)动量平均AdaGradRMSPropAdam基于符号的随机梯度下降回溯行搜索二阶方法连续时间的近似优点与缺点GPT可视化示例随机梯度下降(通常缩写为SGD)是一种迭代方法,用
jcfszxc
·
2024-01-09 09:49
机器学习知识专栏
机器学习
人工智能
【学习笔记】[AGC060D] Same
Descent
Set
本来是想做点多项式调节一下,结果发现这玩意太肝了,似乎并没有起到调节作用。设f(S)f(S)f(S)表示符号为>>符号则不好处理,考虑钦定一些位置为>n,len=1;while(len>1)*inv[i]%mod;f.a[0]=1;f=Inv(f,len);for(inti=1;i
仰望星空的蚂蚁
·
2024-01-02 22:55
多项式
学习
笔记
算法
【Matlab算法】随机梯度下降法 (Stochastic Gradient
Descent
,SGD) (附MATLAB完整代码)
随机梯度下降法前言正文代码实现可运行代码结果前言随机梯度下降法(StochasticGradientDescent,SGD)是一种梯度下降法的变种,用于优化损失函数并更新模型参数。与传统的梯度下降法不同,SGD每次只使用一个样本来计算梯度和更新参数,而不是使用整个数据集。这种随机性使得SGD在大型数据集上更加高效,因为它在每次迭代中只需要处理一个样本。以下是关于随机梯度下降法的详细描述:初姶化参数
Albert_Lsk
·
2023-12-20 21:02
MATLAB最优化算法
算法
matlab
人工智能
优化算法
数据结构
[PyTorch][chapter 4][李宏毅深度学习][Gradient
Descent
]
前言:目录:1:梯度下降原理2:常见问题3:梯度更新方案4:梯度下降限制一梯度下降原理机器学习的目标找到最优的参数,使得Loss最小为什么顺着梯度方向loss就能下降了。主要原理是泰勒公式。假设损失函数为忽略二阶导数,当时候因为要考虑二阶导数,所以损失函数一般都选凸函数,二阶为0,一阶导数有驻点的函数.二常见问题1:学习率learningrate红线:学习率太小,收敛速度非常慢绿线:学习率太大,无
明朝百晓生
·
2023-12-05 07:39
深度学习
pytorch
人工智能
PGD(projected gradient
descent
)算法源码解析
论文链接:https://arxiv.org/abs/1706.06083源码出处:https://github.com/Harry24k/adversarial-attacks-pytorch/tree/masterPGDLinf源码importtorchimporttorch.nnasnnfrom..attackimportAttackclassPGD(Attack):r"""PGDinthe
Sankkl1
·
2023-11-15 18:44
AI安全
算法
python
神经网络
ai
Android 基本属性绘制文本对象FontMetrics
FontMetrics对象它以四个基本坐标为基准,分别为:・FontMetrics.top・FontMetrics.ascent・FontMetrics.
descent
・FontMetrics.bottom
沙滩捡贝壳的小孩
·
2023-11-13 18:34
源码解析
android进阶
android基础
android
java
开发语言
2019-01-29 随机梯度下降(stochastic gradient
descent
)
随机梯度下降的思想也可以应用于线性回归、逻辑回归、神经网络或者其他依靠梯度下降来进行训练的算法中。梯度下降法的问题是当m值很大时,计算这个微分项的计算量就变得很大,因为需要对所有m个训练样本求和,这被称为批量梯度下降(batchgradientdescent)。“批量”就表示我们需要每次都考虑所有的训练样本。批量梯度下降随机梯度下降在每一步迭代中不用考虑全部的训练样本,只需要考虑一个训练样本。定义
奈何qiao
·
2023-11-05 19:07
机器学习实战 梯度上升 数学推导_机器学习实战 原理/代码:Gradient-
Descent
(梯度下降)...
OUTLINE:这个点的导数为负,如果每次加上这个导数会向左走,是梯度上升。要梯度下降,则加负号,前面乘以一个系数,控制每次移动的步长有可能找到的是:局部最优解implementation:找到这个二次函数的最低点。(梯度下降法)首先:lossfunction是啥?很明显,就是这个二次函数,我们要让这个lossfunction达到0,就说明我们找到了最小值点。于是,每次求出迭代的点的导数值,乘以-
weixin_39936792
·
2023-11-04 02:08
机器学习实战
梯度上升
数学推导
excel计算二元线性回归_用人话讲明白梯度下降Gradient
Descent
(以求解多元线性回归参数为例)...
文章目录1.梯度2.多元线性回归参数求解3.梯度下降4.梯度下降法求解多元线性回归梯度下降算法在机器学习中出现频率特别高,是非常常用的优化算法。本文借多元线性回归,用人话解释清楚梯度下降的原理和步骤。(PS:也不知道为啥,在markdown里写好的公式,有一部分在这儿无法正常显示,只好转图片贴过来了)1.梯度梯度是什么呢?我们还是从最简单的情况说起,对于一元函数来讲,梯度就是函数的导数。而对于多元
weixin_39527372
·
2023-11-03 14:34
excel计算二元线性回归
多元函数的向量表示
梯度下降参数不收敛
线性回归梯度下降法python
Python 批量梯度下降 BGD 代码实现 笔记
gradient#3θt+1=θt−α•g\theta^{t+1}=\theta^{t}-\alpha•gθt+1=θt−α•g#4ggg收敛批量梯度下降BGD批量:Batch梯度:Gradient下降:
Descent
Lu君
·
2023-11-03 12:16
代码
机器学习
批量梯度下降
机器学习
代码实现
python
Gradient
Descent
(梯度下降)
重要性梯度下降算法在机器学习和深度学习中扮演者重要的角色。在构建模型时,往往需要对数据进行学习,而梯度下降就是为了让模型更好的去学习数据从而使损失函数(LossFunction)的值达到最小或者尽可能的小。理解假设我们要训练一个具有两个输入的多元线性回归(MultivariateLinearRegression)模型,也就是两个输入和一个输出,其公式为公式1损失函数使用的是平方损失函数,其公式为公
倒着念
·
2023-10-28 20:55
【深度学习实验】网络优化与正则化(一):优化算法:使用动量优化的随机梯度下降算法(Stochastic Gradient
Descent
with Momentum)
文章目录一、实验介绍二、实验环境1.配置虚拟环境2.库版本介绍三、实验内容0.导入必要的库1.随机梯度下降SGD算法a.PyTorch中的SGD优化器b.使用SGD优化器的前馈神经网络2.随机梯度下降的改进方法a.学习率调整b.梯度估计修正3.梯度估计修正:动量法Momentuma.init_momentum_statesb.sgd_momentumc.evaluate_lossd.traine.
QomolangmaH
·
2023-10-27 19:15
深度学习实验
深度学习
算法
人工智能
Bertopic主题模型原理详解
Bertopic主题模型原理详解–潘登同学的NLP笔记文章目录Bertopic主题模型原理详解--潘登同学的NLP笔记Bertopic主题建模Nearest-Neighbor-
Descent
(构建K近邻图
PD我是你的真爱粉
·
2023-10-23 12:53
Tensorflow
自然语言处理
机器学习
人工智能
梯度下降算法(Gradient
Descent
)
GD梯度下降法的含义是通过当前点的梯度(偏导数)的反方向寻找到新的迭代点,并从当前点移动到新的迭代点继续寻找新的迭代点,直到找到最优解,梯度下降的目的,就是为了最小化损失函数。1、给定待优化连续可微分的函数J(θ),学习率或步长,以及一组初始值(真实值)2、计算待优化函数梯度3、更新迭代4、再次计算新的梯度5、计算向量的模来判断是否需要终止循环三种梯度下降法批量梯度下降法(BatchGradien
怎么全是重名
·
2023-10-19 21:56
ML——algorithm
算法
机器学习
人工智能
getFontMetrics() 获取 Paint 的 FontMetrics。
FontMetrics是个相对专业的工具类,它提供了几个文字排印方面的数值:ascent,
descent
,top,bottom,leading。
菜鸟何时起飞
·
2023-10-16 19:42
巴赫的乐谱竟然隐藏着他的签名
这样,B-A-C-H就被演奏为Bb-A-C-B,如下图所示:大多情况下,巴赫就直接用这个顺序(交叉Cruciform)来作为他作品中的动机片段,有时候他又会稍微打乱一下顺序,比如用上升Ascent或下降
Descent
好玩钢琴屋
·
2023-10-10 14:06
深度学习必备:随机梯度下降(SGD)优化算法及可视化
【干货】深度学习必备:随机梯度下降(SGD)优化算法及可视化原文链接https://ruder.io/optimizing-gradient-
descent
/中文翻译连接https://blog.csdn.net
山高月小 水落石出
·
2023-10-06 13:44
#
深度学习
机器学习
SGD
梯度下降
最优化方法
PyTorch深度学习(一) - 环境搭建,一个简单的梯度下降(Gradient
Descent
)
1.环境搭建1-1)下载并安装Anaconda这个读者自行百度1-2)创建conda虚拟环境#创建conda虚拟环境condacreate-npytorch_learnpython=3.9#激活环境condaactivatepytorch_learn环境激活以后,我们查看一下当前环境的版本python-V结果显示是3.9.11-3)安装jupyternotebookcondainstalljupy
ElliotG
·
2023-09-30 22:17
【译】梯度下降优化算法概览(gradient
descent
optimization algorithms)
之前一直想总结一下深度学习中常用的梯度下降算法的,后来发现有人做了,那好吧,直接翻译吧。一、变量的更新方法1.1Batchgradientdescent这种变量的更新方法是利用整个数据集的数据,也就是一个batch来计算出损失函数的梯度,进而来更新网络中的参数,公式如下:因为这种更新方法,我们更新一次参数需要对整个数据集进行计算,所以更新一次参数的速度很慢。而且这种方式也不允许我们进行线上更新,比
ce0b74704937
·
2023-09-18 07:48
【深度学习实验】线性模型(二):使用NumPy实现线性模型:梯度下降法
库版本介绍三、实验内容0.导入库1.初始化参数2.线性模型linear_model3.损失函数loss_function4.梯度计算函数compute_gradients5.梯度下降函数gradient_
descent
6
QomolangmaH
·
2023-09-18 00:25
深度学习实验
深度学习
numpy
人工智能
Language Models Implicitly Perform Gradient
Descent
as Meta-Optimizers
总体介绍本篇论文主要探索in-contextlearning为什么能够生效的原理。将LLM语言模型当做了元优化器,将ICL当做了隐式的fine-tuning,并且通过实验来验证了ICL和显示的fine-tuning是有类似效果的。基于上面实验的启发,设计了动量base的attention计算机制。怎么理解ICL是隐式的fine-tuning通过公式分析可以看到提取下降累计的delta_w和ICL引
WitsMakeMen
·
2023-09-15 21:07
gpt
语言模型
人工智能
Learning to Rank Using Gradient
Descent
阅读笔记
AbstractProbabilisticCostFunctionRankNetIntroduction任何给用户提供大量结果的系统都需要一个排序函数。本文提出的是基于pairwise思想的排序方法,即对于一对样本A和B,排序函数决定A是否应当排在B前面。文章中提出了一种probabilisticcostfunction来度量样本A排在样本B前面的概率,之后将该函数与神经网络结合,构造了一种名为R
KaelChen
·
2023-09-08 20:28
Android 字体高度的研究
Descent
:字符底部到baseLine的距离。Leadin
Cedric_h
·
2023-08-30 22:36
机器学习之SGD(Stochastic Gradient
Descent
,随机梯度下降)
SGD(StochasticGradientDescent,随机梯度下降)是深度学习中最基本的优化算法之一。它是一种迭代式的优化方法,用于训练神经网络和其他机器学习模型。以下是关于SGD优化器的重要信息:基本原理:SGD的基本思想是通过不断调整模型参数来最小化损失函数。它每次迭代时从训练数据中随机选择一个小批量(mini-batch)的样本来计算梯度,然后使用梯度的相反方向更新模型参数。这一过程被
奋进的大脑袋
·
2023-08-25 12:15
机器学习
人工智能
#统计学相关,梯度下降(gradient
descent
)的由来
拟合数据的算法的原理:要拟合的数据直接找一条线,该线要符合→各点到该线的距离最小那么如何获取最优解:假设这里有数值EE=(预测值-实际值)的平方一般E被称为残差,残差越小拟合度越好为了更好地对E进行计算(这里是求导)以便找到最优解,我们引入一个概念,链式法则,是微积分中的求导法则,用于复合函数求导。复合函数的导数将为构成复合这有限个函数在相应点的导数的乘积,称链式法则。为方便理解,直接联想高中学的
丰。。
·
2023-08-23 08:46
统计学
机器学习笔记
机器学习
python
深度学习
算法
考研英语魔鬼形近词
extend,extent2.context,contest3.principle,principal4.implicit,explicit5.desert,dessert,dissert6.decent,
descent
清木_3446
·
2023-08-08 17:45
班加罗尔,我们有麻烦了
amissiontoMarsintoplace处于通常(或正确)的位置同义词:inplace英文释义:sth.isinitsusualorcorrectposition例句:Thechairsareallintoplace.在
descent
寒冬秀叶
·
2023-08-07 11:40
iOS富文本NSAttributedString垂直对齐
1.基础知识1647711-1d32232991663b64.pnglineHeight=ascent+
descent
+leading2.文字垂直对齐方式屏幕快照2018-03-12下午1.48.53.
氮化镓加砷
·
2023-08-04 23:08
字体
ascent/
descent
:上图中绿色和橙色的线,它们的作用是限制普通字符的顶部和底部范围。
MOMOsShare
·
2023-08-02 10:11
【机器学习】Gradient
Descent
for Logistic Regression
GradientDescentforLogisticRegression1.数据集(多变量)2.逻辑梯度下降3.梯度下降的实现及代码描述3.1计算梯度3.2梯度下降4.数据集(单变量)附录导入所需的库importcopy,mathimportnumpyasnp%matplotlibwidgetimportmatplotlib.pyplotaspltfromlab_utils_commonimpor
CS_木成河
·
2023-08-01 21:45
机器学习
机器学习
人工智能
机器学习-Gradient
Descent
机器学习(GradientDescent)videopptblog梯度下降(GradientDescent)optimizationproblem:损失函数最小化假设本模型有两个参数1和2,随机取得初始值求解偏微分,梯度下降对参数进行更新Visualize:确定梯度方向,红色表示Gradient方向,蓝色是梯度下降的方向,因为我们要是损失函数L减小,使用应该取与Gradient方向相反的方向,这也
Teroin
·
2023-07-31 13:54
机器学习
机器学习
人工智能
【机器学习】Feature Engineering and Polynomial Regression
importnumpyasnpimportmatplotlib.pyplotaspltfromlab_utils_multiimportzscore_normalize_features,run_gradient_
descent
_fengnp
CS_木成河
·
2023-07-31 04:01
机器学习
机器学习
人工智能
【机器学习】Gradient
Descent
GradientDescentforLinearRegression1、梯度下降2、梯度下降算法的实现(1)计算梯度(2)梯度下降(3)梯度下降的cost与迭代次数(4)预测3、绘图4、学习率首先导入所需的库:importmath,copyimportnumpyasnpimportmatplotlib.pyplotaspltplt.style.use('./deeplearning.mplstyl
CS_木成河
·
2023-07-30 12:19
机器学习
机器学习
回归
【机器学习】梯度下降:Gradient
Descent
无约束最优化问题(unconstrainedoptimizationproblem):从一个问题的所有可能的备选方案中,选择出依某种指标来说是最优的解决方案。机器学习的核心内容就是把数据喂给一个人工设计的模型,然后让模型自动的“学习”,从而优化模型自身的各种参数,最终使得在某一组参数下该模型能够最佳的匹配该学习任务。损失函数(lossfunction):为了评估模型拟合的好坏,通常用损失函数来度量
宅家学算法
·
2023-07-23 10:33
word is too long: try to use less letters, smaller font or bigger background: text bounds = {tex...
,出现了如图的错误java.awt.geom.Rectangle2D$Float[x=0.0,y=-46.411133,w=31.738281,h=58.203125]ascent=46.411133
descent
羞涩的二黄
·
2023-07-17 17:58
梯度下降(Gradient
Descent
)
基本思想梯度下降是一个用来求函数最小值的算法,本次,我们将使用梯度下降算法来求出代价函数的最小值。梯度下降背后的思想是:开始时我们随机选择一个参数的组合,计算代价函数,然后我们寻找下一个能让代价函数值下降最多的参数组合。我们持续这么做直到到到一个局部最小值(localminimum),因为我们并没有尝试完所有的参数组合,所以不能确定我们得到的局部最小值是否便是全局最小值(globalminimum
氢气氧气氮气
·
2023-07-16 08:57
机器学习
线性回归
基于梯度下降的线性回归(Gradient
Descent
For Linear Regression)
概述:梯度下降是很常用的算法,它不仅被用在线性回归上和线性回归模型、平方误差代价函数。在本次,我们要将梯度下降和代价函数结合。我们将用到此算法,并将其应用于具体的拟合直线的线性回归算法里。梯度下降算法和线性回归算法比较如图(左边梯度下降,右边是线性回归的目标函数以及代价函数):计算相关公式:对我们之前的线性回归问题运用梯度下降法,关键在于求出代价函数的导数,将右边线性回归的函数带入到左边的梯度下降
氢气氧气氮气
·
2023-07-16 08:57
机器学习
线性回归
机器学习
算法
飞控学习笔记-梯度下降算法(gradient
descent
algorithm)
简介笔记来源于文章:An_efficient_orientation_filter_for_inertial_and_inertial_magnetic_sensor_arrays共轭:四元数叉乘:欧拉角等式:
Xuan-ZY
·
2023-07-15 23:07
四旋翼飞控理论
学习
笔记
统计软件与数据分析Lesson15----梯度下降(Gradient
Descent
)过程可视化
梯度下降GradientDescent1.预备知识1.1什么是机器学习?1.2几个专业术语2.前期准备2.1加载包2.2定义模型2.3生成模拟数据2.4分割训练集验证集2.5原始数据可视化3.模型训练Step0:随机初始化待估参数Step1:计算模型预测值Step2:计算预测误差(模型损失)Step2.1计算损失面--LossSurfaceStep2.2损失横截面--CrossSectionsSt
shlay
·
2023-06-11 16:08
统计软件与数据分析
深度学习
机器学习
梯度下降
《李宏毅·机器学习》读书笔记(三)Gradient
Descent
知识点补充2
image.png今天再把梯度下降的视频看了一遍,再次整理了一便思路。梯度下降主要是围绕批量梯度和随机梯度来进行讲解。其中包含了学习率,也就是移动的步长。通过批量梯度下降Adagrad算法实现的讲解,再对比过渡到随机梯度下降。最后介绍特征缩放的方式使得梯度下降算法更快地收敛。关注到两个比较有趣的地方:再讲解Adagrad算法的时候,为什么不计算二次微分,而使用前N个一次微分平均的开方作为分母?通过
Spareribs
·
2023-06-08 02:47
Gradient
Descent
Gradientdescentcostfunction:forexample,MSE(MeanSquareError)canbeexpressedas.Tobemoregenerally,.ItsgradientcanbeformulatedasThecalculationofgradienthastoiterateallsamplesandsumthemtogether.Ifthenumbero
光华_5206
·
2023-04-18 01:42
【李宏毅机器学习】Gradient
Descent
_1 梯度下降(p5、p6、p7 )学习笔记
李宏毅机器学习学习笔记汇总课程链接文章目录ReviewGradientDescentTipsTip1:Tuningyourlearningrate小心微调你的学习率Tip2StochasticGradientDescentSGD随机梯度下降Tip3FeatureScaling特征缩放GradientDescentReview在第三步,找一个最好的function,解一个optimization最优
duanyuchen
·
2023-04-08 13:46
Machine
Learning
机器学习
李宏毅
学习笔记
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他