E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
QOS&网络优化
让样本不一样重要-A Dual Weighting Label Assignment Scheme for Object Detection
CVPR2022论文链接:https://arxiv.org/abs/2203.09730个人理解:样本的重要性是不同的,分类和回归之间一致性较高的锚点十分重要,而一些难以被
网络优化
的负样本应该有更低的重要性
^如昼
·
2022-12-14 16:46
目标检测
深度学习
视觉检测
机器学习
目标检测
贝叶斯神经网络BNN
反向传播网络在优化完毕后,其权重是一个固定的值,而贝叶斯神经网络把权重看成是服从均值为μ,方差为δ的高斯分布,每个权重服从不同的高斯分布,反向传播
网络优化
的是权重,贝叶斯神经
网络优化
的是权重的均值和方差
HHHHGitttt
·
2022-12-13 22:27
目标检测
神经网络
深度学习
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比参考7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经网络
五元钱
·
2022-12-13 15:01
深度学习
人工智能
实验八
网络优化
与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比编程实现下面的动画并添加Adam7.3不同优化算法
岳轩子
·
2022-12-13 15:30
深度学习
python
算法
python
深度学习
神经网络模糊pid控制算法,模糊神经网络应用实例
学习算法是模糊神经
网络优化
权系数的关键。对于逻辑模糊神经网络,可采用基于误差的学习算法,也即是监视学习
小六oO
·
2022-12-13 11:07
神经网络
神经网络
机器学习
人工智能
《神经网络与深度学习》算法伪代码汇总
目录第三章线性模型算法3.1两类感知器的参数学习算法算法3.2一种改进的平均感知器参数学习算法算法3.3广义感知器参数学习算法第四章前反馈神经网络算法4.1使用反向传播算法的随机梯度下降训练过程第七章
网络优化
与正则化算法
是一个小迷糊吧
·
2022-12-12 18:06
神经网络与深度学习
神经网络
机器学习
人工智能
第7章
网络优化
与正则化
搭建神经网络的两个难点:(1)优化问题:首先,神经网络的损失函数非凸,找到全局最优解通常比较困难.其次,深度神经网络的参数非常多,训练数据也比较大,因此也无法使用计算代价很高的二阶优化方法,而一阶优化方法的训练效率通常比较低.此外,深度神经网络存在梯度消失或爆炸问题,导致基于梯度的优化方法经常失效.(2)泛化问题:由于深度神经网络的复杂度比较高,并且拟合能力很强,容易在训练集上产生过拟合.因此需要
Finch4422
·
2022-12-12 18:01
邱锡鹏笔记
深度学习
神经网络
机器学习
神经网络与深度学习(八)
网络优化
与正则化(3)不同优化算法比较
7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经
网络优化
的重要因素。
冰冻胖头鱼
·
2022-12-12 18:55
深度学习
算法
神经网络
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经
网络优化
HBU_Hbdwhb
·
2022-12-12 18:24
算法
人工智能
神经
网络优化
中的Weight Averaging
©PaperWeekly原创·作者|张子逊研究方向|神经网络剪枝、NAS在神经
网络优化
的研究中,有研究改进优化器本身的(例如学习率衰减策略、一系列Adam改进等等),也有不少是改进normalization
PaperWeekly
·
2022-12-12 15:07
机器学习
人工智能
深度学习
神经网络
计算机视觉
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
NNDL实验八
网络优化
与正则化(3)不同优化算法比较7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性
Perfect(*^ω^*)
·
2022-12-12 12:37
算法
python
深度学习
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经
网络优化
的重要因素。
真不想再学了
·
2022-12-12 11:43
算法
python
深度学习
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
NNDL实验八
网络优化
与正则化(3)不同优化算法比较7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性
笼子里的薛定谔
·
2022-12-12 11:10
DL实验
算法
python
深度学习
神经网络与深度学习(八)
网络优化
与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比参考7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经网络
红肚兜
·
2022-12-12 09:42
深度学习
神经网络
算法
NNDL 实验八
网络优化
与正则化 (3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验分别实例化自定义SimpleBatchGD优化器和调用torch.optim.SGDAPI,验证自定义优化器的正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化
LzeKun
·
2022-12-12 09:35
算法
人工智能
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数【选做题】ref7.3不同优化算法的比较分析除了批大小
cdd04
·
2022-12-12 09:35
算法
深度学习
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数【选做题】总结参考7.3不同优化算法的比较分析开源项目
Stacey.933
·
2022-12-12 09:00
人工智能
深度学习
[2022-12-11]神经网络与深度学习第6章 -
网络优化
与正则化
contents
网络优化
与正则化-不同优化算法比较写在开头不同优化算法的比较分析优化算法的实验设定2D可视化实验简单拟合实验学习率调整AdaGradRMSProp梯度估计修正动量法Adam算法不同优化器的
三工修
·
2022-12-12 08:52
[DL]神经网络与深度学习
深度学习
神经网络
python
神经网络与深度学习(八)
网络优化
与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数【选做题】参考资料7.3不同优化算法的比较分析除了批大
Jacobson Cui
·
2022-12-11 14:25
神经网络与深度学习
深度学习
算法
神经网络
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
文章目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结参考7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估
牛奶园雪梨
·
2022-12-11 13:42
算法
python
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
可视化实验简单拟合实验学习率调整AdaGrad算法RMSprop算法梯度估计修正动量法Adam算法不同优化器的3D可视化对比选做题参考不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经
网络优化
的重要因素
白小码i
·
2022-12-11 12:19
算法
人工智能
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
文章目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结参考文章7.3不同优化算法的比较
辰 希
·
2022-12-11 11:17
算法
深度学习
人工智能
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结参考7.3不同优化算法的比较分析除了批大小对模型收敛速度
乳酸蔓越莓吐司
·
2022-12-11 11:42
算法
python
深度学习
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
文章目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结参考7.3不同优化算法的比较分析
萐茀37
·
2022-12-11 09:35
算法
python
深度学习
神经网络与深度学习day16:
网络优化
与正则化(3)不同优化算法比较
神经网络与深度学习day16:
网络优化
与正则化(3)不同优化算法比较7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad
小鬼缠身、
·
2022-12-11 08:23
深度学习
神经网络
算法
NNDL 作业12:第七章课后题
说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28).习题7-9证明在标准的随机梯度下降中,权重衰减正则化和L2正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立全面总结
网络优化
总结参考习题
萐茀37
·
2022-12-11 08:51
python
算法
神经网络与深度学习作业12:第七章课后题
说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28)).习题7-9证明在标准的随机梯度下降中,权重衰减正则化和l,正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立.全面总结
网络优化
总结
小鬼缠身、
·
2022-12-11 08:20
深度学习
神经网络
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
文章目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结7.3不同优化算法的比较分析除了
plum-blossom
·
2022-12-11 08:02
NNDL实验
算法
python
深度学习
HBU-NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数心得体
不是蒋承翰
·
2022-12-10 16:54
算法
人工智能
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
AdaGrad算法RMSprop算法梯度估计修正动量法Adam算法编辑不同优化器的3D可视化对比【选做题】总结ref不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经
网络优化
的重要因素
沐一mu
·
2022-12-10 16:14
算法
人工智能
NeRF室内三维重建——Neural RGBD
NeRF室内三维重建——NeuralRGBD在这里作者提出使用NeRF将粗略输入的相机位姿(用
网络优化
),转化为5D坐标(位置和方向),预测输出SDF值和RGB,来进行更精细的表面重建。
元宇宙MetaAI
·
2022-12-10 15:52
网络
机器学习
深度学习
算法
计算机视觉
NNDL 实验八
网络优化
与正则化(1) 小批量梯度下降法
本章内容主要包含两部分:
网络优化
:通过案例和可视化对优化算法、参数初始化、逐层规范化等
网络优化
算法进行分析和对比,展示它们的效果,通过代码详细展示这些算法的实现过程。
HBU_David
·
2022-12-09 16:48
DeepLearning
深度学习
神经网络
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
目录7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数【选做题】心得体会:参考博客除了批大小对模型收敛
AI-2 刘子豪
·
2022-12-09 16:11
算法
人工智能
机器学习实践入门(三):优化算法和参数调节
本文参考自深蓝学院课程,所记录笔记,仅供自学记录使用优化算法和参数调节
网络优化
基础回顾等高线损失函数VS代价函数VS目标函数梯度和步长优化方案SGD家族学习率α\alphaα传统SGD算法的缺点SGD算法的改进方案
橘の月半喵
·
2022-12-08 18:34
机器学习
机器学习
算法
深度学习
无监督学习
系列文章目录第1章绪论第2章机器学习概述第3章线性模型第4章前馈神经网络第5章卷积神经网络第6章循环神经网络第7章
网络优化
与正则化第8章注意力机制与外部记忆第9章无监督学习第10章模型独立的学习方式第11
Oracle中文开发者社区
·
2022-12-08 16:45
学习
聚类
Hopfield神经网络的应用
步骤:(1)设计DHNN结构(2)设计连接权矩阵(3)测试(1)设计DHNN结构(2)设计连接权矩阵(3)测试Hopfield神经
网络优化
方法1985年,霍普菲尔德和塔克(D.W.Tank)应用连续Hopfield
小段学长
·
2022-12-08 00:09
努力学习人工智能
人工智能
基于pytorch模型剪枝的实现(极大的减少模型计算参数加快模型运行速度)
深度模型剪枝实现以及一些
网络优化
技巧模型剪枝:LearningEfficientConvolutionalNetworksThroughNetworkSlimming(ICCV2017).基于论文的代码复现以及拓展
Carlosi
·
2022-12-07 22:19
机器学习
NLP
pytorch
剪枝
深度学习
神经
网络优化
学习-——损失函数 学习率
损失函数(loss):预测值y与已知答案y_的差距:NN优化目标:loss最小;1.mse(均方误差)2自定义3.ce(CrossEntropy)均方误差mse:loss_mse=tf.reduce_mean(tf.aquare(y_-y))学习率:设置合适的学习率很重要(固定的学习率)定义指数下降学习率:学习率随着训练轮数变化而动态更新Tensorflow的函数表示为:global_step=t
fendon@l
·
2022-12-07 12:15
【Tensorflow学习二】神经
网络优化
方法学习率、激活函数、损失函数、正则化
文章目录预备知识tf.wheretf.random.RandomState.rand()返回一个[0,1)之间的随机数np.vstack()将数组按照垂直方向叠加np.mgrid[]np.ravel()np.c_[]一起使用可以生成网格坐标点复杂度、学习率复杂度指数衰减学习率激活函数Sigmoid激活函数Tanh激活函数ReLu激活函数LeakyReLu激活函数损失函数均方误差交叉熵损失函数自定义
Chen的博客
·
2022-12-07 12:12
Tensorflow
神经网络
学习
numpy
第8章 注意力机制与外部记忆
系列文章目录第1章绪论第2章机器学习概述第3章线性模型第4章前馈神经网络第5章卷积神经网络第6章循环神经网络第7章
网络优化
与正则化第8章注意力机制与外部记忆第9章无监督学习第10章模型独立的学习方式第11
zaiziwamei
·
2022-12-07 10:47
神经网路和深度学习
人工智能
深度学习
第9章 无监督学习
系列文章目录第1章绪论第2章机器学习概述第3章线性模型第4章前馈神经网络第5章卷积神经网络第6章循环神经网络第7章
网络优化
与正则化第8章注意力机制与外部记忆第9章无监督学习第10章模型独立的学习方式第11
zaiziwamei
·
2022-12-07 09:41
神经网路和深度学习
学习
聚类
(十)再探反向传播和神经
网络优化
文章目录1.背景介绍2.神经网络的模型3.神经网络中的参数更新初探3.1随机查找取最优3.2局部随机查找参数更新3.3沿着梯度反方向更新4.链式法则与反向传播5.梯度方向的参数更新策略6.学习率退火6.1学习率衰减策略基础6.2二阶优化方法6.3自适应学习率方法参考资料欢迎访问个人网络日志知行空间1.背景介绍反向传播算法是深度学习的基石,在2017年有一段时间总会跟着CS231N的课程讲义反复推导
恒友成
·
2022-12-04 14:29
DeepLearning
神经网络
深度学习
机器学习知识总结(百面机器学习)
图像数据不足的处理方法模型评估准确率精准率与召回率平方根误差ROC曲线距离评估A/B测试模型评估方法超参数调优过拟合和欠拟合经典算法支持向量机逻辑回归决策树降维PCA线性判别分析LDA非监督学习K均值聚类高斯混合模型自组织映射神经
网络优化
算法有监督学习的损失函数特征工程对原始数据进行处理
iwtbs_kevin
·
2022-12-04 14:55
机器学习实战
机器学习
算法面试
NNDL 实验八
网络优化
与正则化(2)批大小的调整
7.2批大小的调整实验为了观察不同批大小对模型收敛速度的影响,我们使用经典的LeNet网络进行图像分类。调用paddle.vision.datasets.MNIST函数读取MNIST数据集,并将数据进行规范化预处理。使用paddle.vision.models.LeNet快速构建LeNet网络使用paddle.io.DataLoader根据批大小对数据进行划分使用交叉熵损失函数标准的随机梯度下降优
HBU_David
·
2022-12-04 09:42
DeepLearning
深度学习
python
NNDL 实验八
网络优化
与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】7.3不同优化算法的比较分析飞桨AIStudio-人工智能学习与实训社区(baidu.c
HBU_David
·
2022-12-04 09:42
DeepLearning
算法
人工智能
NNDL实验 知识点梳理
目录实验内容编程基础机器学习基础FNNCNNRNN
网络优化
与正则化扩展实验建议自学实验实验基本步骤实验涉及知识点知识点相关细节更多细节实验内容编程基础NNDL实验一numpyNNDL实验二pytorch
HBU_David
·
2022-12-04 09:57
DeepLearning
机器学习
python
pytorch
创新产品登场——亚马逊云科技re:Invent
不负万千期待,PeterDeSantis带着一系列充满惊喜的创新产品登场,其中包含Nitrov5系统、Graviton3E芯片以及高性能计算实例HPC7g、C7gn、
网络优化
机器学习实例Trn1n。
CC橙子呀
·
2022-12-02 05:38
科技
亚马逊云科技re:Invent 2022 Peter DeSantis主题演讲首发
不负万千期待,PeterDeSantis带着一系列充满惊喜的创新产品登场,其中包含Nitrov5系统、Graviton3E芯片以及高性能计算实例HPC7g、C7gn、
网络优化
机器学习实例Trn1n。
大事小情
·
2022-12-02 05:34
经验分享
pytorch:model.zero_grad()和optimizer.zero_grad()、net.parameters()、requires_grad
net.parameters()其中:parameters意思是参数在
网络优化
过程中,使用net.parameters传入优化器,对网络参数进行优化,网络开始训练时会随机初始化网络的参数,然后进行训练,
开心邮递员
·
2022-12-01 15:50
python
神经网络三个部分的优化
第三章、
网络优化
3.1输入端优化1:数据增强&归一化数据增强数据增强是和迁移学习一样,解决数据不足的手段数据增强的优点:模型性能得到提升增加训练样本的多样性,避免过拟合数据增强的方式:翻转:水平翻转、垂直翻转旋转
introversi0n
·
2022-12-01 09:21
30天入门人工智能
神经网络
深度学习
人工智能
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他