E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
transposed
分享用 vector的vector实现一个二维数组并初始化的逆置矩阵问题
3.1vector的构造函数3.2vector构造二维数组最后推荐阅读顺序:1.题目->2.题目分析->3.题目知识点1.题目如果矩阵matrix为m行n列,则转置后的矩阵matrixT为n行m列,且对任意0≤i>
transposed
vpurple__
·
2024-01-19 03:42
题目分享:一些容易遗忘的小点
算法
vector
c++
普通卷积、转置卷积(
transposed
convolution)的原理及运算步骤的详细解释
1.首先声明一点,转置卷积不是卷积的逆运算,转置卷积也是一种卷积方式,作用是进行上采样!主要出现在分割和对抗神经网络模型中比较多。2.其次,transposedconvolution、fractionally-stridedconvolution和deconvolution都是指转置卷积,但是pytorch官方采用transposedconvolution这种说法,也更能说明转置卷积的原理。下面是
Trouville01
·
2024-01-13 17:29
深度学习
人工智能
机器学习
【跟着manual学软件】MCScan-
transposed
软件介绍首先放官网:MCScanX-
transposed
:detectingtransposedgeneduplicationsbasedonmultiplecollinearityscans文献:MCScanX-
transposed
ShawnMagic
·
2024-01-05 03:43
【Pytorch】
Transposed
Convolution
Up-samplingwithTransposedConvolutionPyTorch使用记录https://github.com/naokishibuya/deep-learning/blob/master/python/
transposed
_convo
bryant_meng
·
2023-12-16 00:50
pytorch
人工智能
python
反卷积
逆卷积
YOLOv7独家改进:Multi-Dconv Head
Transposed
Attention注意力,效果优于MHSA| CVPR2022
本文独家改进:Multi-DconvHeadTransposedAttention注意力,可以高效的进行高分辨率图像处理,从而提升检测精度MDTA|亲测在多个数据集能够实现大幅涨点收录:YOLOv7高阶自研专栏介绍:http://t.csdnimg.cn/tYI0c✨✨✨前沿最新计算机顶会复现YOLOv7自研创新结合,轻松搞定科研持续更新中,定期更新不同数据集涨点情况1.Multi-DconvHe
AI小怪兽
·
2023-10-11 18:41
YOLOv7高阶自研
YOLO
深度学习
机器学习
计算机视觉
目标检测
人工智能
python
反卷积(
Transposed
conv deconv)
什么是卷积卷积就是把卷积核放在输入上进行滑窗,将当前卷积核覆盖范围内的输入与卷积核相乘,值进行累加,得到当前位置的输出,其本质在于融合多个像素值的信息输出一个像素值,本质上是下采样的,所以输出的大小必然小于输入的大小,如下图所示:什么是反卷积反卷积和转置卷积都是一个意思,所谓的反卷积,就是卷积的逆操作,我们将上图的卷积看成是输入通过卷积核的透视,那么反卷积就可以看成输出通过卷积核的透视,具体如下图
Zephyr H
·
2023-10-09 04:50
深度学习
cnn
卷积神经网络
Up-sampling with
Transposed
Convolution(转置卷积上采样)
虽然之前发过一篇转载类型的博客:你想到的卷积类型这里都有,在里面的上篇有介绍转置卷积,但是他那篇的参考博客是国外的,一般看不了,我在这里就翻译一下,对自己加深印象也是好的。如果你曾经听说过转置卷积(transposedconvolution)并对它感到很迷惑,那可以来看一下这篇文章。这篇文章的内容如下:上采样的需要为什么需要转置卷积?卷积操作逆向回去卷积矩阵转置卷积矩阵总结在我的Github上也有
laizi_laizi
·
2023-08-16 18:37
deep
learning
MCScanX-
transposed
安装及使用
1.简介(1)MCScanX-
transposed
是基于在相关基因组内和相互之间应用MCScanX,能够检测不同时期内发生的转座基因复制的软件包,也有助于基因复制模式的综合分析和用基因复制模式注释感兴趣的基因家族
溪溪溪溪溪川
·
2023-04-15 17:36
QTransform::tranpose无效
QTransform注意看其定义,返回不带引用,结果不会赋值给原来的QTransform对象,而是构造了一个新对象QTransformQTransform::
transposed
()const类似的还有求逆
Kelvin_Ngan
·
2023-02-05 11:20
QT
【转置卷积
Transposed
Convolution】
目录一、综合考虑步长,0填充卷积的转置卷积二、单步长、无0填充卷积的转置卷积三、单步长,0填充卷积的转置卷积四、half(same)padding卷积的转置卷积五、fullpadding卷积的转置卷积六、非单步长,无0填充卷积的转置卷积七、非单步长,0填充卷积的转置卷积转置卷积TransposedConvolution,也叫做微步卷积FractionallyStridedConvolutions或
倔强一撮毛
·
2023-02-01 04:04
深度学习基础知识
深度学习
人工智能
计算机视觉
cnn
10.转置卷积
动手学深度学习v2】_哔哩哔哩_bilibili教材:13.10.转置卷积—动手学深度学习2.0.0-beta0documentation(d2l.ai)PPT:part-2_14.pdf(d2l.ai)代码:
transposed
-convslides
七仔啊
·
2023-02-01 04:31
动手学深度学习
计算机视觉
计算机视觉
深度学习
pytorch
转置卷积(
transposed
convolution)
转置卷积:作用是上采样(其他上采用方法还有插值和反池化),转置卷积实际上也是一种卷积。卷积的输入输出大小关系:i是输入大小,o是输出大小,k是卷积核大小,s是步距,p是填充大小转置卷积的输入输出大小关系(其实就是用上面的公式从o得到i):i是转置卷积的输入大小,o是转置卷积的输出大小,k是转置卷积的卷积核大小(也是转置卷积对应的正向卷积的卷积核大小),s是转置卷积对应的正向卷积的步距,p是转置卷积
lizi0403
·
2023-02-01 04:00
计算机视觉
深度学习
转置卷积(
Transposed
Convolution)
在介绍UNet的时候,我们提到了转置卷积,在UNet右侧分支上,对特征上采样的其中一种实现方式即为转置卷积(另一种为双线性插值)。所以今天我们就来看看转置卷积的实现细节。由于篇幅原因,本篇不展开太多,只讲核心实现。关于转置卷积(以及各种卷积的)详细实现,可以参考论文:Aguidetoconvolutionarithmeticfordeeplearning转置卷积首先也是一种卷积操作,绝大部分转置卷
牧羊女说
·
2023-01-17 12:44
深度学习
cnn
深度学习
人工智能
71.转置卷积以及代码实现
本节将介绍转置卷积(
transposed
chnyi6_ya
·
2023-01-14 07:35
深度学习
深度学习
计算机视觉
cnn
反卷积(
Transposed
conv deconv)实现原理(通俗易懂)
什么是卷积卷积就是把卷积核放在输入上进行滑窗,将当前卷积核覆盖范围内的输入与卷积核相乘,值进行累加,得到当前位置的输出,其本质在于融合多个像素值的信息输出一个像素值,本质上是下采样的,所以输出的大小必然小于输入的大小,如下图所示:什么是反卷积反卷积和转置卷积都是一个意思,所谓的反卷积,就是卷积的逆操作,我们将上图的卷积看成是输入通过卷积核的透视,那么反卷积就可以看成输出通过卷积核的透视,具体如下图
Jumi爱笑笑
·
2023-01-07 13:48
深度学习
pytorch
神经网络
Transposed
convolution:pytorch ConvTranspose2d参数设置
一、卷积操作:假设cnn中某一层:输入特征图:H*H,卷积核:k*k,步长stride:s,padding:p那么经过这层卷积之后特征图大小:(H-k+2*p)/s+1二、Transposedconvolution(逆卷积)逆卷积先根据输入H,k,s,p得到相应的H',k',s',p',然后执行和卷积一样的变化。例如:逆卷积输入:变化后:特征图:H*H特征图:H’*H'(H'=H+(s-1)*(H
qq_37972486
·
2022-12-06 08:44
pytorch学习
【基础】卷积种类总结及图解
二维卷积(多通道版本)(2DConvolution:themulti-channelversion)(3)三维卷积(3DConvolution)2、反卷积(转置卷积/去卷积)(Deconvolution/
Transposed
Zora.wang
·
2022-12-05 14:53
工业缺陷检测
转置卷积(
Transposed
Convolution)的介绍以及理论讲解
1.转置卷积(TransposedConvolution)论文:Aguidetoconvolutionarithmeticfordeeplearning转置卷积(TransposedConvolution)也叫Fractionally-stridedConvolution和Deconvolution,但用的最多的是TransposedConvolution。Deconvolution这个名称是不建
Le0v1n
·
2022-11-28 15:42
PyTorch
面试题
深度学习
深度学习
计算机视觉
cnn
转置卷积Deconvolution/
Transposed
Convolution
来源转置卷积也成为分数步卷积、反卷积;当需要进行上采样是,可以使用转置卷积,与插值方法相比(Resize,如双线性插值直接缩放,类似于图像缩放),他具有可学习的参数;转置卷积通常用在两个方面:CNN可视化,通过反卷积将卷积得到的featuremap还原到像素空间,来观察featuremap对哪些pattern相应最大,即可视化哪些特征是卷积操作提取出来的;FCN全卷积网络,由于要对图像进行像素级的
永不言弃的小颖子
·
2022-11-28 15:12
ML/DL
转置卷积和反卷积(
Transposed
Convolution/ DeConvolution)
反卷积(转置卷积)通常用来两个方面:CNN可视化,通过反卷积将卷积得到的featuremap还原到像素空间,来观察featuremap对哪些pattern相应最大,即可视化哪些特征是卷积操作提取出来的;(ZFNet可视化)FCN全卷积网络中,由于要对图像进行像素级的分割,需要将图像尺寸还原到原来的大小,类似upsampling的操作,所以需要采用反卷积;GAN对抗式生成网络中,由于需要从输入图像到
Fighting_1997
·
2022-11-28 15:27
神经网络
计算机视觉
深度学习
神经网络
反卷积/转置卷积:
Transposed
convolution介绍
反卷积/转置卷积:Transposedconvolution介绍1.上采样(UpSampling)2.正向卷积的实现过程3.用矩阵乘法描述卷积4.反卷积4.1反卷积操作4.2反卷积输入输出尺寸关系Transposedconvolution称为转置卷积,也被称作:"分数步长卷积(Fractionally-stridedconvolution)“和"反卷积(Deconvolution)”.1.上采样(
Airs_Gao
·
2022-11-28 15:27
论文笔记
深度学习
卷积神经网络
上采样(UpSampling)之转置卷积(
Transposed
Convolution)
文章目录前言转置卷积Pytorch中的转置卷积函数1.参数说明2.代码总结前言对一个较小尺寸的矩阵进行变换,得到较大尺寸矩阵的过程就叫上采样(UpSampling)。在图像分割任务和GAN网络中,上采样都是必不可少的。常用的上采样方式有:插值法,反池化,反卷积(转置卷积),本文着重介绍转置卷积原理和用法。转置卷积卷积不会增大输入矩阵的高宽,输入矩阵在进行卷积操作之后,高宽保持不变或者减小。使用pa
兮xi_酱
·
2022-11-28 15:23
深度学习
pytorch
Transposed
convolution:pytorch ConvTranspose2d参数设置
一、卷积操作:假设cnn中某一层:输入特征图:H*H,卷积核:k*k,步长stride:s,padding:p那么经过这层卷积之后特征图大小:(H-k+2*p)/s+1二、Transposedconvolution(逆卷积)逆卷积先根据输入H,k,s,p得到相应的H',k',s',p',然后执行和卷积一样的变化。例如:逆卷积输入:变化后:特征图:H*H特征图:H’*H'(H'=H+(s-1)*(H
weixin_35338624
·
2022-11-25 07:50
pytorch学习之路
Deconvolution layer或者
Transposed
convolution layer的理解
这个是github上关于反卷积的一些动态示意图一文读懂卷积反卷积,博主的对反卷积的理解,主要来自这篇文章下面,主要结合上面的第二个链接,来理解Deconvolutionlayer看它是怎么进行计算的。同时附上pytorch库里面关于这个layer参数的介绍:参考这个链接看pytorch其实在实际应用的时候,convTranspose2d主要是前面(inchannel,outchannel,kern
欢仔要学习
·
2022-11-25 07:19
python
学习
上采样和反卷积 Up-sampling and
Transposed
Convolution (Deconvolution)
文章目录1.卷积操作2.卷积矩阵3.反卷积4.反卷积矩阵5.使用卷积计算反卷积6.总结参考文献使用反卷积(TransposedConvolution)来进行上采样操作,不需要借助插值方法,并且可以提供能够学习的参数。反卷积在DCGAN和图像的语义分割网络中,有很重要的应用。1.卷积操作我们用一个简单的例子来介绍卷积的计算过程。如下图所示,用一个3x3的卷积核对一个4x4的矩阵进行卷积操作,步长为1
KyrieLiu52
·
2022-11-21 04:13
深度学习
深度学习
计算机视觉
cnn
PyTorch中的反卷积 (
Transposed
Convolution)
目录PyTorch中的反卷积(TransposedConvolution)Output计算公式反卷积的stride反卷积的dilation反卷积的paddingPyTorch中的反卷积(TransposedConvolution)反卷积是计算机视觉领域中的一种上采样的方法,除了反卷积以外,还可以采用unpooling和bilinearinterpolation方法做上采样。反卷积并不是卷积操作的逆
X.y FAn
·
2022-11-20 20:33
pytorch
深度学习
神经网络
机器学习
转置卷积(
Transposed
Convolution)
文章目录前言卷积操作转置卷积操作Pytorch中的转置卷积参数Pytorch转置卷积实验前言转置卷积(TransposedConvolution)在语义分割或者对抗神经网络(GAN)中比较常见,其主要作用就是做上采样(UpSampling)。在有些地方转置卷积又被称作fractionally-stridedconvolution或者deconvolution,但deconvolution具有误导性
太阳花的小绿豆
·
2021-10-13 15:30
pytorch
深度学习
语义分割
深度学习
神经网络
pytorch
转置卷积
deconvolution/
transposed
conv 理解
卷积层使用卷积核逐块计算会使图像变小,下采样pooling也可以。而上采样还是使用卷积核计算的吗?本文介绍对反卷积操作的理解。矩阵角度理解:我们先回顾下卷积的操作,对于一个4x4的输入图像,用3x3卷积核,padding=0,stride=1,进行卷积,能得到2x2的输出图像。把输入及输出分别展开成为一维向量,记为i及o。则卷积可以看做是矩阵运算o=ci,其中c的表达式如下:反卷积过程,对于2x2
hr_net
·
2020-08-13 17:12
深度学习
上采样方法大PK(Upsample,Interpolate,resize,
Transposed
convolution,deconv,Unpool,Pixelshuffle)
目录Upsample:Interpolate,resize:Transposedconvolution,deconv:Unpool:Pixelshuffle:Upsample:Pytorchexample:importtorchimporttorch.nnasnnimporttorch.nn.functionalasFinput=torch.arange(1,5).view(1,1,2,2).fl
watersink
·
2020-08-02 13:21
TensorFlow
pytorch
深度学习
Transposed
convolution & Fully Convolutional Neural Network
Givenakernel(e.g.3×33×3filter),wecangetthesparseToeplitzmatrixCCwhoseelementsareareweightsinkernel.WecaneithersaythiskerneldefinesadirectconvolutionwhoseforwardandbackwardpassarecomputedbyCCandC⊤C⊤res
Ph8_0
·
2020-07-13 01:15
Academic
Note
pytorch的conv2d函数groups分组卷积使用及理解
in_channels=6,out_channels=6,kernel_size=1,groups=3)conv.weight.data.size()输出:torch.Size([6,2,1,1])(此时转置参数
Transposed
阿喵酱紫糖
·
2020-07-06 22:09
机器学习
卷积
python
反卷积(
Transposed
Convolution)
反卷积的具体计算步骤令图像为卷积核为case1如果要使输出的尺寸是5x5,步数stride=2,tensorflow中的命令为:transpose_conv=tf.nn.conv2d_transpose(value=input,filter=kernel,output_shape=[1,5,5,1],strides=2,padding='SAME')当执行transpose_conv命令时,ten
Peyton_Li
·
2019-12-04 13:00
Up-sampling with
Transposed
Convolution(转置卷积上采样)
在这里也给出原博客链接:https://medium.com/activating-robotic-minds/up-sampling-with-
transposed
-convolution-9ae4f2df52d0
赖子啊
·
2019-11-18 17:25
一文搞懂 deconvolution、
transposed
convolution、sub-pixel or fractional convolution
目录写在前面什么是deconvolutionconvolution过程transposedconvolution过程transposedconvolution的计算整除的情况不整除的情况总结参考博客:blog.shinelee.me|博客园|CSDN写在前面开篇先上图,图为deconvolution在像素级语义分割中的一种应用,直观感觉deconvolution是一个upsampling的过程,像
shine-lee
·
2019-09-20 20:00
卷积(Convolution),反卷积(
Transposed
Convolution),上采样(UpSample, Interpolation)
文章目录卷积(Convolution)反卷积(TransposedConvolution)padding=0,stride=1padding=n(n>=1),stride=1Half(same)paddingFullpaddingpadding=0,strides=m(m>=2)padding=n(n>=1),strides=m(m>=2)最一般形式上采样(UpSample,Interpolati
Leon_winter
·
2019-09-19 11:39
深度学习
上采样和反卷积 Up-sampling and
Transposed
Convolution (Deconvolution)
文章目录1.卷积操作2.卷积矩阵3.反卷积4.反卷积矩阵5.使用卷积计算反卷积6.总结参考文献使用反卷积(TransposedConvolution)来进行上采样操作,不需要借助插值方法,并且可以提供能够学习的参数。反卷积在DCGAN和图像的语义分割网络中,有很重要的应用。1.卷积操作我们用一个简单的例子来介绍卷积的计算过程。如下图所示,用一个3x3的卷积核对一个4x4的矩阵进行卷积操作,步长为1
随风秀舞
·
2019-05-03 21:28
人工智能/深度学习/机器学习
UpPooling/UpSampling/Deconvolution/
Transposed
convolution
在图像的语义分割领域,经常需要将分辨率较低的特征图通过某些方式将其恢复到原图分辨率.这个时候很多的网络结构中使用UpPooling,UpSamping,Deconvolution等操作进行恢复.这几个操作之前还是有一些区别的,这里做个笔记记录具体的区别情况.UpPooling(这里针对MaxPooling)可以看到UnPooling操作相当于在进行MaxPooling操作时候对局部最大值的出现位置
tuzixini
·
2019-03-02 15:45
机器学习
Deconvolution &&
Transposed
Convolution
本文的主角是TransposedConvolution(转置卷积),又名Fractionally-stridedconvolution和deconvolution,其功能是由低分辨率图像生成高分辨率图像,常出现在GAN和图像分割等研究领域。本文根据文章直观的介绍其运算过程,如有差错请指正。卷积示例卷积操作反卷积操作卷积操作以3*3的卷积核对4*4矩阵的处理进行说明。为直观表示计算过程,需要将卷积核
hzhj
·
2018-09-12 22:49
神经网络
轻松理解转置卷积(
transposed
convolution)/反卷积(deconvolution)
原文地址:Up-samplingwithTransposedConvolution在CNN中,转置卷积是一种上采样(up-sampling)的方法.如果你对转置卷积感到困惑,那么就来读读这篇文章吧.本文的notebook代码在Github.上采样的需要在我们使用神经网络的过程中,我们经常需要上采样(up-sampling)来提高低分辨率图片的分辨率.上采样有诸多方法,举例如下.最近邻插值(Near
lanadeus
·
2018-09-09 00:27
知識總結
CV
python 矩阵转置 transpose
deftranspose1(matrix):cols=len(matrix[0])return[[row[i]forrowinmatrix]foriinrange(0,cols)]deftranspose2(matrix):
transposed
fareast_mzh
·
2018-08-23 17:59
python
深度学习:卷积和反卷积
这里有个动态图,
transposed
就是代表反卷积(转置卷积)https://github.com/vdumoulin/conv_arithmetic算法实现上也是先padding然后卷积2数学形式卷积可以转
AI百科
·
2018-08-20 17:30
深度学习
Deconvolution/upsampling convolution/
transposed
convolution
Deconvolution/upsamplingconvolution/transposedconvolution,arereferredtosamething:Theupsamplingoperationonfeaturemap,itisnotrealdeconvolutionbecauseitcannotrestorethepreviousvalue,butonlytheshape,forma
WeissSama
·
2018-06-26 03:03
Deep
Learning
反卷积 逆卷积 转置卷积(
Transposed
Convolution;Fractionally Strided Convolution;Deconvolution) 输出维度shape计算
正常卷积运算:如上图:4x4的输入,卷积Kernel为3x3,,输出为2x2。其计算可以理解为:输入矩阵展开为4*4=16维向量,记作x输出矩阵展开为2*2=4维向量,记作y卷积核C为如下矩阵:卷积运算可表示为y=Cx(可以对照动图理解),而卷积的反向传播可以如下,相当于乘以C^T反卷积运算:如上图:2x2的输入,卷积Kernel为3x3,,输出为4x4。如果按照正常卷积,生成的featurema
青盏
·
2018-02-27 13:11
computer
vision
python嵌套列表展示
Python的列表还可以嵌套,以下用三种方法来说明1方法一>>>matrix=[[1,2,3,4],[5,6,7,8],[9,10,11,12]]>>>
transposed
=[]>>>foriinrange
cakincqm
·
2017-11-22 11:27
python
[深度学习]转置卷积(
Transposed
Convolution)
一.写在前面在GAN(GenerativeAdversarialNets,直译为生成式对抗网络)中,生成器G利用随机噪声Z,生成数据。那么,在DCGAN中,这部分是如何实现呢?这里就利用到了TransposedConvolution(直译为转置卷积),也称为FractionalStridedConvolution。那么,接下来,从初学者的角度,用最简单的方式介绍什么是转置卷积,以及在Tensorf
chenqin's blog
·
2017-10-16 11:10
Tensorflow
深度学习与计算机视觉
深度学习与计算机视觉
Deconvolution/
Transposed
convolution
老早就琢磨过deconvolution的问题,不过今天又想起这个,发现理解得还是比较模糊,具体就是还是不知道caffe或者tensorflow中实现deconvolution是怎么实现的,刚才看到下面这篇文章https://arxiv.org/ftp/arxiv/papers/1609/1609.07009.pdf里面的两张图一下子就把我的所有疑惑解开了:Fig.2描述的是卷积过程,caffe中的
qiusuoxiaozi
·
2017-08-16 20:46
machine
learning
caffe
【深度学习】反卷积(
transposed
convolution)介绍
反卷积与卷积反卷积,顾名思义是卷积操作的逆向操作。为了方便理解,假设卷积前为图片,卷积后为图片的特征。卷积,输入图片,输出图片的特征,理论依据是统计不变性中的平移不变性(translationinvariance),起到降维的作用。如下动图:反卷积,输入图片的特征,输出图片,起到还原的作用。如下动图:我们知道卷积结合池化的降维作用,将神经网络推向深度学习,开启神经网络的新世界,那么反卷积的作用呢?
原来zz
·
2017-06-05 20:40
深度学习
反卷积(
Transposed
Convolution, Fractionally Strided Convolution or Deconvolution)
反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文Deconvolutionalnetworks中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中(Adaptivedeconvolutionalnetworksformidandhighlevelfeaturelearning)。随着反卷积在神经网络可视化上的成功应用,其被越来越多的工
think0713
·
2017-04-01 10:01
深度学习
Transposed
Matrix
Transposed
Matrix In linear algebra, the transpose of a matrix A is another matrix AT
·
2015-11-13 07:45
Matrix
Python checkio
Transposed
Matrix map与zip的使用
题目要求输入矩阵输出矩阵的转置简单粗暴checkio=lambdamatrix:map(list,zip(*matrix))checkio([[1,2,3], [4,5,6], [7,8,9]])==[[1,4,7], [2,5,8], [3,6,9]]map用法:map(函数,可迭代的参数)zip用法:m
·
2014-06-11 19:00
上一页
1
2
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他