E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
注意力机制
深入理解
注意力机制
(下)——缩放点积注意力及示例
二、缩放点积注意力现在我们已经了解了
注意力机制
的原型,但是它未能解决输入处理速度慢的问题。为了提高计算速度并利用并行计算的能力,有必要放
无水先生
·
2023-11-20 05:45
NLP高级和ChatGPT
人工智能
人工智能
机器翻译
深度学习中的注意力模型(2017版)
所以,了解
注意力机制
的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。人类的视觉注意力从注意力模型的命名方式看,很明显其借鉴了人类的
注意力机制
,因此,我们首先简单
csiao_Bing
·
2023-11-20 04:43
机器学习
注意力机制
Pytorch:Transformer(Encoder编码器-Decoder解码器、多头
注意力机制
、多头自
注意力机制
、掩码张量、前馈全连接层、规范化层、子层连接结构、pyitcast) part1
日萌社人工智能AI:KerasPyTorchMXNetTensorFlowPaddlePaddle深度学习实战(不定时更新)Encoder编码器-Decoder解码器框架+Attention
注意力机制
Pytorch
あずにゃん
·
2023-11-19 22:16
人工智能
PyTorch
人工智能
多维时序 | MATLAB实现PSO-GRU-Attention粒子群优化门控循环单元融合
注意力机制
的多变量时间序列预测
多维时序|MATLAB实现PSO-GRU-Attention粒子群优化门控循环单元融合
注意力机制
的多变量时间序列预测目录多维时序|MATLAB实现PSO-GRU-Attention粒子群优化门控循环单元融合
注意力机制
的多变量时间序列预测预测效果基本介绍模型描述程序设计参考资料预测效果基本介绍
机器学习之心
·
2023-11-19 16:32
时序预测
PSO-GRU-Att
GRU-Attention
粒子群优化
门控循环单元
融合注意力机制
多变量时间序列预测
分类预测 | Matlab实现PSO-GRU-Attention粒子群算法优化门控循环单元融合
注意力机制
多特征分类预测
分类预测|Matlab实现PSO-GRU-Attention粒子群算法优化门控循环单元融合
注意力机制
多特征分类预测目录分类预测|Matlab实现PSO-GRU-Attention粒子群算法优化门控循环单元融合
注意力机制
多特征分类预测分类效果基本描述程序设计参考资料分类效果基本描述
机器学习之心
·
2023-11-19 15:42
分类预测
PSO-GRU-Att
PSO-GRU
GRU-Attention
粒子群算法优化
门控循环单元
融合注意力机制
多特征分类预测
SENET通道
注意力机制
源代码+注释
importtorchimporttorch.nnasnnclassSENET(nn.Module):def__init__(self,channel,r=0.5):#channel为输入的维度,r为全连接层缩放比例->控制中间层个数super(SENET,self).__init__()#全局均值池化self.global_avg_pool=nn.AdaptiveAvgPool2d(1)#全连接
小馨馨的小翟
·
2023-11-19 06:10
笔记
深度学习
pytorch
cnn
SENET论文笔记
注意力机制
SENet论文笔记
注意力机制
Squeeze-and-ExcitationNetworks2019Abstract传统卷积都是在特征层级上通过提高空间编码质量提高表示能力SENet注重通道关系,自适应地调整通道方向特征图权重
B1CK
·
2023-11-19 06:10
论文笔记
论文阅读
第一次组会汇报(2023/11/18)
目录一,浅谈学习规划二,两个比较典型的
注意力机制
㈠SEnet⒈结构图⒉机制流程讲解⒊源码(pytorch框架实现)及逐行解释⒋测试结果㈡CBAM⒈结构图⒉机制流程讲解⒊源码(pytorch框架实现)及逐行解释
晴友读钟
·
2023-11-19 06:08
YOLOV5目标检测
深度学习
机器学习
人工智能
SEnet
注意力机制
(逐行代码注释讲解)
⒉机制流程讲解通道
注意力机制
的思想是,对于输入进来的特征层,我们在每一个通道学习不同的权重,这些权重与不同通道的特征相关,决定了每个通道在任务中的重要性。
晴友读钟
·
2023-11-19 06:04
YOLOV5目标检测
机器学习
人工智能
深度学习
HMM与LTP词性标注之LTP介绍
文章目录LTP牛刀小试上图缺点:参数太多,中文语料库匮乏
注意力机制
,相当于给每一个词赋予一个权重,权重越大的越重要。bert的缺点:神经元太多,较慢。
赵孝正
·
2023-11-18 23:28
#
1.
自然语言处理&知识图谱
人工智能
YOLOV8改进:在C2f模块不同位置添加GAM
注意力机制
,有效涨点!
2.提供更加详细的改进方法,如将
注意力机制
添加到网络的不同位置,便于做实验,也可以当做论文的创新点。2.涨点效果:添加GAM,经过测试,有效涨点。论文地址目录1.步骤一2.步骤二
dg68668
·
2023-11-18 18:02
YOLO
神经网络
计算机视觉
python
YOLOv8改进 | DAttention (DAT)
注意力机制
实现极限涨点
VisionTransformerwithDeformableAttention)的教程,其发布于2022年CVPR2022上同时被评选为BestPaper,由此可以证明其是一种十分有效的改进机制,其主要的核心思想是:引入可变形
注意力机制
和动
Snu77
·
2023-11-18 18:01
YOLOv8系列专栏
YOLO
pytorch
人工智能
深度学习
python
计算机视觉
目标检测
YOLOv8改进 | 如何在网络结构中添加
注意力机制
、C2f、卷积、Neck、检测头
一、本文介绍本篇文章的内容是在大家得到一个改进版本的C2f一个新的
注意力机制
、或者一个新的卷积模块、或者是检测头的时候如何替换我们YOLOv8模型中的原有的模块,从而用你的模块去进行训练模型或者检测。
Snu77
·
2023-11-18 18:55
YOLOv8系列专栏
YOLO
深度学习
机器学习
人工智能
论文阅读——RetNet
这些方法大概分类三类:一是代替transformer非线性
注意力机制
的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替
注意力机制
。但是都不成功。
じんじん
·
2023-11-18 18:05
论文
人工智能
时间序列预测 | Matlab基于卷积神经网络-双向长短期记忆网络结合
注意力机制
(CNN-BILSTM-Attention)时间序列预测,单列数据输入
文章目录效果一览文章概述部分源码参考资料效果一览文章概述时间序列预测|Matlab基于卷积神经网络-双向长短期记忆网络结合
注意力机制
(CNN-BILSTM-Attention)时间序列预测,单列数据输入评价指标包括
前程算法屋
·
2023-11-18 17:17
卷积双向长短期记忆网络
CNN-BILSTM
Attention
时间序列预测
多维时序预测 | Matlab基于卷积神经网络-长短期记忆网络结合
注意力机制
(CNN-LSTM-Attention)多变量时间序列预测,多列变量输入
文章目录效果一览文章概述部分源码参考资料效果一览文章概述多维时序预测|Matlab基于卷积神经网络-长短期记忆网络结合
注意力机制
(CNN-LSTM-Attention)多变量时间序列预测,多列变量输入评价指标包括
前程算法屋
·
2023-11-18 17:17
matlab
cnn
lstm
卷积神经网络-长短期记忆网络
CNN-LSTM
Attention
多变量时间序列预测
多维时序预测 | Matlab基于卷积神经网络-双向长短期记忆网络结合
注意力机制
(CNN-BILSTM-Attention)多变量时间序列预测
文章目录效果一览文章概述部分源码参考资料效果一览文章概述多维时序预测|Matlab基于卷积神经网络-双向长短期记忆网络结合
注意力机制
(CNN-BILSTM-Attention)多变量时间序列预测评价指标包括
前程算法屋
·
2023-11-18 17:17
卷积双向长短期记忆网络
注意力机制
CNN-BILSTM
Attention
多变量时间序列预测
时间序列预测 | Matlab基于卷积神经网络-长短期记忆网络结合
注意力机制
(CNN-LSTM-Attention)时间序列预测,单列数据输入模型
文章目录效果一览文章概述部分源码参考资料效果一览文章概述时间序列预测|Matlab基于卷积神经网络-长短期记忆网络结合
注意力机制
(CNN-LSTM-Attention)时间序列预测,单列数据输入模型评价指标包括
前程算法屋
·
2023-11-18 17:16
卷积神经网络-长短期记忆网络
CNN-LSTM
Attention
融合注意力机制
时间序列预测
多维时序预测 | Matlab基于斑马优化卷积神经网络结合长短期记忆网络融合
注意力机制
的多变量时间序列预测,ZOA-CNN-LSTM-Attention多变量时间序列超前24步回归预测算法
文章目录效果一览文章概述部分源码参考资料效果一览文章概述多维时序预测|Matlab基于斑马优化卷积神经网络结合长短期记忆网络融合
注意力机制
的多变量时间序列预测,ZOA-CNN-LSTM-Attention
前程算法屋
·
2023-11-18 17:46
ZOA-CNN-LSTM
CNN-LSTM
斑马优化
卷积神经网络结合长短期记忆网络
融合注意力机制
时间序列超前24步
多元回归预测 | Matlab基于卷积神经网络-长短期记忆网络结合
注意力机制
(CNN-LSTM-Attention)回归预测,多变量输入模型
文章目录效果一览文章概述部分源码参考资料效果一览文章概述多元回归预测|Matlab基于卷积神经网络-长短期记忆网络结合
注意力机制
(CNN-LSTM-Attention)回归预测,多变量输入模型评价指标包括
前程算法屋
·
2023-11-18 17:46
matlab
cnn
lstm
多元回归预测 | Matlab基于卷积神经网络-双向长短期记忆网络结合
注意力机制
(CNN-BILSTM-Attention)回归预测,多变量输入模型
文章目录效果一览文章概述部分源码参考资料效果一览文章概述多元回归预测|Matlab基于卷积神经网络-双向长短期记忆网络结合
注意力机制
(CNN-BILSTM-Attention)回归预测,多变量输入模型评价指标包括
前程算法屋
·
2023-11-18 17:46
matlab
cnn
回归
CNN-BILSTM
Attention
多维时序 | MATLAB实现PSO-BiGRU-Attention粒子群优化双向门控循环单元融合
注意力机制
的多变量时间序列预测
多维时序|MATLAB实现PSO-BiGRU-Attention粒子群优化双向门控循环单元融合
注意力机制
的多变量时间序列预测目录多维时序|MATLAB实现PSO-BiGRU-Attention粒子群优化双向门控循环单元融合
注意力机制
的多变量时间序列预测预测效果基本介绍模型描述程序设计参考资料预测效果基本介绍
机器学习之心
·
2023-11-18 17:14
时序预测
PSO-BiGRU-Att
BiGRU-Attention
PSO-BiGRU
粒子群优化双向门控循环单元
融合注意力机制
多变量时间序列预测
分类预测 | Matlab实现PSO-BiLSTM-Attention粒子群算法优化双向长短期记忆神经网络融合
注意力机制
多特征分类预测
分类预测|Matlab实现PSO-BiLSTM-Attention粒子群算法优化双向长短期记忆神经网络融合
注意力机制
多特征分类预测目录分类预测|Matlab实现PSO-BiLSTM-Attention粒子群算法优化双向长短期记忆神经网络融合
注意力机制
多特征分类预测分类效果基本描述程序设计参考资料分类效果基本描述
机器学习之心
·
2023-11-18 17:03
分类预测
PSO-BiLSTM-Att
BiLSTM-Atten
Attention
粒子群算法优化
双向长短期记忆神经网络
多特征分类预测
添加
注意力机制
过程+添加专家网络
添加注意力失败二、添加专家网络1、在得到logits_per_image之后添加专家网络网络的输入维度应该与logits_per_image.shape[1]一致,那就添加logits_per_image这个参数类似于image_features0的get,去getlogitimage_features0=get_image_features(image,self.model,self.prepr
萤石ym
·
2023-11-17 03:21
python
对比试验代码修改
Fedavg改成使用了clip模型,,,,,修改失败,因为clip模型出来的数据分成图像和文本,改不好,失败告终2、从fedclip修改成普通的Fedavgfedclip是使用了clip预训练模型,再添加了基于
注意力机制
的适配器
萤石ym
·
2023-11-17 03:21
python
注意力机制
(二)
本文参考自:原文地址导读目前采用编码器-解码器(Encode-Decode)结构的模型非常热门,是因为它在许多领域较其他的传统模型方法都取得了更好的结果。这种结构的模型通常将输入序列编码成一个固定长度的向量表示,对于长度较短的输入序列而言,该模型能够学习出对应合理的向量表示。然而,这种模型存在的问题在于:当输入序列非常长时,模型难以学到合理的向量表示。在这篇博文中,我们将探索加入LSTM/RN
caiyun987
·
2023-11-16 19:31
博客
其他
[动手学深度学习]
注意力机制
Transformer学习笔记
动手学深度学习(视频):68Transformer【动手学深度学习v2】_哔哩哔哩_bilibili动手学深度学习(pdf):10.7.Transformer—动手学深度学习2.0.0documentation(d2l.ai)李沐Transformer论文逐段精读:Transformer论文逐段精读【论文精读】_哔哩哔哩_bilibiliVaswani,A.etal.(2017)'Attentio
夏莉莉iy
·
2023-11-16 19:30
深度学习笔记
深度学习
transformer
学习
机器学习
笔记
人工智能
自然语言处理
【nlp】2.6
注意力机制
Attention
注意力机制
1
注意力机制
介绍1.1注意力概念1.2注意力计算规则1.3常见的注意力计算规则2什么是深度神经网络
注意力机制
3
注意力机制
的作用4
注意力机制
实现步骤4.1步骤4.2代码实现1
注意力机制
介绍1.1
lys_828
·
2023-11-16 19:26
NLP自然语言处理
自然语言处理
人工智能
深度学习
YOLO算法改进5【中阶改进篇】:添加SENet
注意力机制
SE-Net是ImageNet2017(ImageNet收官赛)的冠军模型,是由WMW团队发布。具有复杂度低,参数少和计算量小的优点。且SENet思路很简单,很容易扩展到已有网络结构如Inception和ResNet中。我们可以看到,已经有很多工作在空间维度上来提升网络的性能。那么很自然想到,网络是否可以从其他层面来考虑去提升性能,比如考虑特征通道之间的关系?作者基于这一点并提出了Squeeze-
梦在黎明破晓时啊
·
2023-11-16 13:35
YOLOV5中阶改进篇
YOLO
算法
php
分类预测 | Matlab实现PSO-GRU-Attention粒子群算法优化门控循环单元融合
注意力机制
多特征分类预测
分类预测|Matlab实现PSO-GRU-Attention粒子群算法优化门控循环单元融合
注意力机制
多特征分类预测目录分类预测|Matlab实现PSO-GRU-Attention粒子群算法优化门控循环单元融合
注意力机制
多特征分类预测分类效果基本描述程序设计参考资料分类效果基本描述
机器学习之心
·
2023-11-16 09:42
分类预测
PSO-GRU-Att
GRU-Attention
多输入分类预测
粒子群算法优化
门控循环单元
融合注意力机制
多维时序 | MATLAB实现PSO-BiLSTM-Attention粒子群优化双向长短期记忆神经网络融合
注意力机制
的多变量时间序列预测
多维时序|MATLAB实现PSO-BiLSTM-Attention粒子群优化双向长短期记忆神经网络融合
注意力机制
的多变量时间序列预测目录多维时序|MATLAB实现PSO-BiLSTM-Attention
机器学习之心
·
2023-11-16 09:12
时序预测
PSO-BiLSTM-Att
粒子群算法优化
BiLSTM-Att
双向长短期记忆神经网络
融合注意力机制
多变量时间序列预测
分类预测 | Matlab实现PSO-LSTM-Attention粒子群算法优化长短期记忆神经网络融合
注意力机制
多特征分类预测
分类预测|Matlab实现PSO-LSTM-Attention粒子群算法优化长短期记忆神经网络融合
注意力机制
多特征分类预测目录分类预测|Matlab实现PSO-LSTM-Attention粒子群算法优化长短期记忆神经网络融合
注意力机制
多特征分类预测分类效果基本描述程序设计参考资料分类效果基本描述
机器学习之心
·
2023-11-16 09:12
分类预测
PSO-LSTM-Att
粒子群算法优化
多输入分类预测
长短期记忆神经网络
融合注意力机制
论文笔记——BiFormer
/pdf/2303.08810.pdfCode:https://github.com/rayleizhu/BiFormer一、前言众所周知,Transformer相比于CNNs的一大核心优势便是借助自
注意力机制
的优势捕捉长距离上下文依
Sciws
·
2023-11-16 06:56
论文阅读
YOLOV8改进:添加Wiseiou,有效涨点
2.提供更加详细的改进方法,如将
注意力机制
添加到网络的不同位置,便于做实验,也可以当做论文的创新点。
dg68668
·
2023-11-16 02:23
YOLO
python
深度学习
人工智能
计算机视觉的应用16-基于pytorch框架搭建的
注意力机制
,在汽车品牌与型号分类识别的应用
大家好,我是微学AI,今天给大家介绍一下计算机视觉的应用16-基于pytorch框架搭建的
注意力机制
,在汽车品牌与型号分类识别的应用,该项目主要引导大家使用pytorch深度学习框架,并熟悉
注意力机制
模型的搭建
微学AI
·
2023-11-15 20:47
计算机视觉的应用
计算机视觉
pytorch
分类
注意力机制
FSOD论文阅读 - 基于卷积和
注意力机制
的小样本目标检测
来源:知网标题:基于卷积和
注意力机制
的小样本目标检测作者:郭永红,牛海涛,史超,郭铖郭永红,牛海涛,史超,郭铖.基于卷积和
注意力机制
的小样本目标检测[J/OL].兵工学报.https://link.cnki.net
NXU、辉
·
2023-11-15 18:18
小样本目标检测
论文阅读
目标检测
人工智能
注意力机制
、Transformer模型、生成式模型、目标检测算法、图神经网络、强化学习、深度学习模型可解释性与可视化方法等详解
采用“理论讲解+案例实战+动手实操+讨论互动”相结合的方式,抽丝剥茧、深入浅出讲解
注意力机制
、Transformer模型(BERT、GPT-1/2/3/3.5/4、DETR、ViT、SwinTransformer
小艳加油
·
2023-11-15 17:41
语言类
深度学习
transformer
目标检测
注意力机制
python
【
注意力机制
综述】基础原理、变种和最近研究
点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达来自|知乎作者丨李新春来源丨https://zhuanlan.zhihu.com/p/106662375仅作学术交流,如有侵权,请联系删文Attention机制是深度学习里面的一个非常重要且有效的技巧,本文将会简单介绍Attention的基础原理,重点介绍Attention的变种和最近研究。以下是文章的目录结构:Attentio
小白学视觉
·
2023-11-15 17:04
大数据
算法
python
计算机视觉
神经网络
python图神经网络,
注意力机制
、Transformer模型、目标检测算法、强化学习等
近年来,伴随着以卷积神经网络(CNN)为代表的深度学习的快速发展,人工智能迈入了第三次发展浪潮,AI技术在各个领域中的应用越来越广泛本文重点为:
注意力机制
、Transformer模型(BERT、GPT-
xiao5kou4chang6kai4
·
2023-11-15 17:27
python
神经网络
transformer
44 深度学习(八):GPU|seq2seq
MirroredStrategyCentralStorageStrategyMultiWorkerMirroredStrategyTPUStrategyParameterServerStrategyseq2seq原理介绍代码讲解包含的库数据初始化构造encoder
注意力机制
Micoreal
·
2023-11-15 09:44
个人python流程学习
深度学习
人工智能
深度学习实战59-NLP最核心的模型:transformer的搭建与训练过程详解,手把手搭建与跑通
transformer是一种基于自
注意力机制
的深度学习模型,由Vaswani等人在2017年的论文《AttentionisAllYouNeed》中提出。
微学AI
·
2023-11-15 08:25
深度学习实战(进阶)
深度学习
自然语言处理
transformer
论文浅尝 | 用于学习知识图谱嵌入的一种基于
注意力机制
的新型异构 GNN 框架HRAN...
笔记整理|李爽,天津大学链接:http://hfbix45521e79b0484907sowxo0fubpp9b6xwx.fiiz.eds.tju.edu.cn/stamp/stamp.jsp?tp=&arnumber=9359364动机知识图谱(KG)嵌入旨在研究嵌入表示以保留KG的固有结构。图神经网络(GNN)作为一种有效的图表示技术,在学习图嵌入方面表现出了良好的性能。然而,KG具有异构性的
开放知识图谱
·
2023-11-15 06:15
神经网络
计算机视觉
机器学习
人工智能
深度学习
多维时序 | MATLAB实现PSO-LSTM-Attention粒子群优化长短期记忆神经网络融合
注意力机制
的多变量时间序列预测
多维时序|MATLAB实现PSO-LSTM-Attention粒子群优化长短期记忆神经网络融合
注意力机制
的多变量时间序列预测目录多维时序|MATLAB实现PSO-LSTM-Attention粒子群优化长短期记忆神经网络融合
注意力机制
的多变量时间序列预测预测效果基本介绍模型描述程序设计参考资料预测效果基本介绍多维时序
机器学习之心
·
2023-11-15 05:46
时序预测
PSO-LSTM-Att
LSTM-Attention
LSTM
粒子群优化长短期记忆神经网络
融合注意力机制
多变量时间序列预测
Transformer原理与代码精讲(PyTorch)
原理精讲部分包括:
注意力机制
和自注意力机
bai666ai
·
2023-11-15 00:48
深度学习之计算机视觉
transformer
pytorch
深度学习
(五)比赛中的CV算法(下5)检测网络调优(2)CV中的
注意力机制
全网最强的CV
注意力机制
总结
注意力机制
最早被使用在机器翻译(或自然语言处理)上中的Encoder-Decoder模型上,让网络在处理不同部分语句时能够聚焦到特定的已经编码的语义向量或输入上。
HNU跃鹿战队
·
2023-11-15 00:06
深度学习
计算机视觉
卷积神经网络
目标检测
机器学习
9种高效提速的transformer魔改版本
然而Transformer中
注意力机制
计算代价较高,随着序列长度的增加,这个计算量还会持续上升。
深度之眼
·
2023-11-14 19:31
人工智能干货
深度学习干货
transformer
注意力机制
attention
基于卷积神经网络和客源
注意力机制
的OD客流预测模型
文章信息论文题目为《Anorigin–destinationpassengerflowpredictionsystembasedonconvolutionalneuralnetworkandpassengersource-basedattentionmechanism》,该文于2023年发表于ExpertSystemsWithApplications期刊上。文章提出一种基于乘客源注意机制的卷积神经
当交通遇上机器学习
·
2023-11-14 09:28
cnn
人工智能
神经网络
深度学习
机器学习
RT-DETR算法优化改进:可变形大核注意力(D-LKA Attention),超越自注意力,实现暴力涨点 | 2023.8月最新发表
本文独家改进:可变形大核注意力(D-LKAAttention),采用大卷积核来充分理解体积上下文的简化
注意力机制
,来灵活地扭曲采样网格,使模型能够适当地适应不同的数据模式1)代替RepC3进行使用;推荐指数
AI小怪兽
·
2023-11-14 01:22
RT-DETR魔术师
算法
YOLO
开发语言
目标检测
人工智能
计算机视觉
YOLOv8-Seg改进:多尺度空洞注意力(MSDA),增强局部、稀疏提取特征能力
本文改进:新的
注意力机制
——多尺度空洞注意力(MSDA)。
会AI的学姐
·
2023-11-13 22:44
YOLOv8-seg创新
YOLO
人工智能
算法
计算机视觉
学习
未来之路:大模型技术在自动驾驶的应用与影响
接着,详细介绍了大模型的基本定义、基础功能和关键技术,特别是Transformer
注意力机制
和预训练-微调范式。文章还介绍了大模型在任务适配性、模型变革和应用前景方面的潜力。
一颗小树x
·
2023-11-13 18:03
感知算法学习
自动驾驶
大模型
Transformer
占用网络
应用
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他