E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
limu深度学习笔记
3.2)
深度学习笔记
:机器学习策略(2)
目录1)Carryingouterroranalysis2)CleaningupIncorrectlylabeleddata3)Buildyourfirstsystemquicklytheniterate4)Trainingandtestingondifferentdistributios5)BiasandVariancewithmismatcheddatadistributions6)Addre
10点43
·
2020-06-22 20:53
深度学习
吴恩达
深度学习笔记
course2 week3作业
TensorFlowTutorialWelcometothisweek'sprogrammingassignment.Untilnow,you'vealwaysusednumpytobuildneuralnetworks.Nowwewillstepyouthroughadeeplearningframeworkthatwillallowyoutobuildneuralnetworksmoreeas
banghu8816
·
2020-06-22 17:30
吴恩达
深度学习笔记
(十) —— 神经风格迁移
主要内容:一.神经风格迁移简介二.计算contentcost三.计算stylecost一.神经风格迁移简介1.神经风格迁移(NeuralStyleTransfer),简称为NST,就是以一张图为内容基础,以另一张图为风格基础,生成一张新的图:2.NST使用一张已经训练好的神经网络VGGnetwork作为算法的基础。可知神经网络的浅层学习一些比较低级的特征诸如边界和纹理的等,深层学些一些复杂抽象的特
alince20008
·
2020-06-22 13:05
吴恩达
深度学习笔记
(二)—— 深层神经网络的训练过程
主要内容:一.初始化参数二.前向传播三.计算代价函数四.反向传播五.更新参数(梯度下降)一.初始化参数1.由于将参数W初始化为0会导致神经网络失效,因而需要对W进行随机初始化。一般的做法是用np.random.np()生成一个高斯分布的数,然后再乘上一个很小的数比如0.01,以限制它的范围。所以可知W的初始值是一个很小的数(绝对值小),那为什么不能取绝对值较大的数呢?根据sigmoid或者tanh
alince20008
·
2020-06-22 13:33
吴恩达
深度学习笔记
(一) —— 神经网络简介
相关博客:吴恩达机器学习笔记(四)——BP神经网络(里面出现的内容,下面将不再重复)主要内容:一.单个样本向量化二.多个样本向量化三.激活函数及其导数四.随机初始化五.深层神经网络的前向与反向传播六.参数和超参数一.单个样本向量化如下神经网络,对于第一层的神经元,每个神经元的输出,即a的计算如下:但是这种每个神经元的输出都单独计算的方式显得很繁琐,至少在写代码的时候就很容易出错。为了简化表示和提高
alince20008
·
2020-06-22 13:33
机器学习资源分享
吴恩达老师的机器学习和深度学习课程笔记打印版黄海广博士的github:fengdu78(HuangHaiguang)·GitHub机器学习笔记:GitHub-fengdu78/Coursera-ML-AndrewNg-Notes:吴恩达老...
深度学习笔记
Wilder_ting
·
2020-06-22 08:53
吴恩达
深度学习笔记
12-Course4-Week3【目标检测】
目标检测(Objectdetection)一、目标定位(ObjectLocalization)图像识别的三个层次:图像分类:判断图像中是否包含某一类物体,并且假定每张图像只有一个目标。目标定位:既要图像分类,还要输出这个目标位置。目标检测:检测出图像包含的所有感兴趣的目标,并定位。目标定位:需要修改输出层的结构,和数据集的标签。输出层不仅要输出各类别的概率,还要输出目标的位置坐标。损失函数和标签:
Wang_Jiankun
·
2020-06-22 08:23
吴恩达深度学习
吴恩达深度学习笔记
吴恩达
深度学习笔记
1-Course1-Week1【深度学习概论】
2018.5.7吴恩达深度学习视频教程网址网易云课堂:https://mooc.study.163.com/smartSpec/detail/1001319001.htmCoursera:https://www.coursera.org/learn/neural-networks-deep-learningPS:网易云上不提供测验和作业,Cousera上有。深度学习概论:本篇主要关于深度学习的一些
Wang_Jiankun
·
2020-06-22 08:52
吴恩达深度学习
吴恩达深度学习笔记
深度学习笔记
(三)循环神经网络RNN
前情回顾:
深度学习笔记
(一)感知器、梯度下降、反向传播
深度学习笔记
(二)卷积神经网络RNN和LSTM之前我们知道图片有空间性的特征,于是就有了对应的解决方案:CNN。
雪球行动唐晓阳
·
2020-06-22 06:23
吴恩达
深度学习笔记
——深度卷积网络:实例探究
第二周深度卷积网络:实例探究(Deepconvolutionalmodels:casestudies)2.2经典网络(Classicnetworks)这节课,我们来学习几个经典的神经网络结构,分别是LeNet-5、AlexNet和VGGNet,开始吧。LeNet-5的网络结构2.3残差网络(ResidualNetworks(ResNets))非常非常深的神经网络是很难训练的,因为存在梯度消失和梯度
SCS199411
·
2020-06-22 04:45
深度学习
吴恩达
深度学习笔记
——超参数调试、Batch正则化和程序框架
第三周超参数调试、Batch正则化和程序框架(Hyperparametertuning)3.1调试处理(Tuningprocess)结果证实一些超参数比其它的更为重要,α\alphaα无疑是最重要的,接下来是我用橙色圈住的那些,然后是我用紫色圈住的那些,但这不是严格且快速的标准。在早一代的机器学习算法中,如果你有两个超参数,这里我会称之为超参1,超参2,常见的做法是在网格中取样点,像这样,然后系统
SCS199411
·
2020-06-22 04:14
深度学习
吴恩达
深度学习笔记
——改善深层神经网络:超参数调试、正则化以及优化
第二门课改善深层神经网络:超参数调试、正则化以及优化1.1训练,验证,测试集(Train/Dev/Testsets)应用深度学习是一个典型的迭代过程,需要多次循环往复,才能为应用程序找到一个称心的神经网络,因此循环该过程的效率是决定该项目进展速度的一个关键因素,而创造高质量的训练数据集,验证集和测试集也有助于提高循环效率。在机器学习发展的小数据量时代,常见做法是将所有数据三七分,就是人们常说的70
SCS199411
·
2020-06-22 04:13
深度学习
吴恩达
深度学习笔记
——优化算法
第二周:优化算法(Optimizationalgorithms)2.1Mini-batch梯度下降(Mini-batchgradientdescent)假设有500万个样本,batch_size=1000,也就是每次训练1000个样本,总共有5000个mini_batch。5000次迭代遍历一遍数据集中的所有样本,也是一个epoch。2.2理解mini-batch梯度下降法(Understandi
SCS199411
·
2020-06-22 04:13
深度学习
吴恩达
深度学习笔记
(38)-优化算法(Optimization algorithms)
Mini-batch梯度下降(Mini-batchgradientdescent)本周将学习优化算法,这能让你的神经网络运行得更快。机器学习的应用是一个高度依赖经验的过程,伴随着大量迭代的过程,你需要训练诸多模型,才能找到合适的那一个,所以,优化算法能够帮助你快速训练模型。其中一个难点在于,深度学习没有在大数据领域发挥最大的效果,我们可以利用一个巨大的数据集来训练神经网络,而在巨大的数据集基础上进
极客Array
·
2020-06-21 21:56
深度学习
吴恩达深度学习笔记
吴恩达
深度学习笔记
(30)-正则化的解释
正则化(Regularization)深度学习可能存在过拟合问题——高方差,有两个解决方法,一个是正则化,另一个是准备更多的数据,这是非常可靠的方法,但你可能无法时时刻刻准备足够多的训练数据或者获取更多数据的成本很高,但正则化通常有助于避免过拟合或减少你的网络误差。如果你怀疑神经网络过度拟合了数据,即存在高方差问题,那么最先想到的方法可能是正则化,另一个解决高方差的方法就是准备更多数据,这也是非常
极客Array
·
2020-06-21 21:56
深度学习
吴恩达深度学习笔记
吴恩达
深度学习笔记
(51)-归一化网络的激活函数(重要!)
归一化网络的激活函数(Normalizingactivationsinanetwork)在深度学习兴起后,最重要的一个思想是它的一种算法,叫做Batch归一化,由Sergeyloffe和ChristianSzegedy两位研究者创造。Batch归一化会使你的参数搜索问题变得很容易,使神经网络对超参数的选择更加稳定,超参数的范围会更加庞大,工作效果也很好,也会使你的训练更加容易,甚至是深层网络。让我
极客Array
·
2020-06-21 21:56
深度学习
吴恩达深度学习笔记
Python
深度学习笔记
(一)简要框架和数学基础
Python
深度学习笔记
(一)简要框架和数学基础最近看了《Python深度学习》这本书,学到不少东西,在这里以笔记的形式分享给大家。简要框架首先,我们需要明白人工智能,机器学习和深度学习的概念和区别。
Devin00123
·
2020-06-21 19:23
深度学习笔记
在线版发布!
吴恩达老师的深度学习课程(deeplearning.ai),可以说是深度学习入门的最热门课程,我和志愿者编写了这门课的笔记,并在github开源,为满足手机阅读的需要,我将笔记做成了在线版,可以在手机上打开公众号收藏就能学习。(黄海广)课程说明课程地址:https://www.deeplearning.ai国内由网易云课堂进行了翻译,并免费提供给广大爱好者:https://mooc.study.1
湾区人工智能
·
2020-06-21 17:19
深度学习笔记
-----基于TensorFlow2.2.0代码练习(第一课)
写在正文之前:这篇紧接着上一篇的博文https://blog.csdn.net/zdswyh123/article/details/106178597主要写的是TensorFlow2.0的代码练习,跟随着KGPTalkie的【TensorFlow2.0】实战进阶教程进行学习,并将其中一些不适用的代码错误进行修改。本文跟随视频油管非常火的【TensorFlow2.0】实战进阶教程(中英字幕+代码实战
zdswyh123
·
2020-06-21 15:57
深度学习
吴恩达
深度学习笔记
(40)-指数加权平均数优化算法
指数加权平均数(Exponentiallyweightedaverages)我想向你展示几个优化算法,它们比梯度下降法快,要理解这些算法,你需要用到指数加权平均,在统计中也叫做指数加权移动平均,我们首先讲这个,然后再来讲更复杂的优化算法。虽然现在恩达老师生活在美国,实际上恩达老师生于英国伦敦。比如这儿有去年伦敦的每日温度,所以1月1号,温度是40华氏度,相当于4摄氏度。世界上大部分地区使用摄氏度,
极客Array
·
2020-06-21 15:34
动手入门
深度学习笔记
-机器翻译(注意力机制与Seq2seq模型,Transformer)
机器翻译1.定义将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征:输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同。2.code实现##机器翻译定义"""主要是将一段文本从一种语言自动翻译成另外一种语言输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同"""importosos.listdir('/home/
mensyne
·
2020-06-21 14:55
动手入门深度学习
动手入门
深度学习笔记
-过欠拟合&梯度爆炸与消失
过欠拟合1.定义一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting);另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。2.code实现importtorchimportnum
mensyne
·
2020-06-21 14:55
动手入门深度学习
动手入门
深度学习笔记
-CNN模型以及进阶模型
CNN模型code实现##二维互相关importtorchimporttorch.nnasnndefcorr2d(X,K):H,W=X.shapeh,w=K.shapeY=torch.zeros(H-h+1,W-w+1)foriinrange(Y.shape[0]):forjinrange(Y.shape[1]):Y[i,j]=(X[i:i+h,j:j+w]*K).sum()returnYX=to
mensyne
·
2020-06-21 14:55
动手入门深度学习
动手入门
深度学习笔记
-文本预处理以及语言模型
文本预处理##读入文本importcollectionsimportredefread_time_machine():withopen('/home/kesci/input/timemachine7163/timemachine.txt','r')asf:lines=[re.sub('[^a-z]+','',line.strip().lower())forlineinf]returnlinesli
mensyne
·
2020-06-21 14:24
动手入门深度学习
动手入门
深度学习笔记
-RNN基础&GRU&LSTM&深度RNN&双向RNN
RNN模型importosos.listdir('/home/kesci/input')importnumpyasnpimporttorchfromtorchimportnn,optimimporttorch.nn.functionalasFimportsyssys.path.append('../input/')importd21_jay9460asd2ldevice=torch.device(
mensyne
·
2020-06-21 14:24
动手入门深度学习
吴恩达
深度学习笔记
(第二课时)
title:吴恩达
深度学习笔记
(第二课时)date:2019-12-0514:22:21categories:人工智能tags:nlpcover:https://www.github.com/OneJane
布丁和尚
·
2020-06-21 13:16
人工智能
深度学习笔记
---简单三层CNN的自制框架实现以及对MNIST数据集的训练实现
#1.简单三层CNN的简易计算图如下下面的源代码来自《深度学习入门——基于python的理论与实现》#2.CNN类的实现importsys,ossys.path.append(os.pardir)importnumpyasnpfromlayersimport*#导入加权和层类Affine、激活函数层类ReLU、卷积层类Convolution、池化层类Poolingfromcollectionsim
武松111
·
2020-06-21 13:36
python与深度学习
深度学习笔记
(一)——基本概念
在形势的逼迫之下,不得已查看一些关于深度学习的资料,将一些日常笔记贴在这里,以便复习。由于本人并不是做深度学习的,只是想大概了解一下,所以本篇博客都是一些杂乱的基本概念的东西,没有什么干货。可能笔记中涉及到好多原创博客和词条,在学习过程中没有妥善记录,万一侵犯到原创作者的权益,请原作者直接评论,我会立即修改。(1)范数的相关概念在深度学习中,监督类学习问题其实就是在规则化参数同时最小化误差。最小化
氟西汀汀汀
·
2020-06-21 07:33
深度学习笔记
-第3章-《深度学习入门——基于Python的理论与实现》的代码解说
这个书各位大佬都很熟悉,我就不多说了。这个系列的文章肯定不是很长,整个整合到机器学习-笔记目录方便的Numpy查询手册https://docs.scipy.org/doc/numpy/search.html版面尽量干净,分成三部分,代码图,重要的语法,举例扩展。1.代码图show_mnist.py这个文件是结果展示文件,我把我的标号的备注都去除掉了。1.1neuralnet_mnist.py这个文
mayavii
·
2020-06-21 06:25
深度学习
深度学习笔记
吴恩达
深度学习笔记
(41)-深度解析指数加权平均数
理解指数加权平均数(Understandingexponentiallyweightedaverages)上个笔记中,我们讲到了指数加权平均数,这是几个优化算法中的关键一环,而这几个优化算法能帮助你训练神经网络。本笔记中,我希望进一步探讨算法的本质作用。回忆一下这个计算指数加权平均数的关键方程。v_t=βv_(t-1)+(1-β)θ_t比如β=0.9的时候,得到的结果是红线,如果它更接近于1,比如
极客Array
·
2020-06-21 06:48
B站学习法之
深度学习笔记
一
B站学习法之
深度学习笔记
一ThreeStepsforDeepLearning接下来开头课程的outline1.Fullyconnectedlayer(全连接层)1.1关于全连接层的浅显理解1.2关于全连接层的浅显理解
NERV_Dyson
·
2020-06-21 05:53
B站
深度学习笔记
(十)--深度神经网络的致命问题
随着神经网络层数的加深,有三个重大问题:一是非凸优化问题,即优化函数越来越容易陷入局部最优解;二是(GradientVanish)梯度消失问题;三是过拟合问题。1、非凸优化问题线性回归,本质是一个多元一次函数的优化问题,设f(x,y)=x+y多层神经网络,本质是一个多元K次函数优化问题,设f(x,y)=xy在线性回归当中,从任意一个点出发搜索,最终必然是下降到全局最小值附近的。所以置0也无妨(这也
小熊猫3
·
2020-06-21 04:10
深度学习笔记
原创 | 深度学习60讲453页pdf下载
目前也正在撰写《
深度学习笔记
》一书已成
文文学霸
·
2020-06-20 23:26
深度学习笔记
(一)——初步理解yoloV3原理
深度学习笔记
(一)——初步理解yoloV3原理我的博客:竹山听雨文章目录
深度学习笔记
(一)——初步理解yoloV3原理前言特点网络结构预测部分darknet-53主干网络特征获取预测结果预测结果的解码训练部分训练
听竹先生
·
2020-06-20 22:28
深度学习
深度学习笔记
(二)——VGG
深度学习笔记
(二)——VGG文章目录
深度学习笔记
(二)——VGG闲聊前言网络结构结构参数结构图模型解释为什么使用3x3的卷积核1X1卷积核全连接转卷积代码实现引用相关的库使用GPU读入自定义数据集构建VGG16
听竹先生
·
2020-06-20 22:28
深度学习之:CNN卷积神经网基本概念理解
[1]DeepLearning简介[2]
深度学习笔记
整理系列[3]DeepLearning模型之:CNN卷积神经网(1)深度解析CNN[3]卷积神经网介绍:网络框架、源码解析[4]一文读
liu_zhlai
·
2020-06-20 20:18
深度学习
深度学习笔记
(三)——GAN入门实现MNIST数据集
深度学习笔记
(三)——GAN入门实现MNIST数据集文章目录
深度学习笔记
(三)——GAN入门实现MNIST数据集闲聊什么是GAN?
听竹先生
·
2020-06-20 20:27
神经网络
吴恩达
深度学习笔记
(81)--为什么使用卷积?(Why convolutions?)
吴恩达
深度学习笔记
(81)-为什么使用卷积?(Whyconvolutions?)为什么使用卷积?(Whyconvolutions?)
平头哥pentougu
·
2020-06-09 23:56
目标检测
深度学习
深度学习笔记
1——神经网络与深度学习基础
深度学习笔记
1——神经网络与深度学习基础IntroductiontoDeepLearningSupervisedLearningNeuralNetworkExampleStructuredDataandUnstructuredDataWhyareneuralnetworksjustnowtakingoff
皮皮#2500
·
2020-06-07 19:46
深度学习
深度学习笔记
第一篇
(深度学习)学习笔记1.1了解深度学习1.2为什么学习深度学习?1.3什么是深度学习?1.4神经元1.5人工神经网络(ArtificialNeuralNetwork,ANN)2.1典型网络结构2.2CNN和RNN的比较2.3深度神经网络专用芯片2.4深度学习开发工具2.57种深度学习工具介绍所借鉴到的blog如下:链接:https://blog.csdn.net/abc200941410128/a
LZL2020LZL
·
2020-05-23 12:51
神经网络
人工智能
深度学习
Python
深度学习笔记
(三)二分类模型
Python
深度学习笔记
(三)二分类模型继续来写我的学习笔记-----二分类问题我从数据的处理,模型的构架,训练过程,验证模型及损失和精度的比较这几个方面来介绍。
Devin00123
·
2020-05-06 16:30
深度学习
李宏毅2020机器学习
深度学习笔记
(一)
回归Regression什么是regression存在一个函数function,当我们输入一个特征值时,输出一个预测的结果。举几个简单的例子:房价预测:输入房子的大小,我们可以得到它的房价预测值。无人驾驶:输入此时的道路情况,车辆可以实时调整方向盘与油门达到平稳行驶。当然买房买车离身为学生的我们或许还很远,但如果是游戏,每个人都或多或少接触过。在一些游戏中,我们常常会遇见千变万化的一些武器、宠物之
QuinCres
·
2020-04-23 20:07
中欧Mini-MBA
深度学习笔记
+总结 Day-1
一、笔记笔记二、总结/心得因为对领导力这门博大的管理科学充满持续不断的探索欲望,学习了领越、4D、常读德鲁克,今天又开始中欧Mini-MBA的领导力课程体验,这是一次与以往不同的体验。在这个系列的领导力课程中,把领导风格分为真诚型、魅力型、激发型和愿景型,而激发型领导风格不只是促进变革,更是要达成感染与激励追随者的目的,这与【领越领导力】中卓越领导者五项行为习惯:以身作则、共启愿景、挑战现状、使众
Maggie雷玮
·
2020-04-20 21:42
中欧mini-MBA
深度学习笔记
+总结 Day-1
笔记总结/心得今天是中欧mini-MBA在线训练营正式学习的第1天,其实这已经是第2遍学习激发型领导风格。昨天在开营仪式上,营长倡导,知识易得,智慧难求。今天的感受更深一些。原本觉得之前已经看过,这次再学习也就是那样吧。但是第2遍学习的时候,感触跟上次又有很大的不同。激发型领导风格鼓舞性激励中,积极乐观,尤其是在团队面临困难和挑战的时候,领导者更应当以自己的工作态度激励员工。其实在刚入职场的时候,
碧荷叶_d5fe
·
2020-04-20 10:12
深度学习笔记
(1)基本运算
本笔记会认识一下tensorflow,numpy和matplotlib1.numpynumpy是一个数学运算库,基本的结构是数组。一个简单的数组importnumpyasnpa=np.array([1,2,3,4])b=np.array(range(10))#a.shape=(4,)#b.shape=(10,)#b.dtype=type('int64')数组操作默认情况下上面的数组是一维的,当然也
无事扯淡
·
2020-04-14 09:41
吴恩达
深度学习笔记
(4)-为什么深度学习会兴起?
为什么深度学习会兴起?(WhyisDeepLearningtakingoff?)本节视频主要讲了推动深度学习变得如此热门的主要因素。包括数据规模、计算量及算法的创新。(3个重点概念!请背书!)深度学习和神经网络之前的基础技术理念已经存在大概几十年了,为什么它们现在才突然流行起来呢?对啊,为什么?看过我之前文章:人工智能的冷落与兴起,那么你就会了解发展历程了,但是这个深度学习为什么会独引爆全场呢?本
极客Array
·
2020-04-14 01:28
吴恩达
深度学习笔记
(52)-将 Batch Norm 拟合进神经网络
BatchNorm拟合进神经网络(FittingBatchNormintoaneuralnetwork)你已经看到那些等式,它可以在单一隐藏层进行Batch归一化,接下来,让我们看看它是怎样在深度网络训练中拟合的吧。假设你有一个这样的神经网络,我之前说过,你可以认为每个单元负责计算两件事。第一,它先计算z,然后应用其到激活函数中再计算a,所以我可以认为,每个圆圈代表着两步的计算过程。同样的,对于下
极客Array
·
2020-04-12 09:36
python
深度学习笔记
第三章
TableofContents3.1神经网络3.4电影评论分类,二分类问题3.5新闻分类:多分类问题3.6预测房价,回归问题总结:3.1神经网络3.4电影评论分类,二分类问题#coding=utf-8"""__project_='Python深度学习'__file_name__='3.4电影评论分类'__author__='WIN10'__time__='2020/4/1112:02'__prod
东东就是我
·
2020-04-11 15:13
python深度学(笔记)
python
深度学习
对一篇
深度学习笔记
理解
这个课程笔记记录得实在不错,将大部分的要点都归纳出来了。一个系统具有的复杂结构如果用一个合适函数来表达可能是一个具有多个层级嵌套的复杂函数,比如sin(log(N(2,6)*5)+∂z/∂X-∬g(x,y)dxdy-A⨂B-6)⋯1️⃣,深度学习的深度体现在网络结构的多层(CNN中体现为卷积核与输入的矩阵内积计算得到的特征的数量),CNN模型中卷积运算是一种线性运算(类似人工神经元中加权求和部分)
tiger007lw
·
2020-04-08 08:57
深度学习笔记
--(1)什么是深度学习
image.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.png总结:image.pn
艾剪疏
·
2020-04-08 08:45
上一页
25
26
27
28
29
30
31
32
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他