E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《动手学深度学习
动手学深度学习
之经典的卷积神经网络之VGG
VGGVGG块深vs宽5*5卷积3*3卷积深但窄效果更好VGG块3*3卷积(填充1)(n层,m通道)。也就是说一个VGG块中可以有n个卷积层,每个卷积层的通道数都是一样的2*2最大池化层(步幅2)。每个VGG块的最后一层VGG架构其实就是替换掉AlexNet的整个卷积的部分在多个VGG块之后连接全连接层不同次数的重复块得到不同的架构VGG-16,VGG-19…进度总结VGG有两个思想影响了后来的研
哈哈哈捧场王
·
2022-12-28 10:36
机器学习&深度学习
【
动手学深度学习
】使用块的网络(VGG)
经典卷积神经网络VGG介绍激活函数ReLu函数实现VGG-11tf.keras.layers.Conv2D()f.keras.layers.MaxPool2D()定义块卷积层部分全连接层tf.keras.layers.Flatten()tf.keras.layers.Dense()查看每个层输出的形状构建通道数较少的网络定义学习率、轮次和批大小训练结果介绍经典卷积神经网络的基本组成部分是下面的这个
往阳光走
·
2022-12-28 08:50
深度学习
网络
神经网络
【
动手学深度学习
PyTorch版】18 使用块的网络 VGG
上一篇请移步【
动手学深度学习
PyTorch版】17深度卷积神经网络AlexNet_水w的博客-CSDN博客目录一、使用块的网络VGG1.1AlexNet--->VGG◼VGG网络简介1.2VGG架构1.3
水w
·
2022-12-28 08:48
#
深度学习
深度学习
pytorch
python
神经网络
网络
Pytorch 使用块的网络 VGG
Pytorch使用块的网络VGG0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按Shift+Tab查看函数详解
哇咔咔负负得正
·
2022-12-28 08:17
#
CV
pytorch
动手学深度学习
———使用块的网络VGG
1、VGG块VGG块的组成规律是:连续使用数个相同的填充为1、窗口形状为2×2的最大池化层。卷积层保持输入的高和宽不变,而池化层则对其减半。我们使用vgg_block函数来实现这个基础的VGG块,它可以指定卷积层的数量和输入输出通道数。2、VGG架构多个VGG块后接全连接层;不同次数的重复块得到不同的架构VGG-16、VGG-19,...3、VGG网络与AlexNet和LeNet一样,VGG网络由
橙子吖21
·
2022-12-28 08:17
动手学深度学习
深度学习
网络
cnn
神经网络
pytorch
20李沐
动手学深度学习
v2/参数管理
参数访问#单隐藏层MLP,参数获取importtorchfromtorchimportnnnet=nn.Sequential(nn.Linear(4,8),nn.ReLU(),nn.Linear(8,1))X=torch.rand(size=(2,4))net(X)#访问指定层所有参数#net[2]拿到0,1,2。拿到nn.Linear(8,1)#nn.Sequential(nn.Linear(4
xcrj
·
2022-12-28 06:25
深度学习
深度学习
python
神经网络
Pytorch入门(3)—— 构造网络模型
参考:
动手学深度学习
注意:由于本文是jupyter文档转换来的,代码不一定可以直接运行,有些注释是jupyter给出的交互结果,而非运行结果!!
云端FFF
·
2022-12-28 04:22
#
PyTorch
pytorch
深度学习
权重共享
模型构造
自定义层
04 数据操作 + 数据预处理【
动手学深度学习
v2】
04数据操作+数据预处理【
动手学深度学习
v2】P1数据操作N维数组样例N维数组是机器学习和神经网络的主要数据创建数组形状:例如3×4矩阵每个元素的数据类型:例如32位浮点数每个元素的值,例如全是0,或者随机数访问元素
程序员小勇
·
2022-12-28 01:03
动手学深度学习笔记(更新中)
pytorch
深度学习
机器学习
李沐
python
15李沐
动手学深度学习
v2/丢弃法 (dropout) 从0开始实现
importtorchfromtorchimportnnfromd2limporttorchasd2ldefdropout_layer(X,dropout):'''训练过程中,依概率dropout变化隐藏层的全连接层的输出'''assert0dropout).float()returnmask*X/(1.0-dropout)#测试dropout函数,float32的速度更快X=torch.aran
xcrj
·
2022-12-27 23:53
深度学习
深度学习
python
人工智能
循环神经网络的实现
参考8.5.循环神经网络的从零开始实现—
动手学深度学习
2.0.0documentation参考循环神经网络(MLP——>RNN)_流萤数点的博客-CSDN博客我们可以训练一个基于循环神经网络的字符级语言模型
流萤数点
·
2022-12-27 21:47
自然语言处理
rnn
人工智能
深度学习
循环神经网络的简洁实现
参考8.6.循环神经网络的简洁实现—
动手学深度学习
2.0.0documentation本节将展示如何使用深度学习框架的高级API提供的函数更有效地实现相同的语言模型。我们仍然从读取时光机器数据集开始。
流萤数点
·
2022-12-27 21:41
自然语言处理
rnn
深度学习
人工智能
动手学深度学习
之经典的卷积神经网络之AlexNet
AlexNetAlexNet本质是是一个更深更大的LeNet,本质上并没有什么区别主要的改进加入的丢弃发激活函数改为了ReLUAlexNet取的是MaxPooling改变了计算机视觉的观念,不在拘泥于人工抽取特征,二十一个端到端的一个学习AlexNet架构AlexNet的输入是一个224*224的矩阵,它的通道数为3,因为它是一个RGB的图片。第一个卷积层:它的卷积核的大小是11*11,通道数为9
哈哈哈捧场王
·
2022-12-27 07:32
机器学习&深度学习
负采样及其在skip-gram中的实现
简介skip-gram(跳元模型)负采样算法结构取样方法简介本文参考了李沐老师在《
动手学深度学习
》中的代码,加入了自己的理解,希望能让各位更理解负采样在skip-gram中的应用。
苏炘
·
2022-12-26 12:50
深度学习
人工智能
自然语言处理
【
动手学深度学习
PyTorch版】4 多层感知机 + 代码实现
上一篇移步【
动手学深度学习
】3Softmax回归+损失函数_水w的博客-CSDN博客目录◼softlabel的训练策略一、感知机1.1感知机◼感知机◼训练感知机1.2感知机的收敛定理1.3感知机的问题:
水w
·
2022-12-26 08:56
#
深度学习
动手学深度学习
(Pytorch)1预备知识代码
第1章预备知识#-*-coding:utf-8-*-"""CreatedonSunAug1517:41:372021@author:23820"""importtorchprint("版本号为:{}".format(torch.__version__))tensor_a=torch.arange(0,12)print(tensor_a)print("张量的存储位置:{}".format(tenso
醉一心
·
2022-12-26 08:25
Python
机器学习
深度学习
人工智能
python
李沐 《
动手学深度学习
》学习笔记 (6)第一章 预备知识 第四节 微分
1.4微分1.4.1导数与微分#作用是当你调用matplotlib.pyplot的绘图函数plot()进行绘图的时候,#或者生成一个figure画布的时候,可以直接在你的pythonconsole里面生成图像。%matplotlibinlinefromIPythonimportdisplayfrommxnetimportnp,npxfromd2limportmxnetasd2lnpx.set_np
Artificial Idiots
·
2022-12-26 08:21
机器学习
李沐——
动手学深度学习
Pytorch版2.2节代码调试
目录1.矢量图显示函数use_svg_display()内部报错2.矢量图不显示1.矢量图显示函数use_svg_display()内部报错报错如下:DeprecationWarning:`set_matplotlib_formats`isdeprecatedsinceIPython7.23,directlyuse`matplotlib_inline.backend_inline.set_matp
bhdwxtyyds
·
2022-12-26 08:20
深度学习
pytorch
python
【
动手学深度学习
:卷积神经网络基础】【二维卷积层+填充和步幅+多输入通道和多输出通道+卷积层与全连接层的对比+卷积层的简洁实现+池化】
文章目录二维卷积层二维互相关运算二维卷积层互相关运算与卷积运算特征图与感受野填充和步幅填充步幅多输入通道和多输出通道多输入通道多输出通道1x1卷积层卷积层与全连接层的对比卷积层的简洁实现池化二维池化层池化层的简洁实现二维卷积层常用于处理图像数据。二维互相关运算二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数
LinGavinQ
·
2022-12-25 01:02
python
深度学习
Pytorch 卷积核填充和步幅、多输入多输出通道、池化层
Pytorch卷积层里的填充和步幅0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按Shift+Tab查看函数详解
哇咔咔负负得正
·
2022-12-25 01:31
#
CV
pytorch
李沐
动手学深度学习
V2-VGG11模型和代码实现
1.VGG11虽然AlexNet证明深层神经网络卓有成效,但它没有提供一个通用的模板来指导后续的研究人员设计新的网络。研究人员开始从单个神经元的角度思考问题,发展到整个层,现在又转向块(不断使用重复层的模式)。1.1VGG块经典卷积神经网络的基本组成部分是下面的这个序列:带填充以保持分辨率(保持输入输出形状尺寸大小相同)的卷积层;非线性激活函数,如ReLU;汇聚层,如最大汇聚层。一个VGG块与之类
cv_lhp
·
2022-12-25 01:29
李沐动手学深度学习笔记
深度学习
神经网络
pytorch
机器学习
人工智能
动手学深度学习
(四十四)——Seq2Seq原理与实现
文章目录一、什么是seq2seq(序列到序列的学习)二、动手实现Seq2Seq1.编码器2.解码器3.损失函数4.训练5.预测6.预测和评估7.用训练好的Seq2Seq模型将英语翻译成法语三、总结一、什么是seq2seq(序列到序列的学习) 使用两个RNN设计Encoder-Decoder结构,并将其应用于机器翻译Sutskever.Vinyals.Le.2014,Cho.VanMerrienb
留小星
·
2022-12-24 19:31
深度学习
机器翻译
自然语言处理
动手学深度学习
——卷积层里的多个输入和输出通道
1、多个输入通道彩色图像可能有RGB三个通道,转化为灰度会丢失信息。每个通道都有一个卷积核,结果是所有通道卷积结果的和。用公式表示:2、多个输出通道无论有多少个输入通道,到目前为止我们只用到单输出通道;我们可以有多个三维卷积核,每个核生成一个输出通道。每个输出通道可以识别特定模式;输入通道核识别并组合输入中的模式。3、1x1的卷积层kh=kw=1是一个受欢迎的选择,他不识别空间模式,只是融合通道;
橙子吖21
·
2022-12-24 17:47
动手学深度学习
深度学习
cnn
人工智能
神经网络
pytorch
【Pytorch】Pytorch学习笔记01
一、准备工作官网:https://pytorch.org中文文档:https://pytorch.apachecn.org/#/docs/1.7/
动手学深度学习
:http://zh.d2l.ai/安装pytorch
KmBase
·
2022-12-24 15:50
#
Python
pytorch
学习
python
【李沐
动手学深度学习
】读书笔记 01前言
沐神的课非常好呀,很全面,包括了卷积神经网络的backbone、cv两个细分领域——目标检测和语义分割,原书链接在这里《
动手学深度学习
》。前言:机器学习基础背景想象一下,你正和你最聪明的一群
咯吱咯吱咕嘟咕嘟
·
2022-12-24 15:17
沐神之动手学深度学习课
学习
机器学习
李沐
动手学深度学习
V2-多尺度目标检测
一.多尺度目标检测以输入图像的每个像素为中心,生成多个锚框,这些锚框代表了图像不同区域的样本。然而,如果为每个像素都生成的锚框,最终可能会得到太多需要计算的锚框。想象一个561×728的输入图像,如果以每个像素为中心生成五个形状不同的锚框,就需要在图像上标记和预测超过200万个锚框(561×728×5)。减少图像上的锚框数量并不困难,比如可以在输入图像中均匀采样一小部分像素,并以它们为中心生成锚框
cv_lhp
·
2022-12-24 14:15
李沐动手学深度学习笔记
深度学习
目标检测
计算机视觉
pytorch
python
BERT微调finetune笔记
zhihu.com)详解Transformer(AttentionIsAllYouNeed)-知乎(zhihu.com)从Transformer到Bert-知乎(zhihu.com)14.10.预训练BERT—
动手学深度学习
Kakaluotuo
·
2022-12-24 14:50
深度学习
机器学习
pytorch
自然语言处理
机器学习初探
是个集成开发软件,写Python的NumPy(NumericalPython)是Python的一种开源的数值计算扩展Pandas是Python语言的一个扩展程序库,用于数据分析不得不说,这本书还对新手挺好的–>《
动手学深度学习
复杂的哈皮狗
·
2022-12-23 22:23
机器学习
机器学习
动手学深度学习
(三十五)——文本预处理(NLP)
文章目录文本预处理(Pre-processing)1.读取数据集2.标记化3.词汇4.整合上述功能总结文本预处理(Pre-processing)NLP中自然语言处理离不开对文本数据的预处理操作以方便后期神经网络的训练。通常文本预处理包含有:原始数据加载(rawdata)分词(segmentation)数据清洗(Cleaning)数据标准化(Normalization):Stemming/Lemma
留小星
·
2022-12-23 07:11
动手学深度学习:pytorch
自然语言处理
深度学习
文本预处理
李沐
动手学深度学习
V2-NLP文本预处理和代码实现
一.文本预处理1.文本预处理对于序列数据处理问题,上篇文章:李沐
动手学深度学习
V2-序列模型和代码实现评估了所需的统计工具和预测时面临的挑战,这样的数据存在许多种形式,文本是最常见例子之一。
cv_lhp
·
2022-12-23 07:40
李沐动手学深度学习笔记
深度学习
pytorch
nlp
自然语言处理
python
Pytorch 文本预处理
Pytorch文本预处理0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按Shift+Tab查看函数详解。
哇咔咔负负得正
·
2022-12-22 19:33
#
NLP
pytorch
深度学习
python
李沐
动手学深度学习
V2-自然语言推断与数据集SNLI和代码实现
一.斯坦福自然语言推断(SNLI)数据集1.介绍自然语言推断(naturallanguageinference)主要研究假设(hypothesis)是否可以从前提(premise)中推断出来,其中两者都是文本序列。换言之,自然语言推断决定了一对文本序列之间的逻辑关系。这类关系通常分为三种类型:蕴涵(entailment):假设可以从前提中推断出来。矛盾(contradiction):假设的否定可以
cv_lhp
·
2022-12-22 16:27
李沐动手学深度学习笔记
深度学习
bert
bert微调
SNLI
自然语言处理
李沐
动手学深度学习
V2-LeNet模型和代码实现
1.LeNetLeNet是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。这个模型是由AT&T贝尔实验室的研究员YannLeCun在1989年提出的(并以其命名),目的是识别图像中的手写数字。1.1LeNet架构:总体来看,LeNet由两个部分组成:卷积块(有两个卷积层组成)和全连接块(由三个全连接层组成),架构如下图所示。**每个卷积块中的基本单元是一个卷积层、一个s
cv_lhp
·
2022-12-22 14:49
李沐动手学深度学习笔记
深度学习
机器学习
神经网络
pytorch
计算机视觉
李沐
动手学深度学习
代码标注----4.4模型的选择
自己在学习的时候标注的,分享出来让大家学习时能够快速理解代码的意思,如有标注不足之处,敬请指正!importmathimportmatplotlib.pyplotaspltimportnumpyasnpimporttorchfromtorchimportnnfromd2limporttorchasd2l'--------------------------------制作人工数据(按照公示)---
漂泊的小森
·
2022-12-22 14:48
李沐动手学深度学习
深度学习
python
机器学习
GPU计算
《
动手学深度学习
pytorch》部分学习笔记,仅用作自己复习。GPU计算对复杂的神经⽹络和⼤规模的数据来说,使⽤CPU来计算可能不够⾼效。在本节中,我们将介绍如何使⽤单块NVIDIAGPU来计算。
Clark-dj
·
2022-12-22 08:54
#
动手深度学习
PyTorch基本操作练习
实现了一些PyTorch基本操作,原理可参考《神经网络与深度学习》《
动手学深度学习
》中的内容。个人练习,切勿与任何作业和考试挂钩。代码运行在Python3.9.7版本以及Pytorch1.10版本中。
JMDou
·
2022-12-21 13:16
深度学习练习题
pytorch
python
人工智能
深度学习
动手学深度学习
Task05
Task051.卷积神经网络基础用一个边缘检测的例子来说明卷积过程:给定的filter在输入图像上进行平移,每移动到一个位置上就把filter和input重合位置上的两个像素值相乘,再把该位置上所有的乘积加和,得到一个新的数值,作为输出output对应位置的一个像素,由此也可以得到维度计算公式如下:(nh,kh)×(nw,kw)=(nh-kh+1,nw-kw+1)二维卷积层二维互相关(cross-
l852131652
·
2022-12-21 01:07
神经网络
卷积
深度学习
卷积神经网络
动手学深度学习
pytorch版-填坑-TypeError: normal() received an invalid combination of arguments
在8章的序列模型这里:%matplotlibinlineimporttorchfromtorchimportnnfromd2limporttorchasd2lT=1000#总共产⽣1000个点time=torch.arange(1,T+1,dtype=torch.float32)x=torch.sin(0.01*time)+torch.normal(0,0.2,(T,))d2l.plot(time
不爱写程序的程序猿
·
2022-12-20 15:46
python
深度学习
人工智能
conv2d() received an invalid combination of arguments问题解决
在学习
动手学深度学习
风格迁移这一部分的时候,程序运行的时候抱错:conv2d()receivedaninvalidcombinationofarguments具体来说,先使用函数SynthesizedImage
iwill323
·
2022-12-20 15:39
代码报错
python
深度学习
人工智能
Pytorch 批量归一化(Batch Normalization)
Pytorch批量归一化(BatchNormalization)0.环境介绍环境使用Kaggle里免费建立的Notebook教程使用李沐老师的
动手学深度学习
网站和视频讲解小技巧:当遇到函数看不懂的时候可以按
哇咔咔负负得正
·
2022-12-20 09:16
#
CV
pytorch
33李沐
动手学深度学习
v2/批量归一化 mini-batch normalization
uB=1B∑i∈Bxiu_B=\frac{1}{B}\sum\limits_{i\inB}x_iuB=B1i∈B∑xiσB2=1∣B∣∑i∈B(xi−uB)2+ϵ\sigma^2_B=\frac{1}{|B|}\sum\limits_{i\inB}(x_i-u_B)^2+\epsilonσB2=∣B∣1i∈B∑(xi−uB)2+ϵ,ϵ\epsilonϵ是1个很小的数,防止方差为0xi+1=γxi−
xcrj
·
2022-12-20 09:42
深度学习
深度学习
batch
机器学习
动手学深度学习
Task03
Task031.过拟合欠拟合及其解决方案训练误差(trainingerror):模型在训练数据集上表现出的误差。泛化误差(generalizationerror):模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。机器学习模型应关注降低泛化误差。通常需要预留一部分在训练数据集和测试数据集以外的数据来进行模型选择,这部分数据被称为验证数据集,简称验证集(valida
l852131652
·
2022-12-20 09:24
神经网络
python
机器学习
深度学习
关于运行torch.matmul(x,w)函数报错的问题 RuntimeError: expected scalar type Float but found Long
在李沐大佬**08线性回归+基础优化算法【
动手学深度学习
v2】**一课中,代码实现环节defsynthetic_data(w,b,num_examples):#生成y=Xw+b+噪声X=torch.normal
吾心即宇宙
·
2022-12-19 11:10
深度学习
pytorch
深度学习
python
MXNet创始人李沐等推出开源中文书《
动手学深度学习
》预览版
AI前线导读:近日,由MXNet创始人李沐大神、AstonZhang等人所著的交互式深度学习书籍《
动手学深度学习
》推出了在线预览版,面向在校学生、工程师和研究人员,旨在帮助读者从入门到深入、动手学习深度学习
weixin_34289744
·
2022-12-19 00:06
人工智能
开发工具
前端
ViewUI
资源 | 李沐等人开源中文书《
动手学深度学习
》预览版上线
近日,由AstonZhang、李沐等人所著图书《
动手学深度学习
》放出了在线预览版,以供读者自由阅读。这是一本面向在校学生、工程师和研究人员的交互式深度学习书籍。
IT派
·
2022-12-19 00:59
动手学深度学习
pytorch版-填坑-AttributeError: ‘Tensor‘ object has no attribute ‘T‘
在8.5节的循环神经⽹络的从零开始实现中这个地方封装进行one_hot编码时候会报错-‘Tensor’objecthasnoattribute‘T’应该是笔误或者版本迭代的问题,实际上pytorch并不支持直接用.T进行张量的转置,常用的方法有tensor.t()ortensor.transpose(dim1,dim2)更改后的整个RNN的从零实现的完整代码:importmathimporttor
不爱写程序的程序猿
·
2022-12-18 15:45
深度学习
python
循环神经网络
神经网络
debug
延迟初始化——【torch学习笔记】
延迟初始化引用翻译:《
动手学深度学习
》Pytorch(或任何其他框架)没有办法预测网络的输入维度。
一个语文不好的NLPer
·
2022-12-18 13:47
深度学习——torch学习笔记
torch
神经网络
深度学习
参数
【
动手学深度学习
】从resnet中学到的深度学习
1.学习模型的理解对于一类神经网络模型(更多指完备的模型,而非cnn、rnn等类型,如resnet、vgg等),他可以拟合一定范围之内的函数,所有函数构成集合F。其中任意f是我们通过训练得到的,f*是我们所期望得到的函数,但是f*可能在模型函数集合F之中,也可能在F之外。训练是求解以下优化问题:X、Y为训练集中的输入输出,argmin表示返回Loss()函数最小的参数值2.如何保证模型加深能够使结
Maple_66
·
2022-12-18 11:40
深度学习
人工智能
《
动手学深度学习
》(PyTorch版)环境配置 避坑 关于anaconda的环境安装、pytorch的安装,以及如何在pycharm中使用配置好的安装有pytorch的anaconda环境
目录2.1.1Anaconda2.1.3PyTorch第一个坑:怎么选择版本第二个坑:安装在哪里???第三个坑:在pycharm中怎么用第四个坑:安装的太慢最终的测试2.1.1AnacondaAnaconda指的是一个开源的Python发行版本,是一个安装、管理python相关包的软件,自带了python、JupyterNotebook、Spyder、conda等工具,非常有用。Anaconda中
Te_Fuir6
·
2022-12-18 02:15
深度学习
pytorch
python
李沐
动手学深度学习
pytorch 在pycharm中无法显示动图
学习李沐
动手学深度学习
过程中,发现无法显示动图,仅仅在输出栏显示以下内容:解决方案:1.“Ctrl+鼠标左键”点击打开训练函数。
穷到学习
·
2022-12-17 09:51
pycharm
python
ide
pytorch
【笔记】
动手学深度学习
- softmax回归(逻辑回归)
目录图片分类数据集1导入包2使用框架自带的函数去下载这个数据集3定义两个函数来画这个数据集4读取一个小批量数据5softmax回归简洁实现1导入包2构造模型3交叉熵函数计算loss损失4使用学习率为0.1作为优化函数5跑10次softmax回归从零开始实现1我们使用上面中引入的Fashion-MNIST数据集,并设置数据迭代器的批量大小为256。2将一个二维图片的矩阵拉成一个一维的向量3定义回归函
echo_gou
·
2022-12-17 09:12
#
动手学深度学习
上一页
14
15
16
17
18
19
20
21
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他