E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达深度学习课程
【深度学习】
吴恩达
深度学习-Course2改善深层神经网络:超参数调试、正则化以及优化-第三周超参数调试、Batch正则化和程序框架编程
(本篇文章使用TF2.0进行编程)视频链接:【中英字幕】
吴恩达
深度学习课程
第二课—改善深层神经网络:超参数调试、正则化以及优化参考链接:【中文】【
吴恩达
课后编程作业】Course2-改善深层神经网络-第三周作业
passer__jw767
·
2022-08-24 15:14
深度学习
深度学习
神经网络
batch
[个人笔记]
吴恩达
深度学习lesson5 week2自然语言处理与词嵌入(Natural Language Processing and Word Embeddings)
推荐学习顺序:(可选)最好掌握线性代数、微积分、概率论的一些基本知识学习
吴恩达
机器学习课程学习
吴恩达
深度学习的前4课(也可以选择性学习部分内容)即第五课第一周然后可以学习本课,即
吴恩达
深度学习第五课的第二周内容本课程视频本课程文字版目录
YuQiao0303
·
2022-08-24 15:14
AI
个人笔记
吴恩达
深度学习
人工智能
nlp
【深度学习】
吴恩达
深度学习-Course1神经网络与深度学习-第四周深度神经网络的关键概念编程(下)——深度神经网络用于图像分类:应用
在阅读这篇文章之前,请您先阅读:【深度学习】
吴恩达
深度学习-Course1神经网络与深度学习-第四周深度神经网络的关键概念编程(上)——一步步建立深度神经网络,这篇文章是本篇文章的前篇,没有前篇的基础,
passer__jw767
·
2022-08-24 15:13
深度学习
深度学习
神经网络
pycharm
python
【深度学习
吴恩达
】神经网络和深度学习--第三周课后测验及编程作业
测验题4.Youarebuildingabinaryclassifierforrecognizingcucumbers(y=1)vs.watermelons(y=0).Whichoneoftheseactivationfunctionswouldyourecommendusingfortheoutputlayer?(您正在构建一个识别黄瓜(y=1)与西瓜(y=0)的二元分类器。你会推荐哪一种激活函
早知晓
·
2022-08-24 15:43
深度学习
神经网络
机器学习
【机器学习小记】【风格迁移】deeplearning.ai course4 4th week programming(tensorflow2)
【中英】【
吴恩达
课后编程作业】Course4-卷积神
LittleSeedling
·
2022-08-24 15:41
深度学习
tensorflow
深度学习
【
吴恩达
机器学习-笔记整理】设计复杂的机器学习系统(执行的优先级,误差分析,不对称性误差评估,精确度和召回率)
目录:前言一、执行的优先级二、误差分析的思想1、先实现一个简单粗暴的方法,然后手动去寻找优化点2、通过数值,评估算法的效果三、不对称性分类的误差评估四、精确度和召回率的权衡五、机器学习数据❤️❤️❤️忙碌的敲代码也不要忘了浪漫鸭!前言✨你好啊,我是“怪&”,是一名在校大学生哦。主页链接:怪&的个人博客主页☀️博文主更方向为:课程学习知识、作业题解、期末备考。随着专业的深入会越来越广哦…一起期待。❤
怪&
·
2022-08-24 07:07
机器学习
机器学习
人工智能
python
【人工智能】人工智能是什么?如何入门人工智能?我们为什么要学人工智能?
机器学习--深入1.
吴恩达
老师的经典入门视频。2.麻省理工学院MIT6.036:机器学习入门课程3.B站的up主:shuhuai008。4.B站up主:
红颜如霜凝结了过往
·
2022-08-23 07:02
人工智能
机器学习
深度学习
大数据
制造
动手学无人驾驶(2):车辆检测
本文介绍如何使用深度学习进行车辆检测,使用到的模型是YOLO模型,关于YOLO模型的具体检测原理,可以参考
吴恩达
老师的
深度学习课程
视频。
自动驾驶小学生
·
2022-08-22 10:55
动手学无人驾驶
深度学习
计算机视觉
目标检测
【无标题】
现在好多人都在提深度学习,
深度学习课程
前景好吗?怎么样啊?
深度学习课程
前景好,深度学习的市场机会跨越了广泛的行业和地理区域,尤其是在具有海量数据需求和实体的特定领域市场。
小浣熊的技术
·
2022-08-21 20:09
深度学习
人工智能
机器学习
神经网络
吴恩达
机器学习作业一:利用多元线性回归模型实现房价预测(python实现)
吴恩达
机器学习作业一:利用多元线性回归模型实现房价预测(python实现)该文是针对
吴恩达
机器学习作业任务二和任务三中,利用多元线性回归模型实现房价预测以及使用正规方程求得最佳theta的取值,使代价值最小
墨玲珑
·
2022-08-20 12:12
机器学习
python
机器学习
线性回归
梯度下降
正规方程
线性回归学习心得
线性回归学习心得本文是自己以周志华老师的西瓜书为主要学习媒介,以
吴恩达
老师的机器学习视频为补充的线性回归学习心得。线性回归是机器学习的入门,虽比较基础但极为重要。
浪子私房菜
·
2022-08-20 07:26
机器学习
机器学习
逻辑回归
人工智能
线性代数
吴恩达
深度学习 2.2 logistic回归
笔记引言logistic回归是机器学习中的一种分类模型,用在监督学习中输出y标签是0或1的时候。属于一种在线学习(动态扩展)算法,可以利用新的数据各个特征的权重进行更新,而不需要重新利用历史数据训练。logistic回归本质上通过在线性回归模型中引入Sigmoid函数,将线性回归的不确定范围的连续输出值映射到(0,1)范围内,成为一个概率预测问题。线性回归概念:对于多维空间中存在的样本点,用特征的
CoreJia
·
2022-08-19 07:48
深度学习
笔记
吴恩达
逻辑回归
深度学习基础----
吴恩达
课后编程练习(一)识别猫
计算当前的损失(正向传播)3.2计算当前的梯度(反向传播)3.3迭代更新参数(梯度下降)4.数据预测与封装4.1数据预测4.2数据封装5.实验结果测试5.1实验结果5.2学习率的选择5.3测试总结前言前两周学习了
吴恩达
的机器学习课程的前两章部分
wyjxlj666
·
2022-08-19 07:43
深度学习
机器学习
逻辑回归
【深度学习】
吴恩达
深度学习-Course2改善深层神经网络:超参数调试、正则化以及优化-第一周深度学习的实用层面编程(下)——梯度检验
视频链接:【中英字幕】
吴恩达
深度学习课程
第二课—改善深层神经网络:超参数调试、正则化以及优化参考链接:GradientChecking【中文】【
吴恩达
课后编程作业】Course2-改善深层神经网络-第一周作业
·
2022-08-19 07:11
深度学习
深度学习
神经网络
人工智能
吴恩达
深度学习笔记-布置机器学习项目(第4课)
布置机器学习项目一、训练集/验证集/测试集二、偏差与方差三、机器学习基础四、正则化五、为什么正则化可以减少过拟合?六、Dropout正则化七、理解Dropout八、其他正则化方法九、归一化输入十、梯度消失与梯度爆炸十一、神经网络的权重初始化十二、梯度的数值逼近十三、梯度检验十四、关于梯度检验实现的注意事项一、训练集/验证集/测试集划分数据为训练集、验证集和测试集可以减少确定超参数的迭代过程。在有1
郭少的研究生笔记
·
2022-08-19 07:04
吴恩达深度学习
机器学习
深度学习
人工智能
假期学习回顾与总结
学习内容专业理论学习:学习资料介绍:假期学习整体分为
吴恩达
深度学习课程
和《动手学深度学习PYTORCH版》,前者偏重理论,感觉适合入门,网易云课堂视频(https://mooc.study.163.com
Clark-dj
·
2022-08-17 07:59
吴恩达
深度学习笔记 4.1~4.8 深层神经网络
之前一章讲了浅层神经网络,这一章讲的是深层神经网络深层神经网络与浅层神经网络的区别是:隐藏层比浅层神经网络多,从命名规则上来说,有1,2,5个隐藏层的神经网络可以称为1hiddenlayer,2hiddenlayers,5hiddenlayers深层神经网络中的正向传播与之前举例的浅层神经网络一样,只是层数变得更多了,如下所示:对于每一层的正向传播我们可以用一个公式表示:其中L表示层数,g表示激活
banghu8816
·
2022-08-16 07:07
人工智能
吴恩达
机器学习课后作业1——单变量线性回归(Linear regression with one variable)
1.问题和数据假设你是一家连锁餐车店的老板,但是你又和别的土老板不一样,你又刚好是个懂线性回归,还懂编程的老板,正在考虑在不同的城市开一家新店。该连锁店已经在各个城市开设了餐车,你可以获得这些城市的利润和人口数据。在本部分的练习中,您将透过这些数据,通过单变量实现线性回归,以预测餐车的利润。数据ex1data1.txt内容为一个97行两列(97,2)的数据;其中第一列表示人口数据,第二列表示利润。
学吧 学无止境
·
2022-08-14 20:23
机器学习
线性回归
聚类
数据分析
python
吴恩达
机器学习课后作业——多元分类
数据集下载位置(包含
吴恩达
机器学课后作业全部数据集):data二、作业分析1、数据以.mat格式储存,mat格式是matlab的数据存储格式,按照
荭凯
·
2022-08-14 20:53
机器学习
分类
python
吴恩达
机器学习课后作业——支持向量机
1.写在前面
吴恩达
机器学习的课后作业及数据可以在coursera平台上进行下载,只要注册一下就可以添加课程了。所以这里就不写题目和数据了,有需要的小伙伴自行去下载就可以了。
XHHP
·
2022-08-14 20:53
吴恩达机器学习笔记
吴恩达
机器学习
python
svm
支持向量机
吴恩达
机器学习课后作业——KMeans和PCA
1.写在前面
吴恩达
机器学习的课后作业及数据可以在coursera平台上进行下载,只要注册一下就可以添加课程了。所以这里就不写题目和数据了,有需要的小伙伴自行去下载就可以了。
XHHP
·
2022-08-14 20:53
吴恩达机器学习笔记
吴恩达
pca降维
kmeans算法
聚类
python
吴恩达
机器学习课后作业
目录01-linearregression线性回归预备知识单变量线性回归(一个特征值)单变量线性回归(多个特征值)单变量线性回归(正规方程)01-linearregression线性回归预备知识假设函数与损失函数:梯度下降函数为了方便运算,我们需要将各个函数计算转为矩阵计算(一)假设函数向量化(二)损失函数向量化(三)梯度下降函数向量化综上单变量线性回归(一个特征值)入口利润#开发人员:肖本杰#阶
Knock man
·
2022-08-14 20:49
人工智能
机器学习
python
人工智能
机器学习 2014斯坦福大学课程: 2 逻辑回归
机器学习2014斯坦福大学课程:2逻辑回归刚开始学习机器学习,学习的视频教程是coursera网站上
吴恩达
(AndrewNg)教授的机器学习课程。在此梳理并记录总结笔记,供学习交流,欢迎批评指正!
hyfariel
·
2022-08-14 19:45
机器学习
机器学习
2014斯坦福课程
逻辑回归
python
经典网络解析.AlexNet,ZFNet,VGG,GoogLeNet,Resnet
我根据北邮鲁鹏老师的计算机视觉与
深度学习课程
,做了一些课后总结.不叹,鲁鹏老师的课程很棒!
库辛派
·
2022-08-13 21:54
卷积神经网络
alexnet模型
google
网络
吴恩达
深度学习之一《神经网络和深度学习》学习笔记
一、深度学习概论1.2什么是神经网络如上图所示的房价预测,我们可以把它的线性回归看作一个神经元构成的神经网络。神经元就是那个圈,是一个用于映射计算的函数。图中使用的是十分常见的ReLU函数,全称为修正线性单元(又称线性整流函数),就是一个非负的线性回归,让预测本应=2个线性激活函数,就已经是多余了,显然一层中最多1个线性激活函数,而且一层中只有1个线性激活函数也是多余的,这层可以删掉,因此一层中至
Umikaze_
·
2022-08-13 09:43
深度学习
神经网络
机器学习
吴恩达
深度学习笔记- lesson4 卷积神经网络
文章目录Week1卷积神经网络基础4.1.1计算机视觉(Computervision)4.1.2边缘检测示例(Edgedetectionexample)4.1.3更多边缘检测内容(Moreedgedetection)4.1.4Padding3.1.5卷积步长(Stridedconvolutions)4.1.6三维卷积(Convolutionsovervolumes)4.1.7单层卷积网络(Onel
廖梓强
·
2022-08-13 09:12
深度学习
人工智能
机器学习
python
吴恩达
深度学习学习笔记——C1W2——神经网络基础——作业2——用神经网络的思路实现Logistic回归
可以明确的说,如果不自己一步步调试作业代码,很难看懂作业内容。这里主要梳理一下作业的主要内容和思路,完整作业文件可参考:http://localhost:8888/tree/Andrew-Ng-Deep-Learning-notes/assignments/C1W2作业完整截图,参考本文结尾:作业完整截图。作业目录:作业指导及目标LogisticRegressionwithaNeuralNetwo
预见未来to50
·
2022-08-13 09:12
机器学习
深度学习(ML/DL)
吴恩达
深度学习学习笔记——C1W2——神经网络基础——练习题
因为文字版排版未优化,带有上下标的公式阅读性较差,先贴出截图。文字版本在截图之后。截图版:Note:Theoutputofaneuronisa=g(Wx+b)wheregistheactivationfunction(sigmoid,tanh,ReLU,...).Note:"*"operatorindicateselement-wisemultiplication.Element-wisemult
预见未来to50
·
2022-08-13 09:42
机器学习
深度学习(ML/DL)
吴恩达
深度学习课程
笔记——逻辑回归算法
逻辑回归二分类问题(BinaryClassification)假设函数(HypothesisFunction)损失函数和代价函数(LossFunctionandCostFunction)神经网络的计算中通常会有前向传播和反向传播的步骤,这门课从逻辑回归算法(logisticregression)来讲解这些概念。二分类问题(BinaryClassification)逻辑回归是一个用于二分类(bina
阿姝姝姝姝姝
·
2022-08-13 09:42
#
week2神经网络编程基础
神经网络
深度学习
python
吴恩达
深度学习学习笔记——C1W2——神经网络基础-2
1.计算图2.导数的计算(反向传播、链式法则)3.Logistic回归回顾4.Logistic回归的导数求解5.m个样本时的Logistic回归
预见未来to50
·
2022-08-13 09:41
机器学习
深度学习(ML/DL)
吴恩达
深度学习学习笔记——C1W2——神经网络基础-1
1.二分分类2.符号约定(标记方法)3.Logistic回归(对数几率回归)4.Logistic回归的损失函数和成本函数5.梯度下降法6.导数的直观理解(基础数学知识)
预见未来to50
·
2022-08-13 09:41
机器学习
深度学习(ML/DL)
吴恩达
深度学习学习笔记——C1W2——神经网络基础-3
1.向量化(向量化可以提高计算速度)2.神经网络编程准则之一——尽可能避免使用显式循环,以提高计算性能3.向量函数和矩阵函数4.Logisitc回归的梯度5.Logisitc回归的向量化表示6.Logistic的Python代码实现(矢量化表示,相比左边的for循环表示,要简洁很多)7.Python中的广播机制8.Logistic回归成本函数详解
预见未来to50
·
2022-08-13 09:41
机器学习
深度学习(ML/DL)
吴恩达
【优化深度神经网络】笔记01——深度学习的实用层面
文章目录引言一、训练集/验证集/测试集(Train/Dev/Testsets)1.数据集选择2.补充:交叉验证(crossvalidation)二、偏差和方差(Bias/Variance)1.“偏差-方差分解”(bias-variancedecomposition)2.输入特征是高维的情况3.应对方法三、正则化(regularization)1.L2regularization2.L1regula
美式咖啡不加糖x
·
2022-08-13 09:11
DeepLearning
神经网络
深度学习
人工智能
吴恩达
深度学习笔记01——神经网络和深度学习2浅层神经网络
PS:梯度下降法(GradientDescent)是神经网络的核心方法,用于更新神经元之间的权重,以及每一层的偏置;反向传播算法(Back-PropagationAlgorithm)则是一种快速计算梯度的算法,将梯度反向传播回去,从而能够使得梯度下降法得到有效的应用。一、神经网络表示竖向堆叠起来的输入特征被称作神经网络的输入层(theinputlayer)。神经网络的隐藏层(ahiddenlaye
阿尔基亚
·
2022-08-13 09:11
吴恩达深度学习
吴恩达
深度学习笔记01——神经网络和深度学习1
实现一个神经网络时,如果需要遍历整个训练集,并不需要直接使用for循环。神经网络的计算过程中,通常有一个正向过程(forwardpass)或者叫正向传播步骤(forwardpropagationstep),接着会有一个反向过程(backwardpass)或者叫反向传播步骤(backwardpropagationstep)。一、Logistic回归Logistic回归是一个用于二分分类的算法。(二分
阿尔基亚
·
2022-08-13 09:11
吴恩达深度学习
吴恩达
深度学习笔记-单层神经网络(第2课)
深度学习笔记1、神经网络概览2、神经网络表示3、计算神经网络的输出4、多个样本的向量化5、向量化实现的解释6、激活函数7、为什么需要非线性激活函数?8、激活函数的导数9、神经网络的梯度下降法10、直观理解反向传播11、随机初始化1、神经网络概览z[i]表示第i层的输入,a[i]表示第i层的输出2、神经网络表示单层神经网络:【一般不把输入层看作一个标准层】隐藏层的含义是在训练集中,这些中间节点的真正
郭少的研究生笔记
·
2022-08-13 09:40
吴恩达深度学习
深度学习
神经网络
机器学习
吴恩达
机器学习笔记9——神经网络学习
第9章神经网络学习1,非线性假设对于非线性假设,特征数目特别多时,采用logisitic进行分类,容易过拟合,而且计算成本过高。所以要采用神经网络。2,神经元和大脑3,模型展示Ibiasunit偏置单元weightsparameters二者同义词4,模型展示II前向传播模型,向量化。后部分其实就是Logistic回归。输入层也可以是非线性特征。其他的前向传播架构5,例子与直觉理解神经网络中的某个神
Margo_Zhang
·
2022-08-13 09:40
吴恩达机器学习
神经网络
吴恩达
【深度学习】笔记02——浅层神经网络(Shallow neural networks)
文章目录一、神经网络表示二、计算神经网络的输出三、激活函数(Activationfunctions)1.sigmoid函数2.tanh函数3.ReLu函数(修正线性单元)4.LeakyReLu函数5.激活函数总结6.Whyneedanonlinearactivationfunction?四、神经网络的梯度下降法1.正向传播2.反向传播五、随机初始化一、神经网络表示竖向堆叠起来的输入特征被称作神经网
美式咖啡不加糖x
·
2022-08-13 09:40
DeepLearning
神经网络
深度学习
吴恩达
深度学习笔记——卷积神经网络基础(1)
参考
吴恩达
深度学习视频和CSDN笔记https://blog.csdn.net/red_stone1/article/details/78651063P108ComputerVisionCV主要包括以下几类
Deserant
·
2022-08-13 09:40
吴恩达深度学习
吴恩达
深度学习笔记(一)——神经网络基础、 logistic 回归
观看了
吴恩达
老师的深度学习公开课,总结了部分个人觉得有益的知识点。参考链接一、数据结构当编写神经网络程序时,就不要用这种秩为1的数据结构,如shape等于(n,),或者是一维数组时。
子非鱼icon
·
2022-08-13 09:10
深度学习自学笔记
深度学习
神经网络
吴恩达
逻辑回归分类器
deep
learning
吴恩达
deeplearning.ai系列课程笔记+编程作业(10)第四课 卷积神经网络-第一周 卷积神经网络(Foundations of Convolutional Neural Networks)
第四门课卷积神经网络(ConvolutionalNeuralNetworks)第一周卷积神经网络(FoundationsofConvolutionalNeuralNetworks)文章目录第四门课卷积神经网络(ConvolutionalNeuralNetworks)第一周卷积神经网络(FoundationsofConvolutionalNeuralNetworks)1.1计算机视觉(Compute
geekxiaoz
·
2022-08-13 07:11
卷积神经网络
边缘检测
池化
conv1
深度学习
2020-7-24
吴恩达
DL学习-C4 卷积神经网络-第一周 CNN(1.1 计算机视觉)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.1计算机视觉Computervision计算机
没人不认识我
·
2022-08-13 07:06
深度学习
python
IT
深度学习
Deeping Learning学习与感悟——《深度学习工程师》_4
前言在如今人工智能大热的时代,博主在前年暑假自学了网易云课堂上
吴恩达
教授讲授的《深度学习工程师》微专业课程,如今将具体的学习内容与课堂笔记记录下来,供小伙伴们一起学习交流,ヽ(✿゚▽゚)ノ~四、04.卷积神经网络
Mr. 鹏
·
2022-08-13 07:56
学习感悟
深度学习
deep
learning
卷积神经网络
卷积
深度学习笔记 第四门课 卷积神经网络 第一周 卷积神经网络基础
本文是
吴恩达
老师的
深度学习课程
[1]笔记部分。
风度78
·
2022-08-13 07:47
吴恩达
机器学习课后作业——SVM支持向量机
数据集下载位置(包含
吴恩达
机器学课后作业全部数据集):data二、作业分析1、支持向量机(SVM)(鲁棒性,大间距分类器)支持向量机(supportv
荭凯
·
2022-08-12 07:52
支持向量机
机器学习
算法
【Andrew Ng机器学习】单变量线性回归-代价函数
课程:
吴恩达
机器学习代价函数弄清楚如何把最有可能的直线与我们的数据相拟合模型参数我们把0和1称为模型参数而我们要做的就是选择这两个参数值0和1不同的模型参数对应不同的h代价函数的引出在线性回归中,我们有一个训练集如下图
jenye_
·
2022-08-10 11:50
计算机视觉,卷积神经网络,经典及变革案例分析
截图来源为
吴恩达
老师在Coursera课程ConvolutionalNeuralNetworks第二节的slides经典网络:LeNet-5是最早的经典卷积神经网络,具体见论文[LeCunetal.,1998
祖国翔
·
2022-08-10 07:55
机器学习
深度学习
神经网络
卷积
计算机视觉
人工智能
手推机器学习
吴恩达
神经网络BP反向传播公式推导(中篇)
前言BP反向传播算法听起来一头雾水,看起来相当复杂,但是他其实没有特别的复杂,关键在于三个公式的推导和理解。本文同样给出了详尽的推导过程,若存在错误,敬请批评指正。神经网络示意图不妨增加一下求导细节(黄色部分)反向求导路线图公式1公式2公式3结语这3个公式为神经网络反向传播的关键所在,下篇为反向传播算法的应用篇,欢迎各位交流指正!!!
野人 也有爱
·
2022-08-09 07:59
机器学习
神经网络
算法
吴恩达
机器学习符号定义下的反向传播算法BP推导
自学笔记,公式简单手写的思想:“正向传播”求损失,“反向传播”回传误差。步骤:首先,它执行图的前向阶段,从输入到输出,去计算节点值,然后是反向阶段,从输出到输入去计算所有的偏导,然后梯度下降修正每层的权重。1.求偏导需要链式法则http://colah.github.io/posts/2015-08-Backprop/2.BP计算具体举例:一文弄懂神经网络中的反向传播法——BackPropagat
wukurua
·
2022-08-09 07:48
机器学习
算法
人工智能
手推机器学习
吴恩达
神经网络BP反向传播 示例推导(下篇)
前言下面给出两种神经网络的公式推导,即无激活函数和含激活函数(如Sigmoid函数),本文参考了该博文并进行了相关的推导。若存在问题,敬请批评指正。无激活函数神经网络含激活函数的神经网络结语BP反向传播就分享到这里了(目前我也啥都不懂hhh),希望后于在DL学习中有更多交流。
野人 也有爱
·
2022-08-09 07:04
机器学习
神经网络
深度学习
上一页
41
42
43
44
45
46
47
48
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他