E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Guava学习入门
人生效率手册金句摘抄
每次都是被短暂
学习入门
的快感打动。等到深入学习的时候,开始爬坡了,就只是拿打卡当做一项机械任务了。今天,被一位来求职的年轻人问自己的目标和职业规划。
小多媛媛
·
2024-02-14 15:05
第一章 matlab
学习入门
之matlab基础
matlab系列文章目录第一章matlab
学习入门
之matlab基础在这一章会学习到:数据类型(数值,字符串,结构,单元数组,函数句柄,映射容器)运算符与运算(算术运算符,关系运算符,逻辑运算符)字符串处理
CN-JackZhang
·
2024-02-14 15:49
matplotlib
matlab
学习
开发语言
图像分割——基于pytorch的牙齿分割
作为视觉基础任务的图像分割是大多数深度
学习入门
者的进一步学习,本文将用牙齿分割作为数据集,分享一下图像分割的训练内容。
苏俗
·
2024-02-14 04:35
计算机视觉实战
pytorch
人工智能
python
图像分类——基于pytorch的农作物病虫害检测
作为视觉基础任务的图像分类是大多数深度
学习入门
者的基础,本文将用包含33类的农作物病虫害数据集作为数据集,来过一遍图像分类任务的基本步骤。
苏俗
·
2024-02-14 04:05
计算机视觉实战
分类
pytorch
数据挖掘
机器
学习入门
--多层感知机原理与实践
神经网络与多层感知机神经网络是一种模仿生物神经系统结构和功能的计算模型。它由许多个节点(或称为神经元)组成,这些节点通过连接权重相互连接。神经网络的输入经过一系列的加权求和和激活函数变换后,得到输出结果。神经网络的训练过程主要包括前向传播和反向传播两个阶段。前向传播是指数据从输入层逐层传递到输出层的过程,每一层的节点都会根据输入值和连接权重计算输出值。反向传播是指通过计算损失函数对网络参数进行梯度
Dr.Cup
·
2024-02-13 13:37
机器学习入门
机器学习
人工智能
机器
学习入门
--BP神经网络原理与实践
BP神经网络引言BP神经网络,即反向传播神经网络,是一种监督学习算法,用于多层前馈神经网络的训练。自从1986年由Rumelhart,Hinton和Williams提出以来,它已成为最流行的神经网络训练算法之一。BP算法的核心思想是通过计算损失函数相对于网络参数的梯度,然后利用这些梯度信息来更新网络的权重和偏置,从而最小化误差。数学原理BP算法的数学原理基于链式法则计算梯度。考虑一个简单的两层神经
Dr.Cup
·
2024-02-13 13:37
机器学习入门
机器学习
神经网络
人工智能
机器
学习入门
--朴素贝叶斯原理与实践
朴素贝叶斯算法朴素贝叶斯是一种常用的分类算法,其基本思想是根据已有数据的特征和标签,学习出一个概率模型,并利用该模型对新样本进行分类。其优点在于简单快速、易于实现和解释,缺点在于对输入数据的分布做了严格的假设。具体来说,朴素贝叶斯分类器首先根据训练数据计算出每个类别的先验概率P©,即样本中每个类别占比。然后,对于给定的待分类样本,计算出它属于每个类别的条件概率P(X|C),其中X表示样本的特征向量
Dr.Cup
·
2024-02-13 13:07
机器学习入门
机器学习
概率论
人工智能
机器
学习入门
--奇异值分解原理与实践
奇异值分解奇异值分解(SingularValueDecomposition,SVD)是一种矩阵分解技术,可以将一个矩阵分解为三个部分的乘积。在SVD中,原始矩阵被分解为左奇异向量矩阵、奇异值矩阵和右奇异向量矩阵的乘积。奇异值分解数学原理奇异值分解是一种矩阵分解技术,可以将一个矩阵分解为三个部分的乘积。在SVD中,原始矩阵被分解为左奇异向量矩阵、奇异值矩阵和右奇异向量矩阵的乘积。具体来说,对于一个m
Dr.Cup
·
2024-02-13 13:07
机器学习入门
机器学习
人工智能
机器
学习入门
--主成分分析原理与实践
主成分分析主成分分析(PrincipalComponentAnalysis,简称PCA)是一种常用的降维技术和数据分析方法。它通过线性变换将原始高维数据映射到低维空间,从而提取出数据中最重要的特征。主成分分析的基本原理与数学推导基本原理PCA的主要思想是找到一个新的坐标系,将数据投影到这个坐标系上,使得投影后的数据具有最大的方差。这意味着在新的坐标系下,数据的信息尽可能地集中在少数几个维度上,而其
Dr.Cup
·
2024-02-13 13:06
机器学习入门
机器学习
概率论
人工智能
机器
学习入门
--逻辑回归与简单二分类数据实战
逻辑回归在机器学习领域,逻辑回归是一个广泛应用于分类问题的算法。与线性回归不同,逻辑回归用于预测离散的类别标签,可以处理二分类和多分类问题。下面我们将介绍逻辑回归的基本原理和实现方式。原理逻辑回归的目标是找到一个函数g(z)g(z)g(z),将输入的特征向量xxx映射到概率值p(y=1∣x;w)p(y=1|x;w)p(y=1∣x;w),其中www是参数向量。我们可以使用sigmoid函数来实现这个
Dr.Cup
·
2024-02-13 13:36
机器学习入门
机器学习
逻辑回归
分类
机器
学习入门
--支持向量机原理与实践
支持向量机模型支持向量机(SupportVectorMachine,SVM)是一种常用的监督学习算法,主要用于分类和回归问题。它的原理简单而强大,在许多实际应用中取得了很好的效果。原理支持向量机(SupportVectorMachine,SVM)是一种常用的机器学习算法,用于分类和回归问题。其原理是基于统计学习理论中的结构风险最小化原则。SVM的主要思想是将数据通过一个高维特征空间进行映射,使得在
Dr.Cup
·
2024-02-13 13:36
机器学习入门
支持向量机
机器学习
算法
机器
学习入门
--简单卷积神经网络原理与实践
深入理解卷积神经网络(CNN)引言卷积神经网络(ConvolutionalNeuralNetworks,CNN)是深度学习中的一种核心算法,广泛应用于图像识别、视频分析和自然语言处理等领域。CNN通过模拟人类视觉系统的工作原理,能够自动并有效地识别图像中的模式和特征。数学原理CNN主要由卷积层、激活层和池化层组成。其核心在于卷积层,它使用一系列可学习的滤波器来扫描输入数据。卷积操作卷积神经网络(C
Dr.Cup
·
2024-02-13 13:06
机器学习入门
机器学习
cnn
人工智能
Day 7 七天总结
觉得自己三周前就像个傻子,跟教练们说的如果不会觉得自己之前傻就不进步了,所以感觉到自己之前的愚蠢是高质量
学习入门
的标志。接下来复盘了大家总结的学员分享和教练赋能。
素馨花开
·
2024-02-13 11:08
Java 8之自定义Stream收集器
均为原创内容,如有雷同纯属巧合,引用转载请附上原文链接与声明本文链接:注:阅读本篇文章需掌握java集合基础知识、Stream基本语法与使用、函数式接口、lambda表达式、泛型知识、lombok插件使用、
guava
nobita0522
·
2024-02-12 16:58
机器
学习入门
之基础概念及线性回归
任务目录什么是Machinelearning学习中心极限定理,学习正态分布,学习最大似然估计推导回归Lossfunction学习损失函数与凸函数之间的关系了解全局最优和局部最优学习导数,泰勒展开推导梯度下降公式写出梯度下降的代码学习L2-Norm,L1-Norm,L0-Norm推导正则化公式说明为什么用L1-Norm代替L0-Norm学习为什么只对w/Θ做限制,不对b做限制Question1:Wh
StarCoder_Yue
·
2024-02-12 11:01
算法
机器学习
学习笔记
机器学习
线性回归
正则化
人工智能
算法数学
设计模式-观察者模式 Observer
观察者模式一、概述二、使用场景三、发布订阅1)观察者模式2)发布-订阅模式四、源码使用1)jdk中的观察者2)
Guava
中的消息总线五、进阶1)异步非阻塞模型一、概述观察者模式是一种行为设计模式,允许对象间存在一对多的依赖关系
中二Espresso
·
2024-02-12 06:33
设计模式
设计模式
观察者模式
java
人工智能深度
学习入门
指南
本文将为你提供一份深度
学习入门
指南,帮助你快速掌握深度学习的基本知识和应用技能。1.了解深度学习基本概念在开始深度学习之前,你需要了解一些基本概念,如神经网络、激活函数、损失函数、反向传播等。
白猫a~
·
2024-02-11 23:00
编程
深度学习
人工智能
Guava
Cache之开启统计信息收集
GauvaCache开启统计信息收集1.开启统计在创建Cache时,我们可以配置Cache让其开启统计信息收集,这样我们就可以对Cache的内存使用情况进行监控,并根据统计信息对cache进行调优,如果您的应用比较重视性能的话,可以开启这个特性。在创建Cache时,只需要调用recordStats()即可开启统计特性:开启统计2.开启一个后台线程完成统计信息的收集工作为了能够获取到缓存cache的
大风过岗
·
2024-02-11 21:00
深度
学习入门
--参数的优化算法
1.梯度下降法(GradientDescent)梯度下降法的计算过程就是沿梯度下降的方向求解极小值,也可以沿梯度上升方向求解最大值。假设模型参数为θ\thetaθ,损失函数为J(θ)J(\theta)J(θ),损失函数关于参数的偏导数,也就是梯度为▽θJ(θ)\triangledown_\thetaJ(\theta)▽θJ(θ),学习率为α\alphaα,则使用梯度下降法更新参数为:梯度下降法目前
我只钓小鱼
·
2024-02-11 03:53
深度学习
探秘
Guava
的RateLimiter:单机流量控制的黄金法宝
欢迎来到我的博客,代码的世界里,每一行都是一个故事探秘
Guava
的RateLimiter:单机流量控制的黄金法宝前言RateLimiter简介:速度的守护者工作原理:时间、令牌与控制参数调优:玩转RateLimiter
一只牛博
·
2024-02-10 07:17
java
guava
数据库
Guava
RateLimiter单机实战指南
欢迎来到我的博客,代码的世界里,每一行都是一个故事
Guava
RateLimiter单机实战指南前言maven坐标引入业务实现重要参数和方法关于`warmupPeriod`实战前言想象一下你是一位大厨,正在烹饪美味佳肴
一只牛博
·
2024-02-10 07:46
java
guava
第五届脑电深度
学习入门
班(训练营:2023.9.12~9.20)
茗创科技专注于脑科学数据处理,涵盖(EEG/ERP,fMRI,结构像,DTI,ASL,,FNIRS)等,欢迎留言讨论及转发推荐,也欢迎了解茗创科技的脑电课程,数据处理服务及脑科学工作站销售业务,可添加我们的工程师(微信号MCKJ-zhouyi或17373158786)咨询。★课程简介★脑电图(Electroencephalogram,EEG)是脑神经细胞电生理活动在大脑皮层或头皮表面的总体反映,包
茗创科技
·
2024-02-09 21:12
深度
学习入门
笔记(九)自编码器
自编码器是一个无监督的应用,它使用反向传播来更新参数,它最终的目标是让输出等于输入。数学上的表达为,f(x)=x,f为自编码器,x为输入数据。自编码器会先将输入数据压缩到一个较低维度的特征,然后利用这个较低维度的特征重现输入的数据,重现后的数据就是自编码器的输出。所以,从本质上来说,自编码器就是一个压缩算法。自编码器由3个部分组成:编码器(Encoder):用于数据压缩。压缩特征向量(Compre
zhanghui_cuc
·
2024-02-09 08:57
深度学习笔记
深度学习
笔记
人工智能
深度
学习入门
笔记(八)可以不断思考的模型:RNN与LSTM
8.1循环神经网络RNN之前学到的CNN和全连接,模型的输入数据之间是没有关联的,比如图像分类,每次输入的图片与图片之间就没有任何关系,上一张图片的内容不会影响到下一张图片的结果。但在自然语言处理领域,这就成了一个短板。RNN因此出现,它是一类用于处理序列数据的神经网络。其基本单元结构如下自底向上的三个蓝色的节点分别是输入层、隐藏层和输出层。U和V分别是连接两个层的权重矩阵。如果不考虑右边的棕色环
zhanghui_cuc
·
2024-02-09 08:56
深度学习笔记
深度学习
rnn
笔记
第四届脑电深度
学习入门
班(训练营:2023.7.4~7.12)
茗创科技专注于脑科学数据处理,涵盖(EEG/ERP,fMRI,结构像,DTI,ASL,,FNIRS)等,欢迎留言讨论及转发推荐,也欢迎了解茗创科技的脑电课程,数据处理服务及脑科学工作站销售业务,可添加我们的工程师(微信号MCKJ-zhouyi或17373158786)咨询。★课程简介★脑电图(Electroencephalogram,EEG)是脑神经细胞电生理活动在大脑皮层或头皮表面的总体反映,包
茗创科技
·
2024-02-09 05:48
浏览器F12调试
系列文章目录提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:第一章Python机器
学习入门
之pandas的使用提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录系列文章目录
知行合一。。。
·
2024-02-09 01:11
测试技术
功能测试
深度学习与计算机视觉:实例入门-第六章
给深度
学习入门
者的Python快速教程-番外篇之Python-OpenCV《深度学习与计算机视觉》全书网址:https://frombeijingwithlove.github.io…本篇原网址:https
javastart
·
2024-02-08 09:38
图象处理
深度学习
tensorflow
opencv2
《深度
学习入门
:基于python的理论与实现》读书笔记
求梯度的函数:f是需要求梯度的函数,x是求梯度的点image.pngdefnumerical_gradient(f,x):h=1e-4#0.0001grad=np.zeros_like(x)#生成和x形状相同的数组foridxinrange(x.size):tmp_val=x[idx]#f(x+h)的计算x[idx]=tmp_val+hfxh1=f(x)#f(x-h)的计算x[idx]=tmp_v
莫里衰
·
2024-02-07 21:32
jvm一级缓存
如没有可以导:com.google.
guava
:
guava
:20.0的包。
Leo.荒
·
2024-02-07 08:15
jvm
缓存
ui转py
pyqt系列文章目录提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:第一章Python机器
学习入门
之pandas的使用提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录
CN-JackZhang
·
2024-02-07 05:05
qt
python
开发语言
一个不会java程序员的python笔记-切片
文章目录前言一、切list和tuple二、判断是不是回数三、手写trim总结前言Python
学习入门
之切片slice的使用切片这东西还是很好用的,而且简单,切片,就是像切土豆一样,想切哪儿就切哪儿,想怎么切就怎么切
aersilan20200907
·
2024-02-07 01:33
python
python
java
开发语言
基于Google
guava
工具实现一致性Hash算法的应用实践
一、前言在分布式架构系统中,要将数据存储到具体的节点上,如果采用普通的key%N取模Hash算法,将数据映射到具体的节点上,就有可能大部分数据集中在某一个节点,形成“热点”数据,造成数据分布失衡,二是如果有一个机器加入或退出这个集群,则大部分的数据映射都无效了,数据需要重新进行排列。基于上面普通Hash算法的问题,1997年由麻省理工学院提出一致性Hash算法,引入了“虚拟节点”的概念:即想象在这
小满别摸鱼
·
2024-02-07 00:05
java
java
web
杂记
guava
哈希算法
一致性Hash
Hash
虚拟环
大数据
学习入门
级书籍推荐,零基础小伙伴们关注一下吧
《大数据分析:点“数”成金》大数据
学习入门
级书籍推荐你现在正坐在一座金矿之上,这些金子或被深埋于备份、存档数据之中,或正藏在你眼前的数据集里,它们是提升公司效益、拓展新的商业关系、制订更直观决策的秘诀所在
kuntoria
·
2024-02-06 18:45
深度
学习入门
笔记(五)前馈网络与反向传播
接着上一节,本节讲解模型自我学习的数学计算过程究竟是怎么样的。5.1前馈网络一个最简单的前馈神经网络如图所示,对于每一个隐藏层,输入对应前一层每一个节点权重乘以节点输出值,输出则是经过激活函数(例如sigmoid函数)计算后的值。在这样的网络中,输入的数据x经过网络的各个节点之后,即可计算出最终的模型结果。这样就完成了一个最基本的前馈网络从输入到输出的计算过程。5.2反向传播在实际工作中这部分的内
zhanghui_cuc
·
2024-02-06 01:25
深度学习笔记
深度学习
笔记
人工智能
Caffeine与Spring cache的各种注解操作
它的设计目标是提供高性能、高命中率以及低内存占用的本地缓存解决方案,被描述为
Guava
Cache的加强版和“新一代缓存”。关于Caffeine的使用,其提供了多种灵活的配置选项:自动加载数据:可以
500了
·
2024-02-05 16:20
spring
java
后端
【日常总结 - java】list 与 字符串(用逗号隔开)相互转换
lambda表达式遍历并加入逗号二、字符串转list方法一:使用split()方法方法二:使用Collections.addAll()方法方法三:使用Java8的StreamAPI(推荐)方法四:使用
Guava
ladymorgana
·
2024-02-05 11:33
日常工作总结
windows
python
开发语言
异步八种方式提高性能
ThreadFuture异步框架CompletableFutureSpring注解@AsyncSpringApplicationEvent事件消息队列第三方异步框架,比如Hutool的ThreadUtil
Guava
A尘埃
·
2024-02-05 08:33
java
异步
性能
Guava
的这些骚操作让我的代码量减少了50行
目录
Guava
是google公司开发的一款Java类库扩展工具包,内含了丰富的API,涵盖了集合、缓存、并发、I/O等多个方面。
漫走云雾
·
2024-02-05 07:10
java
前端
后端
guava
深度
学习入门
(鱼书)
学习笔记第3章神经网络3.1从感知机到神经网络3.1.1神经网络的例子图3-1中的网络一共由3层神经元构成,但实质上只有2层神经元有权重,因此将其称为“2层网络”。请注意,有的书也会根据构成网络的层数,把图3-1的网络称为“3层网络”。本书将根据实质上拥有权重的层数(输入层、隐藏层、输出层的总数减去1后的数量)来表示网络的名称。3.1.2复习感知机3.1.3激活函数登场刚才登场的h(x)函数会将输
weixin_42963026
·
2024-02-05 05:56
深度学习
人工智能
深度
学习入门
笔记(1)——什么是深度学习?
深度
学习入门
笔记(1)——什么是深度学习?
ZRX_GIS
·
2024-02-05 05:56
深度学习
深度学习
数据挖掘
机器学习
神经网络
pytorch
(课程笔记)深度
学习入门
- 1 - OverView
一、机器学习算法的过程与结果1、首先要得到标签化数据集(DataSet),既然是标签化,那应该是监督学习模式,而且此处的数据集应该分化为训练用集(TrainSet)和测试用集(TestSet),训练用集用于训练最终的算法模型,而测试用集用于测试训练的算法模型是否性能良好,是否能满足实际需求;2、设置并给出机器学习的算法模型(Model);3、设置期望的损失函数(LossFcn)和优化器(Optim
牛顿第八定律
·
2024-02-05 05:55
深度学习入门笔记
笔记
深度学习
人工智能
深度
学习入门
笔记(6)—— Logistic Regression
对比第三节中的Adaline和LogisticRegression,可以发现它们只有两点不同:1、激活函数,Adaline中的激活函数是恒等函数(线性),而LogisticRegression中的激活函数是Sigmoid函数(非线性);2、损失函数,Adaline中的损失函数是均方误差,而LogisticRegression中的损失函数则是交叉熵。Sigmoid函数如图所示,其值域为0到1,输入为
cnhwl
·
2024-02-05 05:55
深度学习入门笔记
深度学习
机器学习
逻辑回归
人工智能
python
《深度
学习入门
》学习笔记
原书:《深度
学习入门
:基于Python的理论与实现》文章目录前言第一章python入门列表字典类numpy广播第二章感知机第三章神经网络激活函数第四章神经网络的学习损失函数求梯度第五章误差反向传播法第六章与学习相关的技巧
YY_oot
·
2024-02-05 05:55
机器学习
深度学习
python
神经网络
人工智能
深度
学习入门
笔记(三)常用AI术语
本节我们介绍一些深度学习领域常用的术语。训练确定模型中的参数的过程,我们就称为“训练”。Epoch遍历一遍训练数据就叫作“一个Epoch”。训练模型的时候,我们要告诉模型预计训练多少个Epoch,但这个值并不是固定的,因为并没有一个准确的Epoch数能一定能得到一个比较好的模型。我们有一个标准:模型训练的Epoch数必须要让模型达到一个收敛的状态。并且为了模型有更多的选择,我们可以让模型收敛后,再
zhanghui_cuc
·
2024-02-05 05:54
深度学习笔记
人工智能
深度学习
笔记
缓存Caffeine之W-TinyLFU淘汰策略
https://mp.csdn.net/editor/html/115872837中大概说明了LRU的缓存淘汰机制,以及基于LRU的著名实现
guava
cache。
georgesnoopy
·
2024-02-05 00:03
guava
缓存
java
淘汰策略
Caffeine
[inno setup]
学习入门
之二 关于写入注册表的一点注意
使用innosetup操作注册表无非就是写入、查询、删除//查询path,放入变量oldPath中RegQueryStringValue(HKEY_LOCAL_MACHINE,'SYSTEM\CurrentControlSet\Control\SessionManager\Environment','path',oldPath);//写入字符xxx到环境变量path中,当然,xxx既可以是单纯的字
放学后的泡泡
·
2024-02-04 19:13
辅助工具
深度
学习入门
笔记4 深度神经网络
多层感知器在之前的课程中,我们了解到,感知器(指单层感知器)具有一定的局限——无法解决异或问题,即线性不可分的问题。将多个单层感知器进行组合,就可以得到一个多层感知器(MLP——Multi-LayerPerceptron)结构。多层感知器包含输入层,一个或多个隐藏层以及一个输出层。每层的神经元与下一层进行完全连接。如果网络中包含一个以上的隐层,则称其为深度人工神经网络。说明:通常我们说的神经网络的
深度学习从入门到放弃
·
2024-02-04 16:03
深度学习笔记
神经网络
深度学习
人工智能
机器学习
算法
深度
学习入门
笔记:第二章感知机
深度
学习入门
笔记:第二章感知机笔记来源书籍:《深度
学习入门
:基于+Python+的理论与实现》文章目录深度
学习入门
笔记:第二章感知机前言为什么学习感知机2.1感知机是什么2.2简单逻辑电路2.2.1与门
维持好习惯
·
2024-02-04 16:03
深度学习
深度学习
笔记
人工智能
深度
学习入门
学习笔记之——神经网络
神经网络上一章我们学习了感知机。关于感知机,既有好消息,也有坏消息。好消息是,即便对于复杂的函数,感知机也隐含着能够表示它的可能性。上一章已经介绍过,即便是计算机进行的复杂处理,感知机(理论上)也可以将其表示出来。坏消息是,设定权重的工作,即确定合适的、能符合预期的输入与输出的权重,现在还是由人工进行的。上一章中,我们结合与门、或门的真值表人工决定了合适的权重。神经网络的出现就是为了解决刚才的坏消
前丨尘忆·梦
·
2024-02-04 16:32
tensorflow深度学习
神经网络
深度学习
深度
学习入门
笔记(二)神经元 激励函数 神经网络
声明:本文内容源自《白话深度学习与tensorflow》高扬卫峥编著一书读书笔记!!!神经网络:神经网络又称为人工神经网络(artificialneutralnetwork,ANN)。神经网络是一种人类由于受到生物神经细胞结构启发而研究出的一种算法体系神经元:如上图所示是一个最简单的神经元,有一个输入,一个输出。我们现在所使用的神经元通常有两个部分组成,一个是“线性模型”,另一个是“激励函数”。假
花落雨微扬
·
2024-02-04 16:32
神经网络
网络
深度学习
人工智能
机器学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他