E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Spark大数据平台源码分析
JsonCpp
源码分析
——Reader
1、与Writer模块功能相反,可以将Reader理解成一个反序列化的工具,Writer的作用主要是将Value对象转成string或者流式的结构,Reader的作用主要是将流式的结构转成Value类型的对象。Reader类的主要职责有3个,解析JSON字符串:将JSON格式的字符串读取并解析成相应的C++数据结构。处理不同的数据类型,支持解析JSON对象、数组、字符串、数字、布尔值和null。处
哎呦,帅小伙哦
·
2024-09-11 06:48
#
jsoncpp
json
vue
源码分析
-挂载流程和模板编译
前面几节我们从newVue创建实例开始,介绍了创建实例时执行初始化流程中的重要两步,配置选项的资源合并,以及响应式系统的核心思想,数据代理。在合并章节,我们对Vue丰富的选项合并策略有了基本的认知,在数据代理章节我们又对代理拦截的意义和使用场景有了深入的认识。按照Vue源码的设计思路,初始化过程还会进行很多操作,例如组件之间创建关联,初始化事件中心,初始化数据并建立响应式系统等,并最终将模板和数据
yyzzabc123
·
2024-09-11 05:05
vue.js
比较
Spark
与Flink
Apache
Spark
和ApacheFlink都是目前非常流行的大数据处理引擎,但它们在架构、处理模式、应用场景等方面有一些显著的区别。
傲雪凌霜,松柏长青
·
2024-09-11 04:29
大数据
后端
spark
flink
大数据
Spark
底层逻辑
Apache
Spark
的底层逻辑可以从其核心概念、组件和执行流程等方面来理解。
Spark
提供了一个分布式数据处理框架,其底层逻辑基于批处理架构,能够在大规模集群中高效地处理数据。
傲雪凌霜,松柏长青
·
2024-09-11 04:29
大数据
后端
spark
大数据
大数据平台
(数据中台、数据中枢、数据湖、数据要素)建设方案
大数据平台
(数据中台、数据中枢、数据湖、数据要素)建设方案
大数据平台
(数据中台、数据中枢、数据湖、数据要素)建设方案项目背景和目标项目背景项目目标建设原则与策略数据中台架构设计整体架构设计思路数据采集层数据存储层数据计算层数据服务层数据中枢功能实现数据治理功能数据资产管理功能数据安全管控功能数据服务总线功能数据湖存储与计算方案数据湖存储架构设计数据湖计算框架选择数据湖应用场景分析数据湖安全与合规性
数字化建设方案
·
2024-09-11 04:26
数字化转型
数据治理
主数据
数据仓库
大数据
数据中台建设方案-基于
大数据平台
(下)
数据中台建设方案-基于
大数据平台
(下)1数据中台建设方案1.1总体建设方案1.2大数据集成平台1.3大数据计算平台1.3.1数据计算层建设计算层技术含量最高,最为活跃,发展也最为迅速。
FRDATA1550333
·
2024-09-11 03:49
大数据
数据库架构
数据库开发
数据库
大数据平台
--调度系统
调度系统是数据仓库的重要组成部分,也是每个银行或公司一个基础软件或服务,需要在全行或全公司层面进行规划,在全行层面统一调度工具和规范,由于数据类系统调度作业较多,交易类系统批量优先级高,调度系统的整体架构如下:调度中心对调度批次和作业进行创建、管理、监控,它负责所有批量作业的调度和编排;在整个作业过程中,作业之间关系分为触发,依赖和互斥。1、触发触发关系表示一个作业完毕后,生成另一个作业的控制文件
小瓶盖的猪猪侠
·
2024-09-10 20:36
Spark
- 升级版数据源JDBC2
在
spark
的数据源中,只支持Append,Overwrite,ErrorIfExists,Ignore,这几种模式,但是我们在线上的业务几乎全是需要upsert功能的,就是已存在的数据肯定不能覆盖,在
大猪大猪
·
2024-09-10 17:28
Py
Spark
Py
Spark
的本质确实是Python的一个接口层,它允许你使用Python语言来编写Apache
Spark
应用程序。
静听山水
·
2024-09-10 13:44
Spark
spark
鸿蒙内核解析,鸿蒙内核
源码分析
(内存概念篇)|解读鸿蒙源码
本系列全部文章进入鸿蒙
源码分析
(总目录)查看目录最难讲的章节坦白讲内存是整个系列里面最
刘轩鸿
·
2024-09-10 09:53
鸿蒙内核解析
鸿蒙轻内核A核
源码分析
系列七 进程管理 (3)
本文记录下进程相关的初始化函数,如OsSystemProcessCreate、OsProcessInit、OsProcessCreateInit、OsUserInitProcess、OsDeInitPCB、OsUserInitProcessStart等。1、LiteOS-A内核进程创建初始化通用函数先看看一些内部函数,不管是初始化用户态进程还是内核态进程,都会使用这些函数,包含进程控制块初始化函数
OpenHarmony_小贾
·
2024-09-10 09:20
OpenHarmony
鸿蒙开发
HarmonyOS
harmonyos
嵌入式硬件
OpenHarmony
鸿蒙嵌入式
鸿蒙开发
鸿蒙内核
进程关联
鸿蒙轻内核A核
源码分析
系列五 虚实映射(6)虚拟映射修改转移
6.1映射属性修改函数LOS_ArchMmuChangeProt函数LOS_ArchMmuChangeProt用于修改进程空间虚拟地址区间的映射保护属性,其中参数archMmu为进程空间的MMU结构体,vaddr为虚拟地址,count为映射的页数,flags为映射使用的新标签属性信息。其中函数名称中的Prot是英文Protect的简写。⑴处对参数进行校验,⑵处查询虚拟地址映射的物理地址,如果没有映
OpenHarmony_小贾
·
2024-09-10 09:50
鸿蒙开发
HarmonyOS
OpenHarmony
harmonyos
OpenHarmony
移动开发
驱动开发
鸿蒙内核
鸿蒙轻内核A核
源码分析
系列五 虚实映射(1)基础概念
虚实映射是指系统通过内存管理单元(MemoryManagementUnit,MMU)将进程空间的虚拟地址(VA)与实际的物理地址(PA)做映射,并指定相应的访问权限、缓存属性等。程序执行时,CPU访问的是虚拟内存,通过MMU找到映射的物理内存,并做相应的代码执行或数据读写操作。MMU的映射由页表(PageTable)来描述,页表保存虚拟地址和物理地址的映射关系以及访问权限等。每个进程在创建的时候都
OpenHarmony_小贾
·
2024-09-10 09:20
鸿蒙开发
HarmonyOS
OpenHarmony
harmonyos
嵌入式硬件
鸿蒙开发
OpenHarmony
鸿蒙嵌入式
鸿蒙内核
鸿蒙轻内核A核
源码分析
系列四(3) 虚拟内存
4.2函数LOS_RegionAlloc函数LOS_RegionAlloc用于从地址空间中申请空闲的虚拟地址区间。参数较多,LosVmSpace*vmSpace指定虚拟地址空间,VADDR_Tvaddr指定虚拟地址,当为空时,从映射区申请虚拟地址;当不为空时,使用该虚拟地址。如果该虚拟地址已经被映射,会先相应的解除映射处理等。size_tlen指定要申请的地区区间的长度。UINT32regionF
OpenHarmony_小贾
·
2024-09-10 09:19
OpenHarmony
HarmonyOS
鸿蒙开发
harmonyos
OpenHarmony
鸿蒙内核
移动开发
驱动开发
系统开发
鸿蒙轻内核A核
源码分析
系列四(1)虚拟内存进程空间编号
在熟悉下OpenHarmony鸿蒙轻内核提供的虚拟内存(Virtualmemory)管理模块之前,作为预备基础知识,我们先了解下虚拟内存进程空间编号,进程空间编号功能相对独立,源代码文件单独维护。涉及的头文件和C源代码文件分别为arch/arm/arm/include/los_asid.h和arch/arm/arm/src/los_asid.c。本文先介绍OpenHarmony鸿蒙轻内核LiteO
OpenHarmony_小贾
·
2024-09-10 09:49
OpenHarmony
HarmonyOS
鸿蒙开发
harmonyos
移动开发
鸿蒙内核
鸿蒙开发
OpenHarmony
鸿蒙轻内核A核
源码分析
系列一 数据结构-双向循环链表
在学习OpenHarmony鸿蒙轻内核源代码的时候,常常会遇到一些数据结构的使用。如果没有掌握它们的用法,会导致阅读源代码时很费解、很吃力。本文会给读者介绍源码中重要的数据结构,双向循环链表DoublyLinkedList。在讲解时,会结合数据结构相关绘图,培养读者们的数据结构的平面想象能力,帮助更好的学习和理解这些数据结构的用法。本文中所涉及的源码,以OpenHarmonyLiteOS-A内核为
OpenHarmony_小贾
·
2024-09-10 09:49
OpenHarmony
鸿蒙开发
HarmonyOS
数据结构
harmonyos
链表
OpenHarmony
移动开发
鸿蒙内核
鸿蒙开发
Netty
源码分析
:NioEventLoopGroup
Netty
源码分析
:NioEventLoopGroup在工作之余,看到自己公司的超哥(俞超)关于Netty的系列博文,讲解的很好,因此,自己在学习之余也跟了下源代码,来了解Netty,也做了相关的笔记,
HelloWorld_EE
·
2024-09-10 07:09
netty源码分析
源代码
netty
EventLoop
深度学习部署:Triton(Triton inference server)【旧称:TensorRT serving,专门针对TensorRT设计的服务器框架,后来变为Triton,支持其他推理后端】
本系列讲解重点是结合实际的应用场景以及
源码分析
,以及写一些triton周边的插件、集成等。非速成,适合同样喜欢深入的小
u013250861
·
2024-09-10 03:09
#
LLM/部署
深度学习
人工智能
Ubuntu的ssh
sshsudoapt-getupdatesudoapt-getinstallopenssh-server检测ssh是否启动sudops-e|grepssh创建root用户sudopasswdroot配置本机无密码ssh登录cd/home/
spark
0ssh-keygen-trsa-P
请不要问我是谁
·
2024-09-10 03:29
Tinywebserver数据库连接池
源码分析
day0
Tinywebserver的第一天源自github:GitHub-qinguoyi/TinyWebServer::fire:Linux下C++轻量级WebServer服务器这是项目的数据库连接池一共有两个文件,.h/.cpp先看md文档数据库连接池*单例模式,保证唯一*list实现连接池*连接池为静态大小*互斥锁实现线程安全直接看sql_connection_pool.cpp,在代码里看看具体是怎
winsons_lu
·
2024-09-10 02:02
数据库
oracle
【HarmonyOS】- HAR与HSP区别及使用原则
文章目录知识回顾前言
源码分析
1.2.3.拓展知识总结知识回顾前言HAR与HSP
源码分析
1.2.3.拓展知识总结系统提供了两种共享包,HAR静态共享包和HSP动态共享包。
数的羊都睡了
·
2024-09-09 20:41
HarmonyOS
harmonyos
华为
鸿蒙
ArkTS
2024年大数据最新实时数仓之实时数仓架构(Hudi)
用于接入数据源;FlinkCDC:如果直接接入业务数据源可以考虑CDC方式,如果通过Kafka缓冲接入业务数据可以忽略;Flink:用于数据ETL,包括接入数据、处理数据及输出数据全链路数据计算任务;
Spark
2401_84185556
·
2024-09-09 19:34
程序员
大数据
架构
实时数仓之实时数仓架构(Hudi)(1),2024年最新熬夜整理华为最新大数据开发笔试题
包括ODS/DWD/DWS/DIM/ADS等;+Doris:OLAP引擎,同步数仓结果模型,对外提供数据服务支持;+Hbase:用来存储维表信息,维表数据来源一部分有Flink加工实时写入,另一部分是从
Spark
2401_84181221
·
2024-09-09 19:04
程序员
架构
大数据
starrocks和clickhouse数据库比较
支持多种数据源的集成,并且可以与其他大数据技术(如Hadoop、
Spark
)协同工作。C
CodeMaster_37714848
·
2024-09-09 16:12
clickhouse
数据库
fescar
源码分析
4-TM
一、概要说明这里重点分析下TM的实现。下面是TM的定义:TransactionManager(TM):明确全局事务的范围:开始一个全局事务,提交或者回滚一个全局事务简单来说,就是分布式事务的业务发起方。二、配置定义GlobalTransactionScanner。构造函数如下。applicationId和txServiceGroup我们这里可以理解为一个分布式事务的唯一标识。可以用于保存一个事务的
leiwingqueen
·
2024-09-09 12:39
深智城基于超融合数据库MatrixOne的一站式交通
大数据平台
改造
在智慧交通应用中,数据处理需求极为复杂,涉及人、车辆、道路和环境等多个方面,产生了大量异构数据。交通管理人员需要对这些数据进行实时分析和决策,以应对各种交通事件。然而,在实际生产中会发现数据处理缺陷、管理复杂度高、云原生基础设施兼容性不足等问题。实践证明,MatrixOne可完整、稳定支撑深智城集团的交通数字实时仿真项目,实现秒级的业务及分析实时性,并在技术、管理和成本方面均得到了显著提升,大幅降
MatrixOrigin
·
2024-09-09 07:42
数据库
云原生
大数据
Leveldb
源码分析
--9
6SSTable之36.5读取sstable文件6.5.1类层次Sstable文件的读取逻辑在类Table中,其中涉及到的类还是比较多的,如图6.5-1所示。图6.5-1Table类导出的函数只有3个,先从这三个导出函数开始分析。其中涉及到的类(包括上图中为画出的)都会一一遇到,然后再一一拆解。本节分析sstable的打开逻辑,后面再分析key的查找与数据遍历。6.5.2Table::Open()
sparkliang
·
2024-09-09 04:23
Leveldb
分布式系统
鸿蒙轻内核M核
源码分析
系列二十 Newlib C
LiteOS-M内核LibC实现有2种,可以根据需求进行二选一,分别是musllibC和newlibc。本文先学习下NewlibC的实现代码。文中所涉及的源码,均可以在开源站点https://gitee.com/openharmony/kernel_liteos_m获取。使用MuslC库的时候,内核提供了基于LOS_XXX适配实现pthread、mqeue、fs、semaphore、time等模块
OpenHarmony_小贾
·
2024-09-09 04:50
HarmonyOS
鸿蒙开发
OpenHarmony
harmonyos
c语言
移动开发
鸿蒙内核
鸿蒙开发
openharmony
开发语言
鸿蒙轻内核M核
源码分析
系列十七(2) 异常钩子函数的注册操作
本文中所涉及的源码,以OpenHarmonyLiteOS-M内核为例,均可以在开源站点https://gitee.com/openharmony/kernel_liteos_m获取。鸿蒙轻内核异常钩子模块代码主要在components\exchook目录下。异常钩子函数的注册、解注册、异常钩子类型定义在utils\los_debug.h|.c。1、异常钩子函数节点结构体和异常钩子函数节点数组在文件
OpenHarmony_小贾
·
2024-09-09 04:50
OpenHarmony
HarmonyOS
鸿蒙开发
harmonyos
移动开发
openharmony
鸿蒙开发
鸿蒙内核
HarmonyOS
嵌入式硬件
鸿蒙轻内核M核
源码分析
系列十五 CPU使用率CPUP
CPUP(CentralProcessingUnitPercentage,CPU占用率)分为系统CPU占用率和任务CPU占用率。用户通过系统级的CPU占用率,判断当前系统负载是否超出设计规格。通过系统中各个任务的CPU占用情况,判断各个任务的CPU占用率是否符合设计的预期。系统CPU占用率是指周期时间内系统的CPU占用率,用于表示系统一段时间内的闲忙程度,也表示CPU的负载情况。系统CPU占用率的
OpenHarmony_小贾
·
2024-09-09 04:50
OpenHarmony
鸿蒙开发
HarmonyOS
harmonyos
鸿蒙内核
移动开发
数据结构
OpenHarmony
性能优化
嵌入式硬件
鸿蒙轻内核M核
源码分析
系列十六 MPU内存保护单元
本文主要分析鸿蒙轻内核MPU模块的的源码。本文中所涉及的源码,以OpenHarmonyLiteOS-M内核为例,均可以在开源站点https://gitee.com/openharmony/kernel_liteos_m获取。鸿蒙轻内核支持的ARMCortex-M芯片架构都支持MPU的,代码都是一样的,以kernel\arch\arm\cortex-m4\gcc\los_mpu.c为例进行讲解。1、
OpenHarmony_小贾
·
2024-09-09 04:50
HarmonyOS
鸿蒙开发
OpenHarmony
harmonyos
嵌入式硬件
鸿蒙嵌入式
鸿蒙开发
OpenHarmony
鸿蒙内核
移动开发
鸿蒙轻内核M核
源码分析
系列十三 消息队列Queue
队列(Queue)是一种常用于任务间通信的数据结构。任务能够从队列里面读取消息,当队列中的消息为空时,挂起读取任务;当队列中有新消息时,挂起的读取任务被唤醒并处理新消息。任务也能够往队列里写入消息,当队列已经写满消息时,挂起写入任务;当队列中有空闲消息节点时,挂起的写入任务被唤醒并写入消息。如果将读队列和写队列的超时时间设置为0,则不会挂起任务,接口会直接返回,这就是非阻塞模式。消息队列提供了异步
OpenHarmony_小贾
·
2024-09-09 04:20
鸿蒙开发
HarmonyOS
OpenHarmony
移动开发
鸿蒙内核
HarmonyOS
openharmony
鸿蒙开发
消息队列
嵌入式硬件
Hive的优势与使用场景
它利用Hadoop的MapReduce或
Spark
来执行查询,具备高度扩展性,适合大数据处理。2.支持SQL-like查询语言(Hi
傲雪凌霜,松柏长青
·
2024-09-08 17:07
后端
大数据
hive
hadoop
数据仓库
HashMap
源码分析
一.HashMap类结构二.属性解析1.默认初始容量staticfinalintDEFAULT_INITIAL_CAPACITY=1MAXIMUM_CAPACITY)initialCapacity=MAXIMUM_CAPACITY;if(loadFactor>>1;n|=n>>>2;n|=n>>>4;n|=n>>>8;n|=n>>>16;return(n=MAXIMUM_CAPACITY)?MAX
SimpleRecord
·
2024-09-08 17:01
Spark
3.5.1 升级 Java 17 异常 cannot access class sun.nio.ch.DirectBuffer
异常说明使用
Spark
3.5.1升级到Java17的时候会有一个异常,异常如下SLF4J:Failedtoloadclass"org.slf4j.impl.StaticLoggerBinder".SLF4J
敏叔V587
·
2024-09-08 15:23
spark
java
nio
【面试系列】Doris 高频面试题解答
⭐️
大数据平台
建设指南:全面讲解从数据采集到数据可视化的整个过程,掌握构建现代化数据平台的核心技术和方法。⭐️《遇见Python:初识、了解与热恋》:涵盖了Pytho
野老杂谈
·
2024-09-08 10:44
全网最全IT公司面试宝典
面试
职场和发展
Doris
大数据
数据库
【无标题】大数据之批处理,流处理,批流一体概念
Spark
和Flink都支持批处理,其中
Spark
使用的是批处理模型,即将一批数据一次性读入内存,然后对其进行处理,处理完成后再将结果写入磁盘。
数字天下
·
2024-09-08 09:43
大数据
【
大数据平台
】数据处理层:批处理与流处理架构
⭐️
大数据平台
建设指南:全面讲解从数据采集到数据可视化的整个过程,掌握构建现代化数据平台的核心技术和方法。⭐️《遇见Python:初识、了解与热恋
野老杂谈
·
2024-09-08 09:07
大数据平台建设指南
大数据
架构
批处理
流处理
Hadoop
Spark
Flink
py
spark
kafka mysql_数据平台实践①——Flume+Kafka+
Spark
Streaming(py
spark
)
蜻蜓点水Flume——数据采集如果说,爬虫是采集外部数据的常用手段的话,那么,Flume就是采集内部数据的常用手段之一(logstash也是这方面的佼佼者)。下面介绍一下Flume的基本构造。Agent:包含Source、Channel和Sink的主体,它是这3个组件的载体,是组成Flume的数据节点。Event:Flume数据传输的基本单元。Source:用来接收Event,并将Event批量传
weixin_39793638
·
2024-09-08 04:34
pyspark
kafka
mysql
Linux驱动学习--网络设备驱动架构介绍及底层
源码分析
------>网络协议接口层------>sk_buff------>sk_buff的操作函数------>网络设备接口层------>net_device相关介绍------>设备驱动接口层四、驱动
源码分析
文艺小少年
·
2024-09-08 00:41
网络设备驱动
linux
驱动程序
net
View绘制流程(三) - onLayout
onLayout了,作用是确定view的位置;performTraversals__>perforLayouthost.layout__>view.onLayout__>viewgroup.onLayout2.
源码分析
世道无情
·
2024-09-07 21:31
<转>
Spark
体系架构
最近看到一篇关于
Spark
架构的博文,作者是AlexeyGrishchenko。
yongjian_luo
·
2024-09-07 20:11
Spark
Spark
分布式计算原理
目录一、RDD依赖与DAG原理1.1RDD的转换一、RDD依赖与DAG原理
Spark
根据计算逻辑中的RDD的转换与动作生成RDD的依赖关系,同时这个计算链也形成了逻辑上的DAG。
NightFall丶
·
2024-09-07 20:40
#
Spark
apache
spark
spark
Mapbox
源码分析
(1)样式加载
简介:通过源码,我们来一步步分析Mapbox地图引擎如何进行不同样式的数据加载的,这里是基于5.3.0的版本.通过官网案例,我们知道在SDK中配置了不同的style样式给我们使用,通过配置不同style,便可加载不同的类型地图,那么我们便可以从setStyleUrl()这个方法着手.这里我们从MapView的setStyleUrl()方法看起这里我们看到,他将相关配置直接往下传到底层了,从nati
一个观察世界的普通人
·
2024-09-07 19:17
Apache Flink 替换
Spark
Stream的架构与实践( bilibili 案例解读)_stream
spark
flink加载udf(1)
bilibili早期使用的引擎是
Spark
Streaming,后期扩展了Flink,在开发架构中预留了一部分引擎层的扩展。最下层是状态存储
2401_84165953
·
2024-09-07 12:44
程序员
flink
spark
架构
MySQL 子查询与复杂查询的优化
⭐️
大数据平台
建设指南:全面讲解从数据采集到数据可视化的整个过程,掌握构建现代化数据平台的核心技术和方法。⭐️《遇见Python:初识、了解与热恋
野老杂谈
·
2024-09-07 09:23
mysql
数据库
子查询
复杂查询
查询优化
性能提升
Py
Spark
数据分析基础:Py
Spark
基础功能及DataFrame操作基础语法详解_py
spark
rdd
DataFrame.show()使用格式:df.show()df.show(1)+---+---+-------+----------+-------------------+|a|b|c|d|e|+---+---+-------+----------+-------------------+|1|2.0|string1|2000-01-01|2000-01-0112:00:00|+---+---
2401_84187537
·
2024-09-07 08:47
数据分析
数据挖掘
Py
Spark
数据分析基础:Py
Spark
基础功能及DataFrame操作基础语法详解_py
spark
rdd(1)
dfDataFrame[a:bigint,b:double,c:string,d:date,e:timestamp]####通过由元组列表组成的RDD创建rdd=
spark
.
spark
Context.parallelize
2401_84181368
·
2024-09-07 08:46
程序员
数据分析
数据挖掘
Py
Spark
数据分析基础:Py
Spark
基础功能及DataFrame操作基础语法详解_py
spark
rdd(2)
轻松切换到pandasAPI和Py
Spark
API上下文,无需任何开销。有一个既适用于pandas(测试,较小的数据集)又适用于
Spark
(分布式数据集)的代码库。
2401_84181403
·
2024-09-07 08:46
程序员
数据分析
数据挖掘
Py
spark
DataFrame常用操作函数和示例
针对类型:py
spark
.sql.dataframe.DataFrame目录1.打印前几行1.1show()函数1.2take()函数2.读取文件2.1
spark
.read.csv3.获取某行某列的值(
还是那个同伟伟
·
2024-09-07 08:15
Spark
人工智能
机器学习
pandas
pyspark
spark
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他