E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
吴恩达-深度学习笔记
纯干货——《面向开发者的 ChatGPT Prompt工程》学习笔记
前言本文为
吴恩达
教授联合Isa一起开设的提示工程教程笔记,记录了一些重要的知识点,并且把实践源码中文版贴出来了,可以跟着本文一起实操~也可以跟着视频过一遍此教程的主要目的是为大家介绍如何在自己的应用开发过程中
MonsterQy
·
2023-11-30 19:55
AI
chatgpt
prompt
学习
人工智能
吴恩达
深度学习笔记
(45)-Adam 优化算法(Adam optimization)
Adam优化算法(Adamoptimizationalgorithm)在深度学习的历史上,包括许多知名研究者在内,提出了优化算法,并很好地解决了一些问题,但随后这些优化算法被指出并不能一般化,并不适用于多种神经网络,时间久了,深度学习圈子里的人开始多少有些质疑全新的优化算法,很多人都觉得动量(Momentum)梯度下降法很好用,很难再想出更好的优化算法。所以RMSprop以及Adam优化算法,就是
极客Array
·
2023-11-30 04:58
【
吴恩达
机器学习】第十周—大规模机器学习和随机梯度下降
31.jpg1.大规模机器学习1.1大型数据集现实世界中,往往数据集的规模很大,譬如人口普查数据、谷歌、阿里、亚马逊,....等这些互联网公司产生的海量数量。不论采用怎样的算法或优化,可能最后决定模型准确度的主要因素就是数据集的规模,于是,研究和优化大规模数据集的训练变成了很重要的内容。1.png针对大数据集,如果我们一上来就用传统的梯度下降算法,可能往往会训练很慢很慢,达不到预期要求。那么我们该
Sunflow007
·
2023-11-30 02:10
吴恩达
机器学习课后作业Python实现 03 Multi-class Classification & Neural Network
文章目录题目描述数据集介绍逻辑回归(多元分类)神经网络题目描述在本练习中,将使用逻辑回归和神经网络来识别手写数字(从0到9)。练习的第一部分,将扩展之前的逻辑回归实现,将其应用于一对多的分类;第二部分将使用神经网络进行数字识别。数据集介绍该数据集共有5000个训练样本,每个样本是20*20像素的灰度图像,每个像素为一个浮点数,表示该位置的灰度强度。20×20的像素网格被展开成一个400维的向量。在
shy~
·
2023-11-30 01:27
机器学习
python
机器学习
吴恩达
机器学习课后作业Python实现 01 Linear Regression
文章目录题目说明单变量线性回归梯度下降正则方程调用sklearn库多变量线性回归题目说明在本部分的练习中,您将使用一个变量实现线性回归,以预测食品卡车的利润。假设你是一家餐馆的首席执行官,正考虑在不同的城市开设一个新的分店。该连锁店已经在各个城市拥有食品卡车,而且你有来自城市的利润和人口数据。您希望通过使用这些数据来帮助您扩展到下一个城市。单变量线性回归导入库importnumpyasnpimpo
shy~
·
2023-11-30 01:57
机器学习
python
机器学习
吴恩达
机器学习课后作业Python实现 02 Logistic Regression
文章目录逻辑回归正则化逻辑回归逻辑回归题目描述设想你是某大学相关部分的管理者,想通过申请学生两次测试的评分,来决定他们是否被录取。现在你拥有之前申请学生的可以用于训练逻辑回归的训练样本集。对于每一个训练样本,你有他们两次测试的评分和最后是被录取的结果。可以准备构建一个基于两次测试评分来评估录取可能性的分类模型来完成这个预测任务。导入库importnumpyasnpimportpandasaspdi
shy~
·
2023-11-30 01:57
机器学习
python
机器学习
LLM大语言模型学习资料整理2308
2333331、
吴恩达
与OpenAI合作系列课程(中文版)《面向开发者的LLM入门课程》在线阅读地址:https://datawhalechina.github.io/prompt-engineering-for-developers
Mango_Holi
·
2023-11-29 19:05
语言模型
人工智能
自然语言处理
动手学
深度学习笔记
day9
卷积神经网络(convolutionalneuralnetworks,CNN)图像不是二维张量,而是一个由高度、宽度和颜色组成的三维张量,比如包含个像素。前两个轴与像素的空间位置有关,而第三个轴可以看作是每个像素的多维表示。互相关运算互相关运算(cross-correlation):在卷积层中,输入张量和核张量通过互相关运算产生输出张量。在图中,输入是高度为3、宽度为3的二维张量(即形状为3×3)
努力学习的廖同学
·
2023-11-29 17:24
深度学习
神经网络
cnn
吴恩达
《机器学习》10-6-10-7:学习曲线、决定下一步做什么
一、学习曲线1.学习曲线概述学习曲线将训练集误差和交叉验证集误差作为训练集实例数量(m)的函数绘制而成。这意味着从较少的数据开始,逐渐增加训练集的实例数量。该方法的核心思想在于,当训练较少数据时,模型可能会完美地适应这些数据,但这并不代表它能够很好地适应交叉验证集或测试集数据。2.识别高偏差/欠拟合在学习曲线中,对于高偏差或欠拟合的情况,增加训练集数据可能不会显著改善模型效果。具体而言,如果使用一
不吃花椒的兔酱
·
2023-11-29 12:48
机器学习
机器学习
学习
笔记
吴恩达
深度学习(六)
超参数调整第一课:调整过程调整神经网络的过程包含了对许多不同超参数的设置,那么怎么样为这些参数找到比较合适的设定值呢?准则和系统化进行超参数设置的技巧将帮助你更加快速有效的获得合适的超参数。在深度神经网络训练中,面对大量的超参数,包括学习速率α、动量超参数β1、Adam优化算法中的超参数β2和ε、网络层数以及每层网络中隐藏单元的数量、学习率衰减情况下不可能只有单一的学习率、mini-batch的大
带刺的小花_ea97
·
2023-11-29 02:12
深度学习笔记
目录TensorBoard的使用Transforms的使用TorchVision中数据集的使用Dataloader的使用卷积操作神经网络-卷积层最大池化非线性激活线性层小型网络搭建和Sequential使用损失函数与反向传播优化器网络模型的使用及修改完整模型的训练利用gpu训练模型验证自动求导线性神经网络线性回归基础优化算法线性回归的从零开始实现线性回归的简洁实现softmax回归图像分类数据集s
czyxw
·
2023-11-28 23:21
python
深度学习
前向传播算法
跟着
吴恩达
老师入门机器学习所谓前向传播就是也就是从左向右的算法首先根据W的列数来判断有多少个神经元,W.shape[1]就是输出W矩阵的列数每个神经元都会输出一个值循环遍历获得这层所有的神经元的输出a_out
passerby58
·
2023-11-28 17:35
算法
python
深度学习
Coursera-
吴恩达
机器学习课程个人笔记-Week2
Week2线性回归和梯度下降法参数说明1.多特征的线性回归方程2.梯度下降法(GradientDescent)2.1如何选择参数向量θ呢?2.2优化梯度下降法的方法 1).特征缩放(特征标准化) 2).学习率α的选择2.3批量梯度下降算法和随机梯度下降算法3.线性回归的“非线性拟合”4.目标函数J(θ)的最小值的线性代数求法(了解)4.1目标函数J(θ)的最小值求解过程:4.2梯度下降法和线代
lavendelion
·
2023-11-28 15:22
机器学习笔记
吴恩达
机器学习
笔记
02、Tensorflow实现手写数字识别(数字0-9)
02、Tensorflow实现手写数字识别(数字0-9)开始学习机器学习啦,已经把
吴恩达
的课全部刷完了,现在开始熟悉一下复现代码。对这个手写数字实部比较感兴趣,作为入门的素材非常合适。
怡步晓心l
·
2023-11-27 06:50
人工智能
tensorflow
人工智能
python
[深度学习]动手学
深度学习笔记
-10
Task5——卷积神经网络基础;leNet;卷积神经网络进阶10.1卷积神经网络(CNN)基础卷积神经网络是一种用来处理局部和整体相关性的计算网络结构,被应用在图像识别、自然语言处理甚至是语音识别领域,因为图像数据具有显著的局部与整体关系,其在图像识别领域的应用获得了巨大的成功。10.1.1卷积神经网络的组成层图10.1卷积神经网络示意图以图像分类任务为例,在表10.1所示卷积神经网络中,一般包含
田纳尔多
·
2023-11-26 12:16
深度学习
深度学习
卷积
【
深度学习笔记
】03 微积分与自动微分
03微积分与自动微分导数和微分导数解释的可视化偏导数梯度链式法则自动微分非标量变量的反向传播分离计算导数和微分假设我们有一个函数f:R→Rf:\mathbb{R}\rightarrow\mathbb{R}f:R→R,其输入和输出都是标量。如果fff的导数存在,这个极限被定义为f′(x)=limh→0f(x+h)−f(x)h.f'(x)=\lim_{h\rightarrow0}\frac{f(x+
LiuXiaoli0720
·
2023-11-26 09:27
深度学习笔记
深度学习
笔记
人工智能
【
深度学习笔记
】04 概率论基础
04概率论基础概率论公理联合概率条件概率贝叶斯定理边际化独立性期望和方差模拟投掷骰子的概率随投掷次数增加的变化概率论公理概率(probability)可以被认为是将集合映射到真实值的函数。在给定的样本空间S\mathcal{S}S中,事件A\mathcal{A}A的概率,表示为P(A)P(\mathcal{A})P(A),满足以下属性:对于任意事件A\mathcal{A}A,其概率从不会是负数,即
LiuXiaoli0720
·
2023-11-26 09:27
深度学习笔记
深度学习
笔记
概率论
【
深度学习笔记
】01 数据操作与预处理
01数据操作与预处理一、数据操作1.1基本数据操作1.2广播机制1.3索引和切片1.4节省内存1.5转换为其他Python对象二、数据预处理读取数据集处理缺失值转换为张量格式练习一、数据操作1.1基本数据操作导入torchimporttorch张量表示一个由数值组成的数组,这个数组可能有多个维度(轴)。具有一个轴的张量对应数学上的向量(vector),具有两个轴的张量对应数学上的矩阵(matrix
LiuXiaoli0720
·
2023-11-26 09:57
深度学习笔记
深度学习
笔记
人工智能
深度学习笔记
—— 线性代数
线性代数实现:1.标量由只有一个元素的的张量表示importtorchx=torch.tensor([3.0])y=torch.tensor([2.0])2.可以将向量视为标量值组成的列表x=torch.arange(4)#通过张量的索引来访问任一元素x[3]3.访问张量的长度x=tensor.arange(4)len(x)Output:4只有一个轴的张量,形状只有一个元素x.shapeOutpu
Whisper_yl
·
2023-11-26 09:26
#
深度学习
深度学习
线性代数
pytorch
【
深度学习笔记
】02 线性代数基础
线性代数基础线性代数基础标量向量长度、维度和形状矩阵张量算法的基本性质降维非降维求和点积(DotProduct)矩阵-向量积矩阵-矩阵乘法范数线性代数基础标量标量由只有一个元素的张量表示importtorchx=torch.tensor(3.0)y=torch.tensor(2.0)x+y,x*y,x/y,x**y(tensor(5.),tensor(6.),tensor(1.5000),tens
LiuXiaoli0720
·
2023-11-26 09:22
深度学习笔记
深度学习
笔记
线性代数
斯坦福机器学习 Lecture3
卧槽,
吴恩达
讲得太好了22:20-41:00接下来我们看交叉熵(逻辑回归)推导逻辑回归定义交叉熵推导今天的机器学习就学到这里,先做作业TODO:here
shimly123456
·
2023-11-26 05:51
斯坦福机器学习
机器学习
人工智能
适合有编程基础的人看的《韩顺平零基础30天学java》笔记【最后一章:正则表达式】
无意间发现韩顺平老师的课程,细心细致,讲课和
吴恩达
老师一样,都是保姆式讲解,各种基础知识都会补充,爱了。
努力学习的程序兔一枚
·
2023-11-25 23:01
java后端开发学习
java
吴恩达
机器学习作业4(python)
git参考(课程+代码+作业)代码不包括画图部分正向传播importnumpyasnpimportmatplotlib.pylabaspltimportscipy.ioassioimportmathimportscipy.optimizeasop#神经网络#分类(识别)手写数字图片np.set_printoptions(threshold=np.inf)#print()可以显示所有数据data=s
之江小林
·
2023-11-25 16:27
机器学习
python
机器学习
numpy
吴恩达
机器学习作业2(python)
git参考(课程+代码+作业)代码不包括画图部分逻辑回归op.minimize高级算法计算代价最小值importnumpyasnpimportscipy.optimizeasop#逻辑回归,分类问题#梯度下降,高级算法求最小代价defsigmoid(z):return1/(1+np.exp(-z))defcostFunction(theta,x,y):m=np.size(y)h=sigmoid(x
之江小林
·
2023-11-25 16:57
机器学习
python
吴恩达
机器学习作业3(python)
git参考(课程+代码+作业)代码不包括画图部分逻辑回归importnumpyasnpimportmatplotlib.pylabaspltimportscipy.ioassioimportmathimportscipy.optimizeasop#逻辑回归#分类(识别)手写数字图片defsigmoid(z):return1/(1+np.exp(-z))defcostFunction(theta,x
之江小林
·
2023-11-25 16:57
机器学习
python
2023-11-21时间记录
听英语课程深度学习阅读书籍,也可以练练字今天干了什么2023-11-21时间记录8:30(下床)10:00(开始学习)学习输出8:30(下床)洗漱煮蛋,9:45出门10:00(开始学习)10:00-11:30英语听力
吴恩达
深度学习
多喝开水少熬夜
·
2023-11-25 14:37
学习计划与实际
学习
01、Tensorflow实现二元手写数字识别
01、Tensorflow实现二元手写数字识别(二分类问题)开始学习机器学习啦,已经把
吴恩达
的课全部刷完了,现在开始熟悉一下复现代码。对这个手写数字实部比较感兴趣,作为入门的素材非常合适。
怡步晓心l
·
2023-11-25 13:14
人工智能
tensorflow
人工智能
python
菜菜的Python学习日记 | Python从入门到入土详解
我的其他日记菜菜的刷题日记|被LeetCode用Python狂虐的那段日子菜菜的并发编程笔记|Python并发编程详解(持续更新~)菜菜的
深度学习笔记
|基于Python的理论与实现数据分析入门|kaggle
猿知
·
2023-11-25 03:12
Python
python
开发语言
后端
算法
人工智能
吴恩达
《机器学习》9-7-9-8:综合起来、自主驾驶
在神经网络的使用过程中,需要经历一系列步骤,从网络结构的选择到训练过程的实施。以下是使用神经网络时的主要步骤的小结:一、网络结构的选择输入层:第一步是选择网络结构,即确定神经网络的层数以及每层的单元数。输入层的单元数应该等于训练集的特征数量。输出层:输出层的单元数应该等于训练集中结果的类的数量。隐藏层:如果有隐藏层,确保每个隐藏层的单元数相同。通常情况下,隐藏层单元的数量越多越好。需要决定的是隐藏
不吃花椒的兔酱
·
2023-11-24 16:05
机器学习
机器学习
学习
笔记
机器学习(1)监督学习和无监督学习
斯坦福大学
吴恩达
教授的机器学习课程堪称经典,参考该课程,来和大家一起入门学习机器学习这一领域。机器学习是什么?不存在一个被广泛认可的定义在进行特定编程的情况下,给予计算机学习能力的领域。
天凉玩个锤子
·
2023-11-24 13:40
吴恩达
Coursera深度学习课程 course2-week1 深度学习的实践层面 总结
P0前言第二门课:ImprovingDeepNeuralNetworks:Hyperparameterturing,RegularizationandOptimization(改善深层神经网络:超参数调试、正则化以及优化)第一周:PracticalaspectsofDeepLearning(深度学习的实践层面)主要知识点:(Train/Dev/Testsets)训练测试集划分、(Bias/Vari
ASR_THU
·
2023-11-23 19:40
超参数调试
正则化
吴恩达
深度学习课程
优化
Course1-Week2-多输入变量的回归问题
用于多元线性回归的梯度下降法2.使梯度下降法更快收敛的技巧2.1特征缩放2.2判断梯度下降是否收敛2.3如何设置学习率3.特征工程3.1选择合适的特征3.2多项式回归笔记主要参考B站视频“(强推|双字)2022
吴恩达
机器学习
虎慕
·
2023-11-23 19:39
#
机器学习-吴恩达
回归
数据挖掘
人工智能
2022
吴恩达
机器学习第3课week3
2022
吴恩达
机器学习课程学习笔记(第三课第三周)1-1什么是强化学习1-2示例:火星探测器1-3强化学习的回报1-4决策:强化学习中的策略1-5审查关键概念2-1状态-动作价值函数定义2-2状态-动作价值函数示例
天微亮。
·
2023-11-23 19:38
吴恩达机器学习
机器学习
人工智能
算法
吴恩达
深度学习Course1-Week(3)
吴恩达
深度学习Course1-Week(3)文章目录
吴恩达
深度学习Course1-Week(3)一、什么是神经网络NeuralNetwork?
木心
·
2023-11-23 19:35
DeepLearning
神经网络
深度学习
机器学习
吴恩达
深度学习Course1-Week(1)(2)
吴恩达
深度学习Course1-Week(1)(2)文章目录
吴恩达
深度学习Course1-Week(1)(2)一、影响神经网络的性能的因素二、逻辑回归(logisticregression)中的一些符号(
木心
·
2023-11-23 19:05
DeepLearning
深度学习
神经网络
机器学习
吴恩达
深度学习Course2-Week(1)
吴恩达
深度学习Course2-Week(1)文章目录一、Train/Dev/Test二、为什么双边导数的定义精度更高?
木心
·
2023-11-23 19:05
DeepLearning
深度学习
机器学习
Course 5-Recurrent Neural Networks--Week 1
吴恩达
老师的RNN课程已经学了一遍了,但总觉得自己学得不够明白,怎么办?再来一遍啊。书读百遍其义自见嘛!
岱宗雪
·
2023-11-23 19:31
深度学习
深度学习
吴恩达
深度学习笔记
5-Course2-Week1【深度学习的实用层面】
改善深层神经网络:超参数调试、正则化以及优化深度学习的实用层面一、训练、验证、测试集样本数据分成以下三个部分:训练集(trainset):用于对模型进行训练。验证集(hold-outcrossvalidation/developmentset):对不同模型进行评估。测试集(testset):对选取的模型进行无偏评估。node:验证集要和训练集最好来自于同一个分布,可以使得机器学习算法变快。如果不需
Wang_Jiankun
·
2023-11-23 19:28
吴恩达深度学习
吴恩达深度学习笔记
深度学习
神经网络
吴恩达
吴恩达
深度学习笔记
8-Course3-Week1【机器学习策略(ML Strategy)1】
结构化机器学习项目机器学习策略(MLStrategy)1一、机器学习策略介绍(IntroductiontoMLStrategy)1、机器学习策略就是超参数调优的策略,怎么调?怎们评估调优的效果?调哪些超参的效果更好?超参数调优的次序?下图是一些经常调优的超参:2、正交化(Orthogonalization)正交化或正交性是一种系统设计属性,可确保修改算法的某一部分不会对系统的其他部分产生或传播副作
Wang_Jiankun
·
2023-11-23 19:58
吴恩达深度学习
吴恩达深度学习笔记
吴恩达
深度学习
【机器学习小记】【平面数据分类】deeplearning.ai course1 3rd week programming
np.dot()与np.multiply()的区别结果使用简单逻辑回归测试不同的隐藏层神经元数测试其他数据集原始数据集测试不同的隐藏层神经元数目标:带有一个隐藏层的平面数据分类神经网络参考自:【中文】【
吴恩达
课后编程作业
LittleSeedling
·
2023-11-23 19:27
#
初学深度学习
机器学习
神经网络
吴恩达
、李飞飞等大咖为AI公司数据问题支招
来源:新智元作者:胡祥杰本文长度为5633字,建议阅读6分钟本文为你介绍
吴恩达
、李飞飞等6位走在AI研究前线的大人物和机构负责人对“数据”的见解。
「已注销」
·
2023-11-23 13:39
吴恩达
与 OpenAI 强强联手,《ChatGPT 提示工程》中英教程,来了!(附脑图笔记)
吴恩达
老师在五一前发布了新课程,于是我花了些时间来学习这个重磅大礼。课程虽然只有短短90分钟,但是干货十足!比起那些必备提示词什么的真是强太多了。正所谓“授人以鱼不如授人以渔”。
Kevin涛
·
2023-11-23 09:07
程序人生
吴恩达
深度学习课后编程作业IndexError: only integers, slices (`:`), ellipsis (`...`), numpy.newaxis (`None`) and i
吴恩达
深度学习课后编程作业出现的错误IndexError:onlyintegers,slices(":“),ellipsis(”…"),numpy.newaxis(“None”)andintegerorbooleanarraysarevalidindices
坤坤不爱吃鱼
·
2023-11-23 05:33
机器学习及深度学习
python
机器学习
深度学习
神经网络
吴恩达
《机器学习》9-4-9-6:实现注意:展开参数、梯度检验、随机初始化
一、实现注意:展开参数在上一个视频中,讨论了使用反向传播算法计算代价函数的导数。在本视频中,将简要介绍一个实现细节,即如何将参数从矩阵展开为向量。这样做是为了在高级最优化步骤中更方便地使用这些参数。二、梯度检验在神经网络中使用梯度下降算法时,复杂模型可能导致一些难以察觉的错误,即使代价函数在减小,最终结果也可能并非最优解。为了解决这个问题,采用一种称为梯度检验(GradientChecking)的
不吃花椒的兔酱
·
2023-11-23 05:34
机器学习
机器学习
学习
笔记
LLM prompt提示构造案例
参考:https://github.com/PlexPt/awesome-chatgpt-prompts-zh
吴恩达
prompt工程应用:https://www.bilibili.com/video/BV1No4y1t7Znprompt
loong_XL
·
2023-11-22 21:01
深度学习
prompt
deeplearning AI 笔记-1.1
之前
吴恩达
的deeplearning系列的课程,看完就忘了,所以这次做个笔记的主要目的是为了方便复习所用。大多数内容都是从黄海广博士的笔记里面摘抄过来的。如有错误,烦请指正,补充。
安于此生__
·
2023-11-22 17:39
动手学
深度学习笔记
---4.3 解决过拟合_权重衰减与Dropout
一、权重衰退(Weight_decay)正则限制针对模型训练时出现的过拟合问题,限制模型容量是一种很好的解决方法,目前常用的方法有以下两种:缩小模型参数量,例如降低模型层数,使得模型更加轻量化,L1L1L1正则化通过限制参数值的选择范围来控制模型容量,L2L2L2正则化:使用均方范数作为硬性限制,即对于参数w,bw,bw,b,假设其损失函数为l(w,b)l(w,b)l(w,b),则其优化目标为mi
Aaaaaki
·
2023-11-22 15:06
深度学习
机器学习
人工智能
第七章 卷积神经网络
image.png1553411117095.png
吴恩达
1pic1猫分类image.pngimage.pngimage.png车识别image.png合image.png新型艺术image.pngpic2
Onion_998f
·
2023-11-21 07:14
GRU、LSTM、双向循环神经网络
动手学
深度学习笔记
一、门控循环单元(GRU)1.重置门和更新门2.候选隐状态3.隐状态4.PyTorch代码二、长短期记忆网络(LSTM)1.输入门、遗忘门和输出门2.记忆元3.隐状态4.PyTorch
葫芦娃啊啊啊啊
·
2023-11-21 02:42
深度学习知识点
lstm
rnn
gru
pytorch
【
深度学习笔记
】6.循环神经网络
循环神经网络计算图计算图的引入是为了后面更方便的表示网络,计算图是描述计算结构的一种图,它的元素包括节点(node)和边(edge),节点表示变量,可以是标量、矢量、张量等,而边表示的是某个操作,即函数。下面这个计算图表示复合函数关于计算图的求导,我们可以用链式法则表示,有下面两种情况。情况1情况2[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-SUose3jf-16
不休的turkeymz
·
2023-11-21 02:08
深度学习
python
深度学习
人工智能
循环神经网络
rnn
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他