E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Pytorch-深度学习实践
【PyTorch
深度学习实践
】09_卷积神经网络基础
文章目录1.卷积操作1.1卷积操作1.2padding-填充1.3stride-步长1.4pooling-池化1.5基础版CNN代码示例1.6完整CNN代码示例1.卷积操作卷积神经网络概览1.1卷积操作输入通道数=卷积核通道数,卷积核个数=输出通道数1.2padding-填充padding是为了让源图像最外一圈或多圈像素(取决于kernel的尺寸),能够被卷积核中心取到。这里有个描述很重要:想要使
青山的青衫
·
2023-01-16 06:28
#
Pytorch
深度学习
cnn
pytorch
pytorch
深度学习实践
_p10_CNN卷积神经网络实现数字辨识
完整代码importtorchfromtorchvisionimporttransformsfromtorchvisionimportdatasetsfromtorch.utils.dataimportDataLoaderimporttorch.nn.functionalasFimporttorch.optimasoptim#1、准备数据集batch_size=64transform=transf
L_halley
·
2023-01-16 06:28
pytorch深度学习实践
神经网络
卷积
pytorch-
损失函数和优化器理解
在构建好神经网络之后,我们需要对神经网络进行更新,更新的依据就是根据实际数据在网络上的表现,求出我们的期望target和实际上的值eval之间的差距,也就是loss,然后使用优化器更新网络使得loss变小。1.损失函数pycharm提供了很多现成的损失函数,但是在遇到实际问题时需要根据我们遇到的问题自己定义损失loss究竟是多少。这里举一个例子:对于分类问题,pycharm专门提供了的交叉熵损失函
THEENDOFTHEICE
·
2023-01-15 09:24
XCB的神经网络学习
神经网络
深度学习
pytorch
python
cnn池化层输入通道数_(
pytorch-
深度学习系列)CNN中的池化层-学习笔记
CNN中的池化层首先,池化(pooling)层的提出是为了缓解卷积层对位置的过度敏感性。什么意思?比如在图像边缘检测问题中,实际图像里,我们的目标物体不会总出现在固定位置,即使我们连续拍摄同一个物体也极有可能出现像素位置上的偏移。这会导致同一个边缘对应的输出可能出现在卷积输出的边缘的不同位置,从而对模式识别造成影响。与卷积层类似,池化层每次也是对输入数据的一个固定窗口内的元素计算输出但是池化层不同
weixin_39996478
·
2023-01-15 07:30
cnn池化层输入通道数
Pytorch-
模型参数:named_parameters()、parameters()、state_dict()区别
torch中存在3个功能极其类似的方法,它们分别是model.parameters()、model.named_parameters()、model.state_dict(),下面就具体来说说这三个函数的差异:一、model.parameters()和model.named_parameters()差别named_parameters()返回的list中,每个元组(与list相似,只是数据不可修改
u013250861
·
2023-01-14 13:07
AI/模型调优
parameters
NLP预训练模型小型化与部署的那些事儿
文本问答、结构化数据问答、文本翻译、机器同传、对话系统等实践项目的全流程讲解,旨在帮助开发者更全面清晰地掌握百度飞桨框架在NLP领域的用法,并能够举一反三、灵活使用飞桨框架和PaddleNLP进行NLP
深度学习实践
飞桨PaddlePaddle
·
2023-01-14 09:16
人工智能
深度学习
神经网络
自然语言处理
机器学习
pytorch-
normal_用法
importtorchx=torch.zeros((2,3))x.normal_(0,1)tensor([[-0.8139,0.6736,0.3647],[0.3843,-0.2469,-0.9998]])normal(mean,variance)weight初始化的正态分布。
JasonDecode
·
2023-01-13 16:14
Python
deep
learning
pytorch-
自定义图片数据集
步骤:图片分类存储在不同文件夹下写一个类继承自torch.utils.data.Dataset并重写__len()__和__getitem()__方法打标签写一个把图片路径与标签以”,“分隔存入csv文件,若文件存在能加载数据出来的方法__getitem()__方法把把csv的路径对应的图片读出来,进行转换,return,便于用torch.utils.data.Dataloader加载import
SuGarSJL
·
2023-01-13 15:20
Python
pytorch
深度学习
python
pytorch模型转成java_【PyTorch】生产与学术之Pytorch模型导出为安卓Apk尝试记录
深度学习->android实际使用的这个流程的一个切身感受.说句实在的,对于模型转换的探索,算是我这两天最大的收获了...这两天最近在研究将pytorch的模型转换为独立的app,网上寻找,找到了一个流程:
pytorch
左丘子仲
·
2023-01-13 15:07
pytorch模型转成java
pytorch实战(正在更新)
本文参照多个视频,首先见B站刘二大人的《PyTorch
深度学习实践
》完结合集。
Shengkun Wu
·
2023-01-13 09:12
pytorch
人工智能
python
《PyTorch
深度学习实践
》课上代码笔记 三
自学笔记课程老师:刘二大人河北工业大学教师https://liuii.github.io课程来源:https://www.bilibili.com/video/BV1Y7411d7Ys推荐一个服务器租赁的平台相比于阿里腾讯等平台,亲测性价比要高,显卡有1080Ti、2080Ti、3080Ti等,运行速度自然比自己的笔记本快,也能保护自己心爱的笔记本,实例中有JupyterNotebook、Visu
Zhanglw882
·
2023-01-12 16:16
pytorch课程代码笔记
深度学习
pytorch
神经网络
机器学习
卷积神经网络
【
pytorch-
常见问题】numpy:DLL load failed while importing _multiarray_umath: 找不到指定的模块。
1.问题描述在windows环境下:numpy1.20+anaconda3+pytorch1.102.解决办法有两个关键点:使用了anaconda3,确定当前是哪个env,把这个env的dll路径放到PATH中,我的路径D:\anaconda3\envs\xxxx\Library\bin;在环境中安装包时,最好统一用conda和pip3安装,不要两者混着用,否则可能导致不可预知的bug
lainegates
·
2023-01-12 13:52
pytorch
pytorch
《PyTorch
深度学习实践
》刘二大人 第4讲 反向传播
课堂代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])w.requires_grad=Truedefforward(x):returnw*xdefloss(x,y):y_pred=forward(x)return(y_pred-y)**2forepochinrange(100):forx,yinzip
Grairain
·
2023-01-12 11:54
PyTorch
深度学习实践
深度学习
pytorch
人工智能
B站刘二大人-反向传播Lecture4
系列文章:《PyTorch
深度学习实践
》完结合集-B站刘二大人Pytorch代码注意的细节,容易敲错的地方B站刘二大人-线性回归及梯度下降Lecture3B站刘二大人-反向传播Lecture4B站刘二大人
宁然也
·
2023-01-12 11:23
PyTorch使用
python
机器学习
深度学习
刘二大人 《PyTorch
深度学习实践
》第3讲 梯度下降算法
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、预设一个w值,然后算斜率(梯度),如果梯度大于0,我们要往梯度小的方向进行,即减去它,反之一样。
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
机器学习
刘二大人 《PyTorch
深度学习实践
》第5讲 用Pytorch实现线性回归
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、pytorch神经网络模型2、类后面加括号,表示构造对象;Linear的对象里面包含w和b,将来我们可以直接用Linear
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
线性回归
刘二大人 《PyTorch
深度学习实践
》第8讲 加载数据集(笔记)
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili目录一、知识补充二、课堂代码三、作业一、知识补充1、Dataset和DataLoader是构造数据集的两个类,其中Dataset是构造数据集
qq_39705798
·
2023-01-12 11:47
pytorch
深度学习
人工智能
刘二大人《PyTorch
深度学习实践
》第2讲
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、zip(x_data,y_data)表示将将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表。
qq_39705798
·
2023-01-12 11:17
pytorch
深度学习
python
Pytorch
深度学习实践
(b站刘二大人)P4讲(反向传播)
课堂代码:#反向传播课上代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])#w的初值为1.0w.requires_grad=True#默认为False,True表示需要计算梯度defforward(x):returnx*w#其中w是tensor,乘法运算符被重载,tensor与tensor的乘法,所以
努力学习的朱朱
·
2023-01-12 11:16
pytorch
深度学习
python
《PyTorch
深度学习实践
》Lecture_04 反向传播 Back Propagation
B站刘二大人老师的《PyTorch
深度学习实践
》Lecture_04重点回顾+手记+代码复现+知识补充Lecture_04反向传播BackPropagation一、重点回顾(一)计算图ComputationalGraph1
木夕敢敢
·
2023-01-12 11:12
PyTorch深度学习
深度学习
机器学习
python
刘二大人 《Pyorch
深度学习实践
》第4讲 反向传播
指路☞《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili知识补充:1、从左到右是前向,从右到左是反向传播*****************************************
qq_39705798
·
2023-01-12 11:39
深度学习
人工智能
Pytorch-
《Deep learning with pytorch》1.2.1训练imagenetmini
最近在学习《Deeplearningwithpytorch》,跟着b站的一个up主敲代码,本篇内容对应这个视频大佬带你啃透【深度学习与pytorch】官方权威书籍P4。因为我是轻薄本,所以选择在colab上进行的实验,如果你的电脑内存够,配置也ok是可以直接在自己电脑上运行的。一下进入正题:实验内容:使用Alexnet和resnet101对imageNet进行训练。(因为内存原因,我用的image
在楼梯口吃芒果的是我
·
2023-01-12 08:31
pytorch学习
深度学习
pytorch
人工智能
Pytorch-
《Deep learning with pytorch》1.2.2 使用GAN将“马变成斑马”
最近在学习《Deeplearningwithpytorch》,跟着b站的一个up主敲代码,本篇内容对应视频。(实验在colab上完成,对此感兴趣的可以看这一篇,有使用介绍。)实现内容:使用GAN生成式对抗网络,将图中的马变成斑马。实验准备:实验所需要的文件可以通过百度网盘获得:horse.jpghorse2zebra_0.4.0.pth链接:https://pan.baidu.com/s/1iOS
在楼梯口吃芒果的是我
·
2023-01-12 08:46
pytorch学习
深度学习
pytorch
生成对抗网络
pytorch-
权重衰退(weight decay)和丢弃法(dropout)
解决过拟合的常用两种方法:1、权重衰退常用方法:L1,L2正则化L2正则化:一个神经网络训练至loss收敛时,会有多个w,b符合条件。如果w过大,则输入层的噪声将会被放大,导致结果也会不准确,因此需要尽量减少w的值。正则化通过为模型的损失函数加入惩罚项使得学出的模型参数值比较小。2、丢弃法(只能用于全连接层)dropout不改变其输入的期望值,只在模型训练的时候使用有p的概率,hi会清零有1-p的
我渊啊我渊啊
·
2023-01-10 17:42
pytorch
深度学习
人工智能
【PyTorch
深度学习实践
】05_逻辑斯蒂回归
文章目录1.分类问题相关数据集1.1MINIST1.2CIFAR-102.回归(Regression)VS分类(Classification)2.1模型对比2.2损失函数对比2.3实现代码对比3.完整代码之前使用线性回归解决的都是**回归(预测)**问题,逻辑斯蒂回归模型可以用来解决另一大问题——分类。注意逻辑斯蒂回归虽然名为回归,但解决的是分类问题,是最简单的分类问题模型,用于解决二分类。1.分
青山的青衫
·
2023-01-10 16:01
#
Pytorch
深度学习
pytorch
回归
PyTorch
深度学习实践
——4.反向传播
PyTorch
深度学习实践
——4.反向传播课程链接:《PyTorch
深度学习实践
》4.反向传播思路:1、先算损失loss2、算反向传播backwardloss.backward():dloss\dw==
皮肤科大白
·
2023-01-10 16:30
pytorch
python
深度学习
pytorch
python
《Pytorch
深度学习实践
》反向传播课程代码
importtorchimportnumpyasnpimportmatplotlib.pyplotaspltx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.Tensor([0.0])w.requires_grad=True#是否需要计算梯度=truedefforward(x):returnx*wdefloss(x,y):#创建一个计算图y_pred=
相心木
·
2023-01-10 16:30
pytorch
深度学习
机器学习
PyTorch
深度学习实践
第5讲 用PyTorch实现线性回归
importtorchx_data=torch.tensor([[1.0],[2.0],[3.0]])y_data=torch.tensor([[2.0],[4.0],[6.0]])classLinearModel(torch.nn.Module):def__init__(self):super(LinearModel,self).__init__()#(1,1)是指输入x和输出y的特征维度,这里
Grairain
·
2023-01-10 16:00
PyTorch
深度学习实践
深度学习
pytorch
线性回归
Pytorch
深度学习实践
Lecture_4 Back Propagation
up主刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili反向传播可以通过链式法则,使得梯度在计算图中进行反向传播在Pytorch中,Tensor对象包含data和grad两个属性 data:用于存放tensor,是数据本体。 grad:存放data的梯度值(默认不计算梯度)在Pytorch中,Tensor之间的计算即为动态生成计算图(谨记)importtorchimportmatp
endeavor`
·
2023-01-10 16:58
Pytorch深度学习实践
pytorch
【PyTorch
深度学习实践
】深度学习之反向传播,用PyTorch实现线性回归和Logistic回归
文章目录前言一、反向传播二、用PyTorch实现线性回归三、Logistic回归总结前言继上一节讲的线性模型和梯度下降法后,本节将在此基础上讲解反向传播,用PyTorch实现线性回归和Logistics回归一、反向传播误差反向传播法(Back-propagation,BP)会计算神经网络中损失函数对各参数的梯度,配合优化方法更新参数,降低损失函数。BP本来只指损失函数对参数的梯度通过网络反向流动的
今天又干了些什么呢
·
2023-01-10 16:25
深度学习
回归
pytorch
线性回归
Pytorch
深度学习实践
-反向传播
反向传播原理学习内容来自刘二大人
深度学习实践
课程https://b23.tv/ELo6f7以及博客https://www.cnblogs.com/charlotte77/p/5629865.html下面是反向传播代码实现二次模型
L_Moonshine
·
2023-01-10 16:54
机器学习知识总结
python
机器学习
PyTorch
深度学习实践
05用pytorch实现线性回归 __call__ 和forward函数
PyTorch
深度学习实践
05用pytorch实现线性回归call和forward函数__call__先上结论:model(x_data)到底是怎么调用的:相当于model(x_data)实际上调用的是
念旧人丶
·
2023-01-10 16:53
深度学习
pytorch
深度学习
线性回归
PyTorch
深度学习实践
——4.反向传播&作业
课程链接:《PyTorch
深度学习实践
》4.反向传播思路:1、先算损失loss2、算反向传播backwardloss.backward():dloss\dw==w.grad(Tensor)3、更新权重ww.data
青芒小智
·
2023-01-10 16:22
深度学习
PyTorch
深度学习
python
PyTorch
深度学习实践
——用pytorch实现线性回归
参考资料参考资料1:https://blog.csdn.net/bit452/article/details/109677086参考资料2:http://biranda.top/Pytorch%E5%AD%A6%E4%B9%A0%E7%AC%94%E8%AE%B0005%E2%80%94%E2%80%94%E5%8F%8D%E5%90%91%E4%BC%A0%E6%92%AD%E7%AE%97%E
没有人会真的躺平
·
2023-01-10 16:52
PyTorch
深度学习实践
深度学习
pytorch
pytorch
深度学习实践
4——反向传播
利用pytorch实现反向传播,简单代码#-*-coding:utf-8-*-"""SpyderEditorThisisatemporaryscriptfile."""importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.Tensor([1.0])w.requires_grad=Truedefforward(x):returnx*wd
Hao &
·
2023-01-10 16:49
深度学习笔记
pytorch
深度学习实践
_p5_用pytorch实现线性回归
知识点补充torch.nn.Linear(input_dim,output_dim)input_dim:输入的维度,即特征x的个数output_dim:输出的维度,即输出y的个数torch.nn.MSELoss(size_average=True,reduce=True)size_average:True表示求batch中损失值的平均数;False表示求batch损失值的总和。默认为True。re
L_halley
·
2023-01-10 16:48
python
pytorch
人工智能
机器学习
【PyTorch
深度学习实践
】03_反向传播
文章目录1.计算图2.反向传播2.1链式求导法则2.2反向传播过程3.Pytorch中前馈和反馈的计算3.1Tensor3.2代码演示对于简单的模型,梯度变换可以用解析式表达进行手算,但是复杂模型(很多w,b)的损失函数需要挨个写解析式,非常不好计算(主要是求导)。因此,可以考虑使用某种算法,把整个网络看做一个计算图,在图上传播整个梯度。这种算法,就称为反向传播算法。转载:梯度下降法是通用的优化算
青山的青衫
·
2023-01-10 16:46
#
Pytorch
深度学习
pytorch
【PyTorch
深度学习实践
】04_用PyTorch实现线性回归
文章目录1.模型训练步骤2.实现过程2.1准备数据集2.2设计模型2.3设计损失函数和优化器2.4训练过程3.完整代码1.模型训练步骤1.准备数据集dataset和dataloader2.设计模型3.构造损失函数和优化器4.训练过程前馈(算损失)、反馈(算梯度)、更新(用梯度下降更新)2.实现过程2.1准备数据集importtorch#x,y这里都是张量x_data=torch.tensor([[
青山的青衫
·
2023-01-10 16:46
#
Pytorch
深度学习
pytorch
线性回归
Tensorboard无法显示图片
这里写自定义目录标题pycharm->
pytorch-
>tensorboard,运行tensorboard,可以正常启动,顺利显示图标函数曲线,但是无法正常显示图片,如图只能看见橙色的点和图标题,报错module
.Kristin
·
2023-01-10 15:15
pytorch
自然语言处理
pycharm
深度学习
pytorch-
优化与深度学习
优化与深度学习优化与估计尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。优化方法目标:训练集损失函数值深度学习目标:测试集损失函数值(泛化性)%matplotlibinlineimportsyssys.path.append('/home/kesci/input')importd2lzh1981asd2lfrommpl_toolkitsimport
胖虎艾春辉
·
2023-01-10 11:35
机器学习
深度学习
自然语言处理
python
人工智能
数学建模
自然语言处理
深度学习
深度学习实践
必备工具
下面是自己对深度学习过程中一些工具的知识点的总结,希望能对你有帮助。如果疑问或错误欢迎交流!自己目前的程度也是比较浅的,但是算可以自己远程服务器,改代码,跑实验。搭建好了这些基础环境后,接下来要做的就是多看论文多做实验了!自己只是初探这个领域,接下来的新认识,还会不断更新此文章!目录环境连接工具(基于win10)穿透工具一些小工具(需要可以找我要)一些常用命令Linuxanacoda深度入门书籍视
大海Git
·
2023-01-10 10:46
开发环境
深度学习
模型转换
pytorch-
>onnx->saved_model->tflite
目前的很多模型使用pytorch框架进行训练,移植到android时,需要将模型进行转换:ncnn,tflite等(如Ultra-Fast-Lane-Detection,PFLD网络),下面就针对pytorch结构的Ultra-Fast-Lane-Detection网络进行转换步骤说明。环境配置以下为本人的环境配置:torch1.6.0tensorflow-gpu2.3.1onnx1.8.0onn
qq_41669468
·
2023-01-10 08:03
模型转换
Pytorch
深度学习实践
(b站刘二大人)P11讲 (CNN卷积神经网络高级篇)
1.GoogLeNet:蓝色的块是卷积,红色的块是池化,黄色的是softmax减少代码冗余:函数/类当网络结构复杂,对于类似或者相同的子结构,就可以把这个子结构(块)封装成一个类GoogleNet,常被用作基础主干网络,图中红色圈出的一个部分称为Inception块2.InceptionModule解析卷积核的大小:GoogleNet的下面这个块出发点是不知道多大的卷积核好用,那就在一个块里面把这
努力学习的朱朱
·
2023-01-09 22:20
pytorch
深度学习
cnn
PyTorch
深度学习实践
GPU版本B站 刘二大人第11讲卷积神经网络(高级篇)GPU版本
第11讲卷积神经网络(高级篇)GPU版本源代码原理是基于B站刘二大人:传送门PyTorch
深度学习实践
——卷积神经网络(高级篇)这篇基于博主错错莫:传送门
深度学习实践
第11讲博文仅在他的基础上加入了GPU
中杯可乐多加冰
·
2023-01-09 22:18
心源易码
pytorch
深度学习
cnn
残差块
GPU
Pytorch
深度学习实践
Lecture_9 Softmax Classifier
up主刘二大人视频链接刘二大人的个人空间_哔哩哔哩_Bilibili使用Softmax预测多分类问题输出需要满足分布的条件1)2)假设是最后一层的输出,Softmax公式为示例损失函数(交叉熵)numpy计算loss示例:importnumpyasnpy=np.array([1,0,0])z=np.array([0.2,0.1,-0.1])y_pred=np.exp(z)/np.exp(z).su
endeavor`
·
2023-01-09 19:14
Pytorch深度学习实践
pytorch
深度学习
人工智能
学习日记(三)
目录PyTorch学习Sklearn学习前沿如何从GitHub下载csv文件PyTorch学习《PyTorch
深度学习实践
》完结合集-刘二大人https://blog.csdn.net/weixin_44410569
沟壑星空qq_42946961
·
2023-01-09 19:31
学习
读书笔记-深度学习入门之
pytorch-
第四章(含卷积神经网络实现手写数字识别)(详解)
1、卷积神经网络在图片识别上的应用(1)局部性:对一张照片而言,需要检测图片中的局部特征来决定图片的类别(2)相同性:可以用同样的模式去检测不同照片的相同特征,只不过这些特征处于图片中不同的位置,但是特征检测所做的操作是不变的(3)不变性:对于一张大图片,如果我们进行下采样,图片的性质基本保持不变2、全连接神经网络处理大尺寸图像的缺点:(1)首先将图像展开为向量会丢失空间信息;(2)其次参数过多效
ZDA2022
·
2023-01-09 13:38
机器学习
python
机器学习
深度学习
《PyTorch
深度学习实践
》第十三课(循环神经网络RNN高级版)
b站刘二视频,地址:《PyTorch
深度学习实践
》完结合集_哔哩哔哩_bilibili网络模型通过RNN模型,实现输出名字,对应出国家的功能构造数据列表长短不一,构造成一样将国家做成输出索引导入数据如果以后数据集为
falldeep
·
2023-01-09 08:35
PyTorch刘二
深度学习
pytorch
rnn
3 PyTorch读入各类形式的数据
欢迎订阅本专栏:《PyTorch
深度学习实践
》订阅地址:https://blog.csdn.net/sinat_33761963/category_9720080.html第二章:认识Tensor的类型
王小小小草
·
2023-01-08 13:01
PyTorch深度学习实践专栏
pytorch
神经网络
《PyTorch
深度学习实践
》-B站 刘二大人-day1
第2讲linear_model源代码B站刘二大人,传送门PyTorch
深度学习实践
——线性模型代码说明:1、函数forward()中,有一个变量w。这个变量最终的值是从for循环中传入的。
爱编程的西瓜
·
2023-01-07 17:13
#
神经网络
pytorch
python
深度学习
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他