E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
python爬虫入门
小白
python爬虫入门
实战(爬取糗事百科)
一.前期准备:1.需要软件:pycharm,xpathhelper,python3.6,chrome浏览器。第一步,百度下载以上软件。附上链接:pycharm的https://www.jetbrains.com/pycharm/点击首页download,下载免费使用的communityxpathhelper的https://pan.baidu.com/s/1c2vYUOw提取密码mutu,下载好后
锋之
·
2020-07-29 14:33
Python3网络爬虫基本操作(一)
简单实例(1).requests安装(2).requests库的基本用法(3).简单实例(4).提取需要的数据一.前言Python版本:Python3.X运行环境:WindowsIDE:PyCharm
Python
Xu.Hn.
·
2020-07-29 04:23
python
网络爬虫
Python爬虫入门
-scrapy爬取唯一图库高清壁纸
首先,就是进入到唯一图库,点击上面的高清壁纸项目:进入之后,下拉,发现是正常的下拉没有Ajax加载,拉到最后面点击末页,可以看出这个栏目里面总共有292页:翻页看一下URL有什么变化,可以发现只有最后面代表这个页码的数字在发生变化:打开F12,刷新,在原始请求代码里面有能进入到进入详情页的链接地址,可以抓取下来:打开任意一张图片,进入到详情页码中,同样的F12,再刷新页面,里面有几个重要的信息我们
小佐佐123
·
2020-07-28 12:08
python爬虫
python爬虫入门
,获取全国气象站24小时整点气象数据(二)
python爬虫入门
,获取全国气象站24小时整点气象数据(一)
python爬虫入门
,获取全国气象站24小时整点气象数据(二)上一节我们已经成功获取了单个城市的天气数据,接下来我们就要扩展到获取全国所有城市地区的气象数据
晚上吃火锅吗
·
2020-07-28 07:50
python爬虫入门
一:关于selenium,request的一些理解
python爬虫入门
,从大白到小白1.关于request,网上有很多爬取猫眼电影的例子,就不在赘述。个人感觉这个更加适用于静态网页,即没有下拉窗口,不需要对界面进行操作。
时过境迁_小马哥
·
2020-07-28 07:27
python
Python爬虫入门
——2. 4 利用正则表达式爬取豆瓣电影 Top 250
现在我们利用上节刚刚学到的正则表达式来爬取豆瓣电影Top250的名单。这是豆瓣电影的连接https://movie.douban.com/top250。豆瓣电影每个页面只有25个数据,所以我们需要爬取10个页面的数据。首先我们观察一下豆瓣电影第一页的URL,并没有发现什么规律,接着我们手动翻到第二页https://movie.douban.com/top250?start=25&filter=以及
酸辣粉不要辣
·
2020-07-28 02:52
Python爬虫入门
Python爬虫
python爬虫入门
之 移动端数据的爬取
第七章移动端数据的爬取基于某一款抓包工具:fiddler,青花瓷,miteproxy7.1fiddler基本配置7.1.1fiddler简介和安装什么是Fiddler?Fiddler是位于客户端和服务器端的HTTP代理,也是目前最常用的http抓包工具之一。它能够记录客户端和服务器之间的所有HTTP请求,可以针对特定的HTTP请求,分析请求数据、设置断点、调试web应用、修改请求的数据,甚至可以修
weixin_30456039
·
2020-07-27 13:19
Python爬虫入门
——2. 5 爬取斗破苍穹并保存到本地TXT
这次我们爬取斗破苍穹http://www.doupoxs.com/doupocangqiong/的全部文字,并保存到本地TXT。话不多说,上代码:#导入requests库importrequests#导入re库#导入时间模块importtimeimportre#定义请求头,请求头可以使爬虫伪装成浏览器headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;
酸辣粉不要辣
·
2020-07-27 12:13
Python爬虫入门
Python爬虫
Python爬虫入门
有哪些基础知识点
1、什么是爬虫爬虫,即网络爬虫,大家可以理解为在网络上爬行的一直蜘蛛,互联网就比作一张大网,而爬虫便是在这张网上爬来爬去的蜘蛛咯,如果它遇到资源,那么它就会抓取下来。想抓取什么?这个由你来控制它咯。比如它在抓取一个网页,在这个网中他发现了一条道路,其实就是指向网页的超链接,那么它就可以爬到另一张网上来获取数据。这样,整个连在一起的大网对这之蜘蛛来说触手可及,分分钟爬下来不是事儿。2、浏览网页的过程
wx5ecc6bcb4713c
·
2020-07-20 13:05
编程语言
程序员
爬虫
python爬虫入门
爬取lpl选手价值排行榜
代码:importrequestsfrombs4importBeautifulSoupimportbs4defgetHTMLText(url):try:r=requests.get(url,timeout=30)r.raise_for_status()r.encoding=r.apparent_encodingreturnr.textexcept:return"访问失败"deffillUnivLi
ining1021
·
2020-07-19 18:38
python
url
Python爬虫入门
:urllib.parse模块
Python爬虫入门
:urllib.parse模块urlparse()基本用法示例参数scheme参数示例allow_fragments参数示例urlunparse()urljoin()urlencode
菜鸟也想要高飞
·
2020-07-16 06:11
学习笔记
Python爬虫入门
:使用urllib.request中的Handler类来构建Opener
Python爬虫入门
:使用urllib.request中的Handler类来构建Opener概述验证代理Cookies获取Cookies存储获取的Cookies保存为普通格式保存为LWP格式读取并利用Cookies
菜鸟也想要高飞
·
2020-07-16 06:11
学习笔记
Python爬虫入门
:Urllib parse库使用详解(二)
获取url参数urlparse和parse_qsfromurllibimportparseurl='https://docs.python.org/3.5/search.html?q=parse&check_keywords=yes&area=default'parseResult=parse.urlparse(url)print(parseResult)#获取某个参数param_dict=par
philos3
·
2020-07-16 04:38
Python
Python 文件基本操作概况
Python爬虫入门
文件基本操作概况1.创作背景1.1IO编程介绍2.1文件读取2.2文件的写入3.1os模块的练习使用3.2对于shutil模块的运用及练习总结1.创作背景由于最近在入门爬虫,接触到了很多地方需要掌握到对于文件的熟悉以及操作
RichardLau_Cx
·
2020-07-15 18:45
Python爬虫入门
:Urllib parse库使用详解(二)
获取url参数urlparse和parse_qsfromurllibimportparseurl='https://docs.python.org/3.5/search.html?q=parse&check_keywords=yes&area=default'parseResult=parse.urlparse(url)print(parseResult)#获取某个参数param_dict=par
三也视界
·
2020-07-15 08:50
python爬虫入门
自我答疑:selenium的介绍
selenium是一套完整的web应用程序测试系统,包含了测试的录制(seleniumIDE),编写及运行(SeleniumRemoteControl)和测试的并行处理(SeleniumGrid)。Selenium的核心SeleniumCore基于JsUnit,完全由JavaScript编写,因此可以用于任何支持JavaScript的浏览器上。selenium可以模拟真实浏览器,自动化测试工具,支
空空橙
·
2020-07-15 06:13
Python爬虫入门
学习例子之煎蛋网(福利哦)
初学Python爬虫,学习资料是这篇博客:
Python爬虫入门
教程经过前边两个例子(糗事百科爬虫和百度贴吧爬虫)的学习,我自己写了一个练习的例子:爬煎蛋网的妹子图,福利哦(*^__^*)#煎蛋网爬图#导入了
login_sonata
·
2020-07-13 07:29
Python
python爬虫入门
到进阶(1)——爬取京东手机图片并保存
文章目录爬虫概念爬虫基本流程http协议请求与响应http协议requestresponse基础模块requestsre正则表达式XPathBeautifulSoupJsonthreading方法实例get方法实例post方法实例添加代理debug_log实例URLError实战爬虫框架Srcapy框架Scrapy主要组件Scrapy的运作流程制作Scrapy爬虫4步曲常用工具fidderXPat
Code进阶狼人
·
2020-07-13 07:19
python爬虫实战
Python爬虫入门
| 5 爬取小猪短租租房信息
小猪短租是一个租房网站,上面有很多优质的民宿出租信息,下面我们以成都地区的租房信息为例,来尝试爬取这些数据。小猪短租(成都)页面:http://cd.xiaozhu.com/ 1.爬取租房标题按照惯例,先来爬下标题试试水,找到标题,复制xpath。 多复制几个房屋的标题xpath进行对比://*[@id="page_list"]/ul/li[1]/div[2]/div/a/span//*[@id=
ZhuNewNew
·
2020-07-13 06:33
Python爬虫入门
教程 72-100 分布式爬虫初步解析-配好环境肝完一半
写在前面最近该系列的爬虫更新比较慢了,原因是实在写不动了,70多篇博客,每一篇都是一个案例,在写好多都不是篇博客可以容纳的了,而且爬虫的技术在70多篇中都有所涉及了,但是flag既然历下了,那么就必须要把它完成,接下来进入一些稍微稍微麻烦一点的内容,第一个咱就写分布式爬虫,这个其实核心就是提高爬取效率的,属于套路,而且是常见的讨论,走起。为什么要用分布式好问题,其实大多数爬虫在编写的时候如果遇到效
梦想橡皮擦
·
2020-07-12 22:21
爬虫100例教程
分布式
python
大数据
爬虫
分布式爬虫
Python爬虫入门
教程 73-100 Python分布式爬虫顶级教程
写在前面题目中有个顶级,忽然觉得这篇博客要弄的高大上一些,要不都对不起标题呢?上篇博客,我们已经将分布式需要配置的一些基本环境已经配置完毕,接下来就是实操环节了,这部分尽量将过程描述清晰,由于我操作的是windows操作系统,所以博客中相关步骤的截图都已windows为准。对于分布式爬虫初学阶段,先从scrapy简单爬虫写起即可。scrapy爬取CSDN下载频道为了测试方便,我找了一个规则比较简单
梦想橡皮擦
·
2020-07-12 21:31
爬虫100例教程
分布式
python
redis
爬虫
搜索引擎
java爬虫程序
爬虫搜索
关键字搜索
python
新浪爬虫
新浪微博
selenium
源码
Python爬虫入门
三之Urllib库的基本使用
1.分分钟扒一个网页下来怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加JS、CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服。所以最重要的部分是存在于HTML中的,下面我们就写个例子来扒一个网页下来。importurllib2response
xuange01
·
2020-07-12 17:18
python
Python爬虫入门
四之Urllib库的高级用法
设置Headers有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers的属性。首先,打开我们的浏览器,调试浏览器F12,我用的是Chrome,打开网络监听,示意如下,比如知乎,点登录之后,我们会发现登陆之后界面都变化了,出现一个新的界面,实质上这个页面包含了许许多多的内容,这些内容也不是一次性就加载完成的,
xuange01
·
2020-07-12 17:18
python
程序员
编程语言
python
python爬虫入门
✦ 下载QQ音乐
此博客仅为我业余记录文章所用,发布到此,仅供网友阅读参考,如有侵权,请通知我,我会删掉。项目案例目标:通过爬虫获取QQ音乐的数据从而进行下载。秉承着拿来主义,各位直接复制黏贴即可使用。代码如题,支持输入歌手或歌曲来查询,从而进行下载歌曲。里面有两个版本,相信有点基础没有基础的看过后都可以理解并运用了。写在前面:整篇文章主要是围绕获取songmid和vkey。整个下来可能会有些啰嗦+繁琐+冗余,但是
SunriseCai
·
2020-07-12 14:14
python爬虫入门
练习:BeautifulSoup爬取猫眼电影TOP100排行榜,pandas保存本地excel文件
传送门:【
python爬虫入门
练习】正则表达式爬取猫眼电影TOP100排行榜,openpyxl保存本地excel文件对于上文使用的正则表达式匹配网页内容,的确是有些许麻烦,替换出现任何的差错都会导致匹配不上的情况
Shuo.Lee
·
2020-07-12 10:55
Python爬虫
Python爬虫入门
之七Request模块
Requests:让HTTP服务人类虽然Python的标准库中urllib模块已经包含了平常我们使用的大多数功能,但是它的API使用起来让人感觉不太好,而Requests自称“HTTPforHumans”,说明使用更简洁方便。Requests唯一的一个非转基因的PythonHTTP库,人类可以安全享用Requests继承了urllib的所有特性。Requests支持HTTP连接保持和连接池,支持使
weixin_30756499
·
2020-07-12 06:09
python爬虫入门
---第二篇:获取2019年中国大学排名
我们需要爬取的网站:最好大学网我们需要爬取的内容即为该网页中的表格部分:该部分的html关键代码为:其中整个表的标签为标签,每行的标签为标签,每行中的每个单元格的标签为标签,而我们所需的内容即为每个单元格中的内容。因此编写程序的大概思路就是先找到整个表格的标签,再遍历标签下的所有标签,最后遍历标签下的所有标签,我们用二维列表来存储所有的数据,其中二维列表中的每个列表用于存储一行中的每个单元格数据,
weixin_30480075
·
2020-07-12 06:57
python爬虫入门
——正则表达式的学习
1.正则表达式RegexPal:在线测试正则表达式网站抓取网站上的图片的URL链接,非常直接的做法就是用findAll("img")抓取所有图片,但是还有隐藏图片的时候,需要用正则表达式来筛选了。importurllib2importbs4importrehtml=urllib2.urlopen("http://www.pythonscraping.com/pages/page3.html")bs
Jassica-M
·
2020-07-12 02:35
python
Python爬虫入门
八之Beautiful Soup的用法
上一节我们介绍了正则表达式,它的内容其实还是蛮多的,如果一个正则匹配稍有差池,那可能程序就处在永久的循环之中,而且有的小伙伴们也对写正则表达式的写法用得不熟练,没关系,我们还有一个更强大的工具,叫BeautifulSoup,有了它我们可以很方便地提取出HTML或XML标签中的内容,实在是方便,这一节就让我们一起来感受一下BeautifulSoup的强大吧。1.BeautifulSoup的简介简单来
shengxiaweizhi
·
2020-07-11 22:49
Python
GitHub:分布式爬虫从零开始
目录我分享过很多关于
Python爬虫入门
到精通的开源项目,每个作者的侧重点都不一样,感兴趣的小伙伴可以翻阅一下历史文章,希望可以给你提供一个不错的选择。开源地址
以王姓自居
·
2020-07-11 19:23
github
python爬虫
javascript
python
爬虫
js
python爬虫入门
——爬取淘宝商品评论信息
python爬虫入门
——爬取淘宝商品评论信息关于爬虫解决难点代码部分:关于爬虫从接触爬虫以来,一直都认为爬虫是一个很简单的东西,至从写了一个从虎扑论坛下载图片的简单爬虫后就一直没有进行研究。
梦想就是钱多事少离家近
·
2020-07-11 18:19
python
Python新手简单应用——基于requests第三方库爬一本小说
本人是一Python学习新手,正在学习Python中,前几天上网搜了下Python的应用场景,主要有:网络爬虫、web开发、自动化运维、机器学习、大数据、人工智能等方向,考虑到这几个方面要求的能力,新手从
Python
沐雨尘风
·
2020-07-11 16:11
Python爬虫入门
——1.2常用第三方库的安装
Python作为一门胶水语言,能够在众多领域流行起来的一个很重要的原因是python具有强大的第三方库。这样就可以拾取线程的零件组装一个完整的程序。这就好比某知名厂商一样,核心部件均购买自国外,然后进行组装,贴上巨大的logo即可。在科技领域这样做是没有核心竞争力的,赚得的钱都被国外零件厂商瓜分殆尽。但是在爬虫领域这却是一个非常友好的现象,因为我们不需要再重新写一遍已经存在的东西了。这些第三方库可
酸辣粉不要辣
·
2020-07-11 11:49
Python爬虫入门
Python爬虫
Python爬虫入门
——1.1爬虫原理
1,先介绍一下网络连接的基本原理:(加亮字体摘自百度百科)网络链接,即根据统一资源定位符(URL,uniformresourcelocation),运用超文本标记语言(HTML,hypertextmarkuplanguage),将网站内部网页之间、系统内部之间或不同系统之间的超文本和超媒体进行链接。通过此种链接技术,即可从一网站的网页连接到另一网站的网页,正是这样一种技术,才得以使世界上数以亿万计
酸辣粉不要辣
·
2020-07-11 11:49
Python爬虫入门
Python爬虫
python爬虫入门
练习,使用正则表达式和requests爬取LOL官网皮肤
刚刚python入门,学会了requests模块爬取简单网页,然后写了个爬取LOL官网皮肤的爬虫,代码奉上#获取json文件#获取英雄ID列表#拼接URL#下载皮肤#导入rerequests模块importrequestsimportreimporttimedefDownload_LOL_Skin():#英雄信息Json文件地址:https://lol.qq.com/biz/hero/champi
dingxiuzhou0775
·
2020-07-11 05:31
python爬虫入门
,获取全国气象站24小时整点气象数据(一)
python爬虫入门
,获取全国气象站24小时整点气象数据(一)
python爬虫入门
,获取全国气象站24小时整点气象数据(二)中国天气网(http://www.weather.com.cn/)有全国各地气象站点的
晚上吃火锅吗
·
2020-07-11 03:08
Python爬虫入门
——静态网页抓取
Python爬虫入门
——静态网页抓取安装Requestspipinstallrequests获取响应内容:importrequestsr=requests.get('https://blog.csdn.net
游骑小兵
·
2020-07-10 20:21
Data
Mining&Analysis
我的学习历程
Python爬虫应用案例视频课程-汤小洋-专题视频课程
课程内容包括:1.爬虫简介,
Python爬虫入门
2.基本用法3.爬虫应用(电影评论数据分析)教学全程采用笔记+代码案例的形式讲解,通俗易懂!!!
IT教育-汤小洋
·
2020-07-10 18:45
视频教程
Python爬虫入门
BeautifulSoup模块
BeautifulSoupBeautifulSoup是一个模块,该模块用于接收一个HTML或XML字符串,然后将其进行格式化,之后遍可以使用他提供的方法进行快速查找指定元素,从而使得在HTML或XML中查找指定元素变得简单。安装:pipinstallBeautifulSoup4导入:frombs4importBeautifulSoupbeautifulsoup简单示例:soup=Beautiful
彭世瑜
·
2020-07-10 15:15
python
Python爬虫入门
——Requests库
学习爬虫之前呢,最好要对HTTP协议有了解,我前面有写过几篇关于HTTP协议的文章,建议读者阅读一下,对爬虫帮助很大。1.requests库的几个主要方法方法说明requests.request()构造一个网页请求,支撑以下各方法的基础方法requests.get()获取HTML网页的主要方法,对应于HTTP的GETrequests.head()获取HTML网页头信息的主要方法,对应于HTTP
凉、介
·
2020-07-10 10:03
Python
爬虫
Python爬虫入门
| 1 Python环境的安装
这是一个适用于小白的Python爬虫免费教学课程,只有7节,让零基础的你初步了解爬虫,跟着课程内容能自己爬取资源。看着文章,打开电脑动手实践,平均45分钟就能学完一节,如果你愿意,今天内你就可以迈入爬虫的大门啦~话不多说,正式开始我们的第一节课《Python环境的安装》吧~啦啦啦开课啦,看黑板,都看黑板~1.安装Anaconda在我们的教学中,我们使用的版本是Python3,至于为什么要选Pyth
Python编程社区
·
2020-07-09 13:06
python爬虫爬取各大直播平台的女主播图片
目标:各大网络直播平台的妹纸照片~~~~(斗鱼,熊猫,虎牙,全民,战旗等)
python爬虫入门
级别!
WangF0
·
2020-07-09 00:26
python
python爬虫入门
(#3)——get方法详解之headers参数
前面写的程序都是使用了requests库的get方法来获取网页,教条式的东西比如requests库的起源,原理,作用啥的,我就不细说了,到处都是,书上也很多,我就只写我认为可以派上用场的东西,当然这不是指我不说就不重要,该了解还是要了解的request库-----get方法-----headersget方法是模拟了浏览器发起的get请求,这个请求方法所发送的信息是包含在请求头里的,我们找一个看一下
Mr.yhx
·
2020-07-08 22:36
python爬虫
使用Python爬虫爬取简单网页(
Python爬虫入门
)
今天我们来看一看使用Python爬取一些简单的网页。所用工具:IDLE(Python3.664-bit)一.爬取京东商品页面我将要爬取的是这个东京商品页面信息,代码如下:importrequestsurl="https://item.jd.com/6957643.html"try:r=requests.get(url)r.raise_for_status()r.encoding=r.apparen
是你的Sakura
·
2020-07-08 22:41
Python爬虫
爬虫
Python
简洁实用的
Python爬虫入门
(运行通过,结果存于Excel)----爬取电影评论数据
简洁实用的
Python爬虫入门
(运行通过,结果存于Excel))----爬取电影评论数据基础代码结果很喜欢一句话“allthingsaredifficultbeforetheyareeasy”,它鼓励我去尝试了自己觉得难的事
supervector
·
2020-07-08 07:01
爬虫
Python爬虫入门
(01) -- 10行代码实现一个爬虫
跟我学习Python爬虫系列开始啦。带你简单快速高效学习Python爬虫。一、快速体验一个简单爬虫以抓取首页文章标题和链接为例首页就是以上红色框内文章的标签,和这个标题对应的url链接。当然首页还包括其他数据,如文章作者,文章评论数,点赞数。这些在一起,称为结构化数据。我们先从简单的做起,先体验一下Python之简单,之快捷。1)环境准备当然前提是你在机器上装好了Python环境,初步掌握和了解P
然学科技
·
2020-07-07 08:01
python爬虫入门
✦ 下载王者荣耀全皮肤(高清壁纸)
此博客仅为我业余记录文章所用,发布到此,仅供网友阅读参考,如有侵权,请通知我,我会删掉。本文章纯野生,无任何借鉴他人文章及抄袭等。前言前面太啰嗦,建议直接观看攻略(即代码)。近来初接触爬虫,总想着捣鼓一些小玩意。这不,有了这一篇文章。我敢打包票说,你肯定找不到另一篇关于王者荣耀下载高清壁纸的博文比这一篇更为详细。说到王者荣耀,相信大家都不会陌生,所以,本文章是讲解利用Python实现下载所有的王者
SunriseCai
·
2020-07-06 06:41
Python爬虫入门
遇到的坑
1.环境-Pythonmacos预装的python$python-VPython2.7.10$wherepython/usr/bin/python$ls/System/Library/Frameworks/Python.framework/Versions2.32.52.62.7Current$ls/Library/Frameworks/Python.framework/Versions(用户安装
aigqba9783
·
2020-07-04 10:45
数据挖掘敲门砖--
Python爬虫入门
Python爬虫.jpgWHAT数据挖掘是一门综合的技术,随着Ai的兴起,在国内的需求日渐增大。数据挖掘的职业方向通常有三个,顺便概要地提一下所需的技能(不仅于此)数据分析方向:需要数理知识支撑,比如概率论,统计学等数据挖掘方向:需要懂得主流算法的原理及应用,数据库的原理和操作科学研究方向:通常是科学家们在深入研究数据挖掘的相关基础理论和算法但是看完简介,好像和爬虫没什么关系?接着往下看。要开始数
FesonX
·
2020-07-04 02:10
python爬虫入门
初级实践之爬取网站文章及阅读量-基于BeautifulSoup
1.目标爬虫实现的目标:输入:测试窝主页链接输出:爬取该网站所有页面的测试相关前言资讯和技术文章的文章链接、标题及阅读量、点赞数,发表日期2.爬虫Beautifulsoup4使用总结Beautifulsoup预备知识Beautifulsoup4官方文档如下,点击可以进行系统地学习了解:BeautifulSoup4.4.0文档。BeautifulSoup提供一些简单的、python式的函数用来处理导
萧竹
·
2020-07-02 10:31
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他