E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
爬虫学习
原创作品 | 盘搜搜-极速搜索你想要的一切资源-
爬虫学习
项目总结
花了大概两天时间,写完了这个简单的WEB应用!如你所见,我们从爬虫的入门到现在一个类似百度网盘搜索的成熟不算大的项目,就这么简单,加上PHP与SQL的知识,简简单单两天就完成了。这就是编程之美哈哈~功能说明:1.采集各大网盘公开分享的链接,以最简约的方式汇集,方便用户搜索;2.只要是你想要的资源,没有本站搜索不到的(后话哈哈);3.各终端自适应。开源说明:1.整个系统采用Pyhon及时爬取更新数据
DYBOY
·
2020-07-12 19:28
爬虫学习
笔记:Selenium爬取淘宝美食 附完整代码
淘宝的页面也是通过Ajax来抓取相关数据,但是参数比较复杂,甚至包含加密秘钥。使用selenium来模拟浏览器操作,抓取淘宝商品信息,即可做到可见即可爬。1.准备工作用selenium抓取淘宝商品,并用pyquery解析得到商品的图片,名称,价格,购买人数,店铺名称和店铺所在位置。即需要安装selenium,pyquery,以及Chrome浏览器并配置ChromeDriver。2.页面分析我们的目
松鼠先森
·
2020-07-12 18:49
爬虫
爬虫学习
分享Python下载mp4文件(源码)
给大家分享一个能直接下载mp4的python源码~importrequestsimporttimeheaders={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/80.0.3987.132Safari/537.36'}movie_url='在这里输入视频地址,例
0pen1
·
2020-07-12 15:09
爬虫
Python
爬虫学习
笔记(爬虫介绍及requests模块学习)
python网络爬虫的简单介绍什么是爬虫爬虫就是通过编写程序模拟浏览器上网,然后让其去互联网上抓取数据的过程哪些语言可以实现爬虫1.php:可以实现爬虫。php被号称是全世界最优美的语言(当然是其自己号称的,就是王婆卖瓜的意思),但是php在实现爬虫中支持多线程和多进程方面做的不好。2.java:可以实现爬虫。java可以非常好的处理和实现爬虫,是唯一可以与python并驾齐驱且是python的头
阿柯柯
·
2020-07-12 14:48
笔记
爬虫
Python
爬虫学习
笔记(一)简单基础知识与简单例子 2020.5.2
前言今日开始学习爬虫本节做了些简单基础知识了解尝试了最简单的爬取1、http请求get请求体现在url里优点:比较便捷缺点:不安全,是明文,参数长度有限制post请求体现在表头里优点:比较安全,数据整体没有限制,可以上传文件其他请求put:不太完全delete:删除一些信息head:请求头2、请求头一些内容如下accept:文本格式accept-encoding:编码格式connection:长连
思源湖的鱼
·
2020-07-12 14:11
crawler
python
爬虫
Python爬虫小白教程(五)—— 多线程爬虫
文章目录并发和并行同步和异步单线程
爬虫学习
Python多线程简单多线程爬虫使用Queue的多线程爬虫爬虫系列在爬取许多网页或者爬取图片的时候,我们的爬虫会遇到一个严重的问题,爬取速度太慢。
YonminMa
·
2020-07-12 14:53
爬虫
Python
爬虫学习
--简单学习爬取音乐歌曲保存下载
Python
爬虫学习
–简单学习爬取音乐歌曲保存下载环境配置Pycharm开发环境python版本python3.7Anconda集成开发环境模块导入importrequests#pipinstallrequestsimportjson
みずじ
·
2020-07-12 13:54
学习笔记总结
Python
Python
爬虫学习
笔记——使用BeautifulSoup剖析页面元素
将网页读入Beautisoup中接上回的代码,得到新浪的网页。importrequestsurl='https://www.sina.com.cn/'res=requests.get(url)res.encoding='utf-8'print(res.text)将得到的页面读入BeautifulSoup中frombs4importBeautifulSoup#读入网页,res.text传入剖析的网页
快乐是一切
·
2020-07-12 12:16
python
爬虫学习
——"中国大学最好排名"(技术路线:requests库和bs4)(来源于北理工Python网络爬虫与信息提取网络公开课)
"中国大学排名"定向爬虫示例课程地址:http://open.163.com/movie/2019/5/G/6/MEEMCM1NP_MEEU3UFG6.html#功能描述:#输入:大学排名URL链接#输出:大学排名信息的屏幕输出(排名,大学名称,总分)#使用技术:requests库和bs4#定向爬虫:仅对输入URL进行爬取,不扩展爬取#是否可以实现:查看网页源代码判断是否是静态页面#查看robot
我就是这样的自己
·
2020-07-12 12:56
爬虫学习
爬虫学习
笔记
2019独角兽企业重金招聘Python工程师标准>>>PI:\>开个新贴把,学过的在这里记录下。方便查找。10月31日:python3网络爬虫一《使用urllib.request发送请求》知识点1:http://httpbin.org一个不错的网站可以用来测试知识点2:文中代码输出含很多/n,原因是response.read()返回的byte类型,不是字符串类型。所以\n没有自动打印成换行。用.d
weixin_34206899
·
2020-07-12 09:45
Python
爬虫学习
==>第十章:使用Requests+正则表达式爬取猫眼电影
学习目的:通过一个一个简单的爬虫应用,初窥门径。正式步骤Step1:流程框架抓取单页内容:利用requests请求目标站点,得到单个页面的html代码,返回结果;正则表达式分析:根据html页面代码分析得到猫眼电影的名称、主演、上映时间、评分、图片信息等;保存至文件:通过文件的形式将结果保存,每一部电影一个结果一行json字符串;开启循环及多线程:对页面内容进行遍历,开启多线程提高抓取效率Step
weixin_33883178
·
2020-07-12 08:42
静觅
爬虫学习
笔记8-爬取猫眼电影
不知道是不是我学习太晚的原因,猫眼电影这网站我用requests进行爬取源码直接返回给我一个您的访问被禁止。作为萌新的我登时就傻了,还好认真听了之前的课,直接换selenium抓了源码,虽然效率惨不忍睹,但多少也能运行了,下面上代码importjsonimportrequestsimportrefromrequests.exceptionsimportRequestExceptionfrommul
weixin_30909575
·
2020-07-12 07:32
python
爬虫学习
过程剖析
目录一python简介二Python爬虫过程图和学习路线三爬虫过程代码四解析库1.JSON解析2.网页解析五33个爬虫项目实战六总结参考资料一python简介Python是著名的“龟叔”GuidovanRossum在1989年圣诞节期间,为了打发无聊的圣诞节而编写的一个编程语言。创始人GuidovanRossum是BBC出品英剧MontyPython’sFlyingCircus(中文:蒙提·派森的
探索未知的自己
·
2020-07-12 03:32
python
使用BeautifulSoup爬取无锡美团美食店铺数据
使用BeautifulSoup爬取无锡美团美食店铺数据简单说明博主爬虫初学,近期在网上搜了很多
爬虫学习
的教程,基本上来就是各种函数,看的晕头转向,于是自己动手写了一个脚本,记录一下初学者的整个爬虫过程,
黄钢
·
2020-07-12 03:54
爬虫学习
目的虽然现在流行用python写爬虫方便很多,但还是想巩固一下自己的知识,所以用c++在linux环境中开发并测试。逻辑图代码https://github.com/ucasxzzzh/spider.git编写逻辑【解析URL函数】解析过程中用str.find()函数判断输入的url中是否存在http://或https://,再从其后找第一个/的位置,从而得到主机名和资源路径,用substr切分字符
请点击头像
·
2020-07-12 03:18
拓展
爬虫学习
:基本库的使用
爬虫学习
:基本库的使用1.使用urllib1.1发送请求1.1.1urlopen()1.1.2Request1.1.3高级用法(Cookies处理、代理设置等)——Handler1.2处理异常1.2.1URLError1.2.2HTTPError1.3
Raymone_
·
2020-07-12 03:43
爬虫学习
送你一条高效的Python
爬虫学习
路径
如果你仔细观察,就不难发现,懂爬虫、学习爬虫的人越来越多,一方面,互联网可以获取的数据越来越多,另一方面,像Python这样的编程语言提供越来越多的优秀工具,让爬虫变得简单、容易上手。对于小白来说,爬虫可能是一件非常复杂、技术门槛很高的事情。比如有的人认为学爬虫必须精通Python,然后哼哧哼哧系统学习Python的每个知识点,很久之后发现仍然爬不了数据;有的人则认为先要掌握网页的知识,遂开始HT
急速奔跑中的蜗牛
·
2020-07-12 01:15
python
爬虫学习
之用Python抢火车票的简单小程序
利用Python制作自动抢火车票小程序,过年再也不要担心没票了!前言每次过年很多人都会因为抢不到火车票而回不了家,所以小编利用Python写了一个自动抢火车票的工具,希望大家能抢到火车票,回家过个好年!话不多说,直接上代码:'''在学习过程中有什么不懂得可以加我的python学习交流扣扣qun,934109170群里有不错的学习视频教程、开发工具与电子书籍。与你分享python企业当下人才需求及怎
Python新手学习之家
·
2020-07-11 21:01
python爬虫
python
python爬虫
Python
爬虫学习
笔记:requests库常用方法总结
requests是一个功能强大,使用方便的网络请求库.本文主要介绍requests库入门水平的常用方法1.使用requests库发送请求最基本的get请求发送方式如下:importrequestsr=requests.get(url)返回的r为一个Response对象requests库主要方法如下表所示:get方法的常用可选参数有params为URL的查询字符串传递某种数据例:payload={'
Chaos Rings
·
2020-07-11 21:04
爬虫
python
爬虫学习
(2):输入电影名获得电影信息
输入电影名获得电影信息获得含有电影信息的网址链接爬取电影简介.string与.text.string的一些抓取问题完整代码关于`if__name__=='__main__'`完整代码在上一篇博文:python
爬虫学习
苏木不枝
·
2020-07-11 21:53
python学习
为了部落 来自艾泽拉斯勇士的python
爬虫学习
心得 爬取大众点评上的各种美食数据并进行数据分析
为了希尔瓦娜斯第一个爬虫程序csgo枪械数据先上代码基本思想问题1问题2爬取大众点评URL分析第一个难题生成csv文件以及pandas库matplotlib.pyplot库K-Means聚类散点图便宜又好吃的推荐第一个爬虫程序csgo枪械数据最开始的时候没想爬去大众点评,能对我这个博客有兴趣,应该对游戏也挺感兴趣,肯定知道csgo,csgo有很多第三方交易平台,我就想爬去igxe试一试,将上面cs
HZH-Y
·
2020-07-11 20:04
Python
爬虫学习
(四)Beautiful Soup库入门
(四)BeautifulSoup库入门BeautifulSoup库官方文档(1)BeautifulSoup库基本元素BeautifulSoup库是解析、遍历、维护“标签树”的功能库.....:标签Tagp:名称Name(成对出现)class='title':属性Attributes(0个或多个)BeautifulSoup对应一个HTML/XML文档的全部内容frombs4importBeautif
浩然丶
·
2020-07-11 19:43
Python-爬虫
Python
爬虫学习
笔记(使用代理及代理池——解决返回状态码302即IP被封的问题)
对于一般的小型爬虫,我们爬取某个网站所发出的请求次数少即频率不是很高时,为避免可能出现的IP被封的问题,我们可以设置爬取延时或者规定爬取时长来解决。1.requests库importrequests#如果代理需要认证,可以使用proxy='username:password@IP:port'proxyHttps='121.33.220.158'#端口:808proxyHttp='110.73.8.
二叉叔
·
2020-07-11 16:40
Python爬虫
爬虫学习
之猫眼TOP100爬取
一.进入猫眼TOP100网站,分析respond结果可以直接接收到HTML代码,使用request库来获取网页代码。二.获取网页代码先用一小段代码测试下能否正常接收importrequestsrespond=requests.get('http://maoyan.com/board/4')print(respond.text)可以看到访问获得的并不是我们想要的代码,因为这是猫眼官方设置的反爬取手段
没有刺的仙人掌
·
2020-07-11 15:38
python
python
中国最好大学排名定向爬虫
中国最好大学排名定向
爬虫学习
视频:方法与思路:应用模块:数据提取方式:网页分析:代码如下:运行效果:学习视频:视频链接欢迎留言指出错误。
python918
·
2020-07-11 14:59
python3 网络
爬虫学习
3.4 抓取猫眼电影排行
importrequestsimportreimporttimeimportjsondefget_one_page(url):headers={"User-Agent":"Mozilla/5.0(WindowsNT6.1;WOW64)AppleWebKit/535.1(KHTML,likeGecko)Chrome/14.0.835.163Safari/535.1"}response=request
luslin
·
2020-07-11 12:21
Python
爬虫学习
(四)抓取猫眼电影的top100
利用requests库加上beautifulsoup完成代码如下importrequestsfrombs4importBeautifulSoupheaders={'User-Agent':'Mozilla/5.0(Macintosh;IntelMacOSX10_11_4)AppleWebKit/537.36(KHTML,likeGecko)Chrome/52.0.2743.116Safari/53
liu__cloud
·
2020-07-11 11:26
Python爬虫学习
Python
爬虫学习
(4)Scrapy采集框架
Scrapy入门注意:Python版本需要为2.7丛书编者按:Scrapy由Python编写。如果刚接触并且好奇这门语言的特性以及Scrapy的详情,对于已经熟悉其他语言并且想快速学习Python的编程老手,LearnPythonTheHardWay,对于想从Python开始学习的编程新手,非程序员的Python学习资料列表将是您的选择。1.定义Item爬取模型首先根据需要从dmoz.org获取到
语落心生
·
2020-07-11 09:24
Python
爬虫学习
笔记(一)
视频教程:慕课网Python开发简单爬虫1.简单爬虫架构image.png2.爬虫架构的运行流程image.png3.URL管理器image.png4.URL管理器的实现方式image.png5.网页下载器image.png6.网页下载器--urllib26.1image.png6.2image.pngimage.png6.3image.pngimage.png7.urllib2实例代码演示ima
拿破仑蛋糕
·
2020-07-11 08:57
python
爬虫学习
日记
大概一个月前开始接触到python,当时看着i春秋学院的课程,了解到python是黑客编程的利器(然而当时我也并不知道是为什么),就开始看python核心编程,一开始并没有什么头绪,只是按部就班的看书。有一天,逛知乎的时候看到了网络爬虫这个领域,开始慢慢了解,并喜欢上它,python的代码对于我这种门外汉来说非常友好,真的很适合作为入门语言来学习,至于前辈所说的局限性,等慢慢深入之后再学习java
carryuan
·
2020-07-11 05:35
Python网络
爬虫学习
手记(1)——爬虫基础
1、爬虫基本概念网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。--------百度百科简单的说,爬虫就是获取目标网页源代码,并提取和保存网页信息的自动化程序或者脚本。网络爬虫脚本或者程序一般包含如下几个步骤:A.获取网页源代码爬虫首要的任务就是获取需要爬取的目标网页,也就是网页源代码,一般网页源代码就
dieshuang3318
·
2020-07-11 05:52
Python数据
爬虫学习
笔记(18)Scrapy糗事百科Crawl自动爬虫
一、需求:在糗事百科主页下,无需设置页码,自动爬取所有段子详情页的段子完整内容。(1)糗事百科主页:(2)段子详情页:二、Scrapy实现思路:在糗事百科主页上自动提取出所有段子的详情链接,在每个段字详情页中爬取段子内容。三、网页源代码分析:1、糗事百科段子详情页链接分析:注意到每个段子详情的链接都含有“article”2、糗事百科段子详情页源码分析,注意到段子内容被class属性为content
Zhengyh@Smart3S
·
2020-07-10 23:09
Python
Python数据
爬虫学习
笔记(9)爬虫防屏蔽之代理服务器
一、代理服务简介:所谓代理服务器,是一个处于我们与互联网中间的服务器,如果使用代理服务器,我们浏览信息的时候,先向代理服务器发出请求,然后由代理服务器向互联网获取信息,再返回给我们。使用代理服务器进行信息爬取,可以很好的解决IP限制的问题。二、代码:importurllib.requestdefuse_proxy(url,proxy_addr):proxy=urllib.request.Proxy
Zhengyh@Smart3S
·
2020-07-10 23:37
Python
爬虫学习
笔记--Tor隐藏Ip
因为在爬虫时,如果使用了默认的IP可能导致自己的IP遭到封禁所以就要隐藏自己的IP事先说明爬虫要有度也要考虑服务器的压力本篇基于win10tor的原理http://www.cnblogs.com/likeli/p/5719230.htmlhttp://blog.csdn.net/whiup/article/details/52317779https://www.deepdotweb.com/201
Qin_xian_shen
·
2020-07-10 23:35
爬虫学习笔记
python学习笔记
python
爬虫学习
之路(1) 利用urllib爬取网站
网络爬虫的定义网络爬虫,也叫网络蜘蛛(WebSpider),如果把互联网比喻成一个蜘蛛网,Spider就是一只在网上爬来爬去的蜘蛛。网络爬虫就是根据网页的地址来寻找网页的,也就是URL。举一个简单的例子,我们在浏览器的地址栏中输入的字符串就是URL,例如:https://www.baidu.com/URL就是同意资源定位符(UniformResourceLocator),它的一般格式如下(带方括号
QEcode
·
2020-07-10 23:23
python
数据分析1_猫眼TOP100
如何爬取的博客:
爬虫学习
日记3_猫眼TOP100导包并清洗数据根据上一篇博客里面写的爬取方式,我把爬取下来的数据存放在了MongoDB里面,所以首先需要加载数据。
林_胖
·
2020-07-10 22:45
数据分析
python
爬虫学习
笔记之Beautifulsoup&正则表达式
本文是我在使用网易云课堂学习日月光华老师讲的“Python爬虫零基础入门到进阶实战”课程所做的笔记,如果大家觉得不错,可以去看一下老师的视频课,讲的还是很棒的。本文没什么营养,只是做个笔记。Beautifulsoup使用beautifulsoup可以直接返回源代码。#引入beautifulsoupfrombs4importBeautifulSouphtml="""firstitemsecondit
KaiSarH
·
2020-07-10 22:22
Python
爬虫
python爬虫——requests模块(嵩天慕课
爬虫学习
笔记)
导入importrequests下面是一个简单的例子url="http://www.baidu.com"#设置链接网址r=requests.get(url) #获取网页r.status_code#检查状态,200为成功,其它均为失败r.encoding='utf-8'#设置编码格式r.text#输出网页源代码Requests库的两个对象——Response与RequestResponse包含
JokeOrSerious
·
2020-07-10 22:29
python
python
爬虫
requests模块
爬取网页
嵩天慕课
爬虫学习
:Requests+正则表达式爬取猫眼电影
B站视频av19057145`P14requests+正则表达式爬取网站信息代码:(之前没有添加header时失败)importrequestsfromrequests.exceptionsimportRequestExceptiondefget_one_page(url):try:headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64
Hello_Bye
·
2020-07-10 21:10
2019年Python
爬虫学习
必看
如果你用Python3写爬虫,强力推荐《Python网络数据采集》这本书,应该是目前最系统最完善介绍python爬虫的书。可以去图灵社区买电子版。书的内容很新也很系统,从beautifulSoup,requests到ajax,图像识别,单元测试。比起绝大多数blog零散的教程要好的多,看完书后就可以去做些实战项目,这个时候可以去github上找类似的项目借鉴下。图灵社区:图书:《Python网络数
weixin_33882443
·
2020-07-10 19:20
Python
爬虫学习
笔记3:基本库的使用
学习参考:Python3网络爬虫开发实战3.1urllib官方文档链接为:https://docs.python.org/3/library/urllib.html3.1.1发送请求1.urlopen()importurllib.requestresponse=urllib.request.urlopen('http://www.baidu.com')#print(response.read().
山清水秀iOS
·
2020-07-10 19:31
python
爬虫学习
(二):定向爬虫例子-->使用BeautifulSoup爬取"软科中国最好大学排名-生源质量排名2018",并把结果写进txt文件...
在正式爬取之前,先做一个试验,看一下爬取的数据对象的类型是如何转换为列表的:写一个html文档:x.htmlThisisapythondemopageThedemopythonintroducesseveralpythoncourses.BasicPythonPythonisawonderfulgeneral-purposeprogramminglanguage.YoucanlearnPython
weixin_30724853
·
2020-07-10 19:49
python爬虫:编写多进程
爬虫学习
笔记
#-*-coding:utf-8-*-"""CreatedonSatOct2221:01:232016@author:hhxsym"""importrequestsimportjsonimportosimportpymongoimporttimefrombs4importBeautifulSoupfrommultiprocessingimportPool#进程调用的包inpath="C:\\Use
山谷來客
·
2020-07-10 18:33
python
python3 + Scrapy
爬虫学习
之创建项目
最近准备做一个关于scrapy框架的实战,爬取腾讯社招信息并存储,这篇博客记录一下创建项目的步骤pycharm是无法创建一个scrapy项目的因此,我们需要用命令行的方法新建一个scrapy项目请确保已经安装了scrapy,twisted,pypiwin32一:进入你所需要的路径,这个路径存储你创建的项目我的将放在E盘的Scrapy目录下二:创建项目:scrapystartproject***(这
s_kangkang_A
·
2020-07-10 18:17
Python
爬虫学习
(BeautifulSoup库入门)
文章目录BeautifulSoup类的基本元素标签树的遍历下行遍历上行遍历平行遍历关系查找data','html.parser')soup_=BeautifulSoup(open('D://data.html'),'html.parser')BeautifulSoup类的基本元素标签树的遍历下行遍历上行遍历平行遍历平行遍历发生在同一个父节点下的各节点间注:迭代类型只能用于循环遍历关系修饰方法:so
公羽向阳
·
2020-07-10 18:05
Python-爬虫
Command "python setup.py egg_info" failed with error code 10
背景描述:在根据这位大神的python2.7爬虫教程进行python3.6
爬虫学习
时遇到了问题http://cuiqingcai.com/2443.html(这是这位大神的python文档教程)个人不太喜欢以视频方式学习
寂灭万乘
·
2020-07-10 17:41
python
爬虫
Python
爬虫学习
笔记--多进程用法
前言(1)python中与多进程相关的包是multiprocessing。(2)multiprocessing支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Lock、Semaphore、Queue、Pipe、Pool等组件。Process类(1)multiprocessing包里有个Process类,用于创建进程对象来执行任务,Process类的API如下:Process(
huangjx36
·
2020-07-10 17:14
python爬虫学习
Python
爬虫学习
笔记(多进程爬虫-酷狗榜单500)
Python
爬虫学习
笔记(多进程爬虫-酷狗榜单500)编译器:Pycharmcommunity2018.3.4版本数据库:Mysql5.5/SQLyog首先我们介绍一下为什么用多进程爬虫,目的是为了提升爬虫的爬取速度
许白
·
2020-07-10 16:55
Python
爬虫学习
笔记(实例:爬取猫眼电影排行前100)
#抓取猫眼电影排行,以文件的形式保存结果importjsonimportrequestsfromrequests.exceptionsimportRequestExceptionimportreimporttime#抓取第一页内容defget_one_page(url):try:#此处的cookies,headers,params需要根据自己浏览器登陆猫眼电影之后后台生成并经过相应网#站处理,具体
二叉叔
·
2020-07-10 15:26
Python爬虫
猫眼电影排行前100
python爬虫
爬虫学习
笔记(十)数据存储——xml、json、csv 2020.5.9
前言本节学习数据存储的xml、json、csv1、json书写格式如上图所说例:{"name":"张三","age":10}2、json操作importjson#1.字符串和diclist转换#字符串(json)----dictlistdata='[{"name":"张三","age":20},{"name":"李四","age":18}]'list_data=json.loads(data)pr
思源湖的鱼
·
2020-07-10 11:03
crawler
上一页
14
15
16
17
18
19
20
21
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他