E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
爬虫笔记
Python
爬虫笔记
——python3.7安装Scrapy
python3.7安装Scrapy----2019史上最牛逼的scrapy的安装教程Scrapy入门教程Scrapy入门教程简单易懂版
Fo*(Bi)
·
2020-08-18 11:45
爬虫笔记
python
爬虫笔记
(十二)——浏览器伪装技术
为什么要进行浏览器伪装技术?有一些网站为了避免爬虫的恶意访问,会设置一些反爬虫机制,对方服务器会对爬虫进行屏蔽。常见的饭爬虫机制主要有下面几个:1.通过分析用户请求的Headers信息进行反爬虫2.通过检测用户行为进行反爬虫,比如通过判断同一个IP在短时间内是否频繁访问对应网站等进行分析3.通过动态页面增加爬虫的爬取难度,达到反爬虫的目的第一种反爬虫机制在目前网站中应用的最多,大部分反爬虫网站会对
weixin_33809981
·
2020-08-17 19:34
爬虫笔记
5 向动态HTML迈进,selenium入门,获取响应后的element代码以及网页COOKIE
1.加载网页代码fromseleniumimportwebdriver使用游览器(支撑绝大多数游览器)driver=webdriver.PhantomJS()游览器进行游览driver.get(“http://www.baidu.com”)由于PhantomJS无界面,可以使用下面代码保存界面driver.save_screenshot(“百度.png”)2.定位和操作支持所有element的搜寻
mahuatengmmp
·
2020-08-17 13:40
爬虫
爬虫笔记
4 程序多线程threading与Queue结合使用,Queue用法详细解读
1.Queue的用法通常配合threading使用,创建一个队列,多个线程可以从队列中提取任务,返回输入任务那么具体是怎么配送threading模块使用的呢?举个例子,比如你要下载一个文件,可是你发现对方给你限制了你的下载速度,每个文件只准10kb的下载,这时候你可以将下载文件所有的请求丢到一个队列里面Queue.put()(假设1000个请求),这个队列就是Queue,然后你设置100个线程,每
mahuatengmmp
·
2020-08-17 13:39
爬虫
爬虫笔记
3 XPATH LXML寻找XML,HTML
掌握re库(正则表达式)的用法re.findall("a(.*?)b",”str“)能够返回括号中的内容,括号前后的内容起到定位和过滤的效果原始字符串r,使用r可以忽视反斜杠带来的转义的效果.默认匹配不到\n\s能够匹配空白字符,不仅仅包含空格,还有\t\r\n万能的.*?用法XPATHXpath是一门在HTML\XML文档中查找信息的语音,可以用来在HTML\XML文档中对元素属性进行遍历W3S
mahuatengmmp
·
2020-08-17 13:39
爬虫
python3
爬虫笔记
(一):了解HTTP协议
HTTP协议:HyperTextTransferProtocol1.概念HTTP(超文本传输协议)是互联网上应用最为广泛的一种网络协议,是TCP/IP协议的一种。我们在浏览器的地址栏输入地址浏览网页时都遵循这一协议,它有两个功能:规范了客户端如何构造并发送请求规范了服务器如何响应请求。2.B/S,C/S架构通过浏览器(Browser)访问服务器的架构称为B/S架构,通过客户端(Client)访问服
连小胖
·
2020-08-15 12:49
爬虫-python
Python网络
爬虫笔记
(7)处理HTTPS请求 SSL证书验证
现在随处可见https开头的网站,urllib2可以为HTTPS请求验证SSL证书,就像web浏览器一样,如果网站的SSL证书是经过CA认证的,则能够正常访问,如:https://www.baidu.com/等...如果SSL证书验证不通过,或者操作系统不信任服务器的安全证书,比如浏览器在访问12306网站如:https://www.12306.cn/mormhweb/的时候,会警告用户证书不受信
洪流之源
·
2020-08-15 08:18
python
网络爬虫
爬虫笔记
:爬豆瓣AttributeError: 'NoneType' object has no attribute 'find_all'
代码importrequestsfrombs4importBeautifulSoup#请求网页url="https://movie.douban.com/cinema/later/zhongshan/"response=requests.get(url)#解析网页#初始化BeautifulSoup方法:利用网页字符串自带的编码信息解析网页soup=BeautifulSoup(response.co
夜殤
·
2020-08-14 21:05
Python
千峰Python
爬虫笔记
day02
1、post请求举例,百度翻译【注】表单的处理form_data=urllib.parse.urlencode(form_data).encode()importurllib.requestimporturllib.parsepost_url='http://fanyi.baidu.com/sug/'word=input('输入要查的词')form_data={'kw':word,}#构造表单数据
月光白魔鬼
·
2020-08-14 18:08
Python
北京理工大学MOOC
爬虫笔记
二(第2周)
目录一、BeautifulSoup库二、信息标记与提取方法三、实例(静态获取)一、BeautifulSoup库(1)BeautifulSoup库:解析、遍历、维护“标签树”的功能库(2)使用BeautifulSoup库:frombs4importBeautifulSoupsoup=BeautifulSoup(’data,‘html.parser’)(3)BeautifulSoup对应一个HTML/
xixiaodou
·
2020-08-12 14:25
机器学习
Python
爬虫笔记
| 初识爬虫技术
使用python版本:3.7.064-bit爬虫,从本质上来说,就是利用程序在网上拿到对我们有价值的数据。爬虫的工作原理四步骤第1步:获取数据。爬虫程序会根据我们提供的网址,向服务器发起请求,然后返回数据。第2步:解析数据。爬虫程序会把服务器返回的数据解析成我们能读懂的格式。第3步:提取数据。爬虫程序再从中提取出我们需要的数据。第4步:储存数据。爬虫程序把这些有用的数据保存起来,便于你日后的使用和
MUYUN友逹
·
2020-08-12 10:07
Python爬虫笔记
Scrapy
爬虫笔记
(scrapy、scrapy-redis、scrapyd部署scrapy)
Scrapy
爬虫笔记
写在最前面scrapy安装创建项目与运行爬虫生成爬虫scrapy框架目录结构settings.py常用设置CrawlSpiderScrapyShellRequest对象和Response
曾小杰gg
·
2020-08-11 10:04
scrapy
【Python网络
爬虫笔记
】week02
BeautifulSoup库入门安装在cmd中输入pipinstallbeautifulsoup4BeautifulSoup库的使用frombs4importBeautifulSoupsoup=BeauifulSoup('data','html.parser')BeautifulSoup库的基本元素BeautifulSoup库是解析、遍历、维护“标签树”的功能库BeautifulSoup库,也叫b
Brielle_Zhang
·
2020-08-11 05:37
python
基础
爬虫
python
爬虫笔记
python笔记2020.1编程工具pycharm2019.3.1关于使用pycharm进行交互调试开启debugger提示“Processfinishedwithexitcode-1”无法进行交互式调试**解决方法:**确保下图中的功能启动requests.get数据无法解析问题r=requests.get(url).contentsoup=BeautifulSoup(r,'html.parse
dumbnessrf
·
2020-08-10 04:25
python爬虫
python
Scrapy豆瓣爬虫 爬取用户以及用户关注关系
utf8与utf8mb4字符编码笔记二:mysql中的排序规则2.PyCharm搭建Scrapy爬虫项目2.1创建一个Scrapy工程笔记三:scrapy基本命令创建项目运行项目开始爬虫控制台暂停和终止
爬虫笔记
四
Joyceyang_999
·
2020-08-09 06:28
python爬虫
python
爬虫笔记
urllib模块的使用urllib是python内置的HTTP请求库,无需安装即可使用,它包含了4个模块:request:它是最基本的http请求模块,用来模拟浏览器发送请求parse:一个工具模块,提供了许多URL处理方法,如:把URL字符串与URL组件的拆分和合并,或者字典(和js对象差不多)与URL字符串的相互转换error:异常处理模块,如果请求发生错误可以捕捉致谢异常robotparse
z_z_tao
·
2020-08-04 22:46
python
用Python将多个相同性质Excel工作表整合到一个工作表(.xlsx)中实例
基础知识:Python
爬虫笔记
——存储数据的基础知识(Csv、Excel)项目已经拥有100个如下表格:每个表中的内容如下:【Target】:将这100个表格整合到一个汇总表中去。
Fo*(Bi)
·
2020-08-04 21:39
Python使用实例
Python
爬虫笔记
PythonIDE1Eclipse+PyDev:扩展PyDev插件installnewsoftware-->add-->name:PydevLocation:http://pydev.org/updates配置插件后需要pydev解析器:windows-->preferences-->点击pydev-->interpreter-Python-->new-->python.exe(python安装目
charilyLL
·
2020-08-02 13:24
python网络爬虫(第一章)
python网络爬虫(第一章)(内容来自于O’Reilly(人民邮电出版社)的《Python网络爬虫权威指南》此博客仅用于记录学习,方便以后使用)目前本系列文章(python网络
爬虫笔记
)更新情况:第一章
ZzMeei
·
2020-08-01 14:12
python网络爬虫
python网络爬虫(简单实例)
python网络爬虫(简单实例)(内容来自于O’Reilly(人民邮电出版社)的《Python网络爬虫权威指南》此博客仅用于记录学习,方便以后使用)目前本系列文章(python网络
爬虫笔记
)更新情况:第一章
ZzMeei
·
2020-08-01 14:12
python网络爬虫
python网络爬虫(第二章)
python网络爬虫(第二章)(内容来自于O’Reilly(人民邮电出版社)的《Python网络爬虫权威指南》此博客仅用于记录学习,方便以后使用)目前本系列文章(python网络
爬虫笔记
)更新情况:第一章
ZzMeei
·
2020-08-01 14:12
python网络爬虫
python
爬虫笔记
--简单静态
不太懂网页上的专业术语。。。1.首先查看页面源代码:查看要爬取的数据是什么样的,在哪个标签下,能不能用xpath或者bs4取出来。2.f12此页面,刷新查看页面响应时,能看到的信息。主要是消息头里的请求网址,请求方法,host,user-agent,cookie以及参数里的数据。及时查看响应,看出现的页面是否为自己想要的。3.如果是post方法:要记录参数里的数据:postdata={},字典型写
fuyunkaka
·
2020-07-31 17:58
笔记
爬虫笔记
(二)——浏览器的模拟(Headers属性)
有的时候,我们无法爬取一些网页,会出现403错误,因为这些网页为了防止别人恶意采集其信息所以进行了一些反爬虫的设置。那么如果我们向爬取这些网页的信息,应该怎么办呢?可以设置一些Headers信息,模拟成浏览器去访问这些网站,此时,就能够解决这个问题了。接下来我们来找找自己浏览器的Headers属性。1.首先打开任意网页,按下F12,并选择网络(network)2.任意点击网页连接,使其发生动作。点
龙王.*?
·
2020-07-30 18:43
python3爬虫学习笔记
python |
爬虫笔记
(三)- 基本库使用
本节内容为基础库的使用,内容涵盖:Urllib库基本使用,Requests库基本使用以及正则表达式基础。3.1Urllib内置http请求库request请求模块,error异常处理模块,parse工具模块,robotparser识别网站robots.txt,识别哪些可以爬3.1.1发送请求1-urlopenurllib.request模块提供了最基本的构造HTTP请求的方法,利用它可以模拟浏览器
weixin_30333885
·
2020-07-30 12:44
PYTHON
爬虫笔记
六:PyQuery库基础用法
知识点一:PyQuery库详解及其基本使用初始化字符串初始化html='''firstitemseconditemthirditemfourthitemfifthitem'''frompyqueryimportPyQueryaspqdoc=pq(html)print(doc('li'))#选择器实际上就是CSS选择器,即:选id就加“#”,选class前面加“.”firstitemsecondit
weixin_30585437
·
2020-07-28 16:23
爬虫笔记
——东方财富科创板数据爬取(selenium方法)
爬虫笔记
——东方财富科创板数据爬取(selenium方法)网站观察网站分析公司详情页面具体代码selenium方式爬取优点:无需观察网站去查找数据来源缺点:速度较requests方法更慢网站观察网址:东方财富科创板数据
wang_zuel
·
2020-07-28 15:54
python爬虫笔记
爬虫笔记
(六)--反爬处理
身份伪装告诉服务器是人(浏览器)User-Agent:声明身份人的特点,从哪来Request-HeadersRefer身份证(cookies)用户信息,网站信息加UA,refer,cookies访问频率,访问数量–>拉黑开小号添加headersimportrequestsurl="http://www.httpbin.org/headers"res=requests.get(url).textpr
jys0703
·
2020-07-28 01:20
爬虫笔记
Python
爬虫笔记
——Ajax简介
有时候我们在用requests抓取页面的时候,得到的结果可能和在浏览器中看到的不一样,在浏览器中可以看到正常显示的页面数据,但是使用requests得到的结果并没有。这是因为requests获取的都是原始的HTML文档,而浏览器中的页面则是经过JavaScript处理数据后生成的结果,这些数据的来源有多种,可能是通过ajax加载的,可能是包含在HTML文档中的,也可能是经过JavaScript和特
Fo*(Bi)
·
2020-07-22 08:59
爬虫笔记
python
ajax
爬虫笔记
七
Scrapy中文手册:https://docs.pythontab.com/scrapy/scrapy0.24/index.htmlScrapy的项目结构Scrapy框架的工作流程ScrapyShellItemPipelineScrapy项目的Spider类Scrapy项目的CrawlSpider类Scrapy项目的Request和ReponseDownloaderMiddlewaresSetti
dianxin1203
·
2020-07-15 22:30
爬虫笔记
六
机器视觉与Tesseract介绍机器视觉从Google的无人驾驶汽车到可以识别假钞的自动售卖机,机器视觉一直都是一个应用广泛且具有深远的影响和雄伟的愿景的领域。我们将重点介绍机器视觉的一个分支:文字识别,介绍如何用一些Python库来识别和使用在线图片中的文字。我们可以很轻松的阅读图片里的文字,但是机器阅读这些图片就会非常困难,利用这种人类用户可以正常读取但是大多数机器人都没法读取的图片,验证码(
dianxin1203
·
2020-07-15 22:30
Python操作数据库、Python
爬虫笔记
PYTHONimportMySQLdbDATABASE={'host':'127.0.0.1','database':'test','user':'root','password':'zs@309337','charset':'utf8mb4'}db=MySQLdb.connect(**DATABASE)db游标cursor=db.cursor()sql="select*fromclass"cur
Zs0ng
·
2020-07-15 09:33
深度学习
python
mysql
Linkedin 数据
爬虫笔记
分析searchtotal本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗Ctrl+B斜体Ctrl+I引用Ctrl+Q插入链接Ctrl+L插入代码Ctrl+K插入图片Ctrl+G提升标
JackinJoye
·
2020-07-14 04:15
python爬虫和动态切换ip地址(供初学者学习使用)
开始之前:参考网址:从list中随机抽取元素的方法分享几个免费IP地址查询API接口python操作数据库,python
爬虫笔记
importtimeimportrequestsfromrandomimportchoice
Zs0ng
·
2020-07-14 03:26
深度学习
网络
爬虫笔记
【7】 利用 XPATH 实现 XML 和 HTML 文本信息提取
XML(ExtensibleMarkupLanguage)指可扩展标记语言,被设计用来传输和存储数据。详细信息可参考http://www.w3school.com.cn/xml。HTML指的是超文本标记语言(HyperTextMarkupLanguage),是WWW上用于编写网页的主要工具,详细信息请参考http://www.w3school.com.cn/htmlXML和HTML都是一种标记语言
机灵鹤
·
2020-07-13 21:29
网络爬虫笔记
爬虫笔记
(六)——如何写正则表达式详解
什么是正则表达式?正则表达式(RegularExpression)是一种文本模式,在编写处理字符串的程序或网页时,经常会有查找符合某些规则的字符串的需求。正则表达式就是用于描述这些规则的工具,换句话说,正则表达式就是记录文本规则的代码。我们将分别从原子、元子符、模式修正符、贪婪模式与懒惰模式等方面进行介绍,代码引进re模块。这篇博客主要讲如何写正则表达式,下篇再介绍关于正则表达式的函数运用。一、原
weixin_34112181
·
2020-07-13 18:18
爬虫笔记
——拉勾网职位信息爬取(selenium方法)
拉勾网
爬虫笔记
——selenium爬取拉勾网职位信息初步爬虫框架构造第一页职位信息爬取第二页等页面的职位信息爬取爬取数据的保存细节处理爬取过程中出现需要登录的处理爬取过程中网页崩溃的处理文中内容为网上找的视频课程的练习
wang_zuel
·
2020-07-13 16:32
python爬虫笔记
爬虫笔记
urlopen(url,data,timeout)第一个参数url即为URL,第二个参数data是访问URL时要传送的数据,第三个timeout是设置超时时间importurllib2response=urllib2.urlopen("http://www.baidu.com")printresponse.read()推荐写法(因为在构造请求时还需要加入好多内容,通过构建一个request,服务器
神毓叉烧包
·
2020-07-13 11:30
抓取王者荣耀英雄列表的
爬虫笔记
(python+requests)
在开始这个内容之前,我们先来一张效果图:实现它,需要几个过程:调用王者荣耀助手的数据接口获取所有英雄的图片通过迭代,把所有图片转换成二进制数据流把这些数据导入MySQL数据库中由于项目需求,需要爬取某网站数据并储存在mysql中,但这几天遇到了一些问题,不得不暂停来补一补数据抓取的相关知识,于是今天花了半天时间来补习json.我以下写的内容是居然老师教我的,我经过整理,写在这里,给大家一起学习.手
Mr.郑先生_
·
2020-07-12 19:46
爬虫
爬虫笔记
e1.HTTP和HTTPSHTTP协议(HyperTextTransferProtocol,超文本传输协议):是一种发布和接收HTML页面的方法。HTTPS(HypertextTransferProtocoloverSecureSocketLayer)简单讲是HTTP的安全版,在HTTP下加入SSL层。SSL(SecureSocketsLayer安全套接层)主要用于Web的安全传输协议,在传输层对
小僵尸打字员
·
2020-07-12 19:47
爬虫-从入坑到脱坑
Scrapy
爬虫笔记
【6-连接数据库(一)】
本博客地址【http://blog.csdn.net/xiantian7】数据库基本概念简介MySQL为关系型数据库(RelationalDatabaseManagementSystem),这种所谓的"关系型"可以理解为"表格"的概念,一个关系型数据库由一个或数个表格组成,如图所示的一个表格:表头(header):每一列的名称;列(row):具有相同数据类型的数据的集合;行(col):每一行用来描
显天
·
2020-07-12 18:50
Python
Scrapy爬虫笔记
Python
爬虫笔记
——多协程(gevent and queue)
1、爬取8个网站(包括百度、新浪、搜狐、腾讯、网易、爱奇艺、天猫、凤凰)。用多协程gevent()模块来爬取。这里有一个关于gevent的一些基础介绍的链接Python并发之协程gevent基础(5)fromgeventimportmonkey#从gevent库里导入monkey模块。monkey.patch_all()#monkey.patch_all()能把程序变成协作式运行,就是可以帮助程序
Fo*(Bi)
·
2020-07-12 15:40
爬虫笔记
python
Python
爬虫笔记
——解析json数据(以周杰伦歌单为例)及Headers
一、NetworkNetwork能够记录浏览器的所有请求。我们最常用的是:ALL(查看全部)/XHR(仅查看XHR)/Doc(Document,第0个请求一般在这里),有时候也会看看:Img(仅查看图片)/Media(仅查看媒体文件)/Other(其他)。最后,JS和CSS,则是前端代码,负责发起请求和页面实现;Font是文字的字体;而理解WS和Manifest,需要网络编程的知识,倘若不是专门做
Fo*(Bi)
·
2020-07-12 15:39
爬虫笔记
python
Python
爬虫笔记
——post请求、cookies及session
一、post请求post和get都可以带着参数请求,不过get请求的参数会在url上显示出来,但post请求的参数就不会直接显示,而是隐藏起来。像账号密码这种私密的信息,就应该用post的请求。如果用get请求的话,账号密码全部会显示在网址上,这显然不科学!你可以这么理解,get是明文显示,post是非明文显示。get请求会应用于获取网页数据,比如我们之前学的requests.get()。post
Fo*(Bi)
·
2020-07-12 15:39
爬虫笔记
Python
爬虫笔记
——爬虫入门
一、爬虫爬虫是什么我们把互联网有价值的信息都比喻成大的蜘蛛网,而各个接地那就是存放的数据,而蜘蛛网上的蜘蛛比喻成爬虫,而爬虫是可以自动抓取互联网信息的程序,从互联网上抓取一切有价值的信息,并把站点的html和js返回的图片爬到本地,并存出起来。爬虫用途爬取网站信息数据,12306抢票,网络投票等。二、BeautifulSoup使用BeautifulSoup是一个可以从HTML或XML文件中提取数据
CK_233
·
2020-07-12 15:10
Python
Python
爬虫笔记
——操作MongoDB数据库(pymongo)
一、MongoDBMongoDB是目前最流行的NoSQL数据库之一,使用的数据类型BSON(类似JSON)。下载地址:https://www.mongodb.com/download-center/community选择版本然后点击下载[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-92J3yHk0-1582473409126)(evernotecid://4A92E
CK_233
·
2020-07-12 15:10
Python
爬虫笔记
_1、爬虫的五个步骤及举例
文章目录爬虫的五个步骤:需求分析寻找网址([URL](https://baike.baidu.com/item/URL%E6%A0%BC%E5%BC%8F/10056474?fr=aladdin))下载网站的返回内容通过网站的返回内容找到需要爬取的数据:存储找到的数据内容:总结:爬虫的五个步骤:1.需求分析2.寻找网址3.下载网站的返回内容(需要用到:requests)4.通过网站的返回内容找到需
还没想好116
·
2020-07-12 14:31
爬虫
爬虫笔记
之BeautifulSoup模块官方文档笔记
爬虫笔记
之BeautifulSoup模块官方文档笔记文章开始把我喜欢的这句话送个大家:这个世界上还有什么比自己写的代码运行在一亿人的电脑上更酷的事情吗,如果有那就是让这个数字再扩大十倍几个简单的浏览结构化数据的方法
beyond_upup
·
2020-07-12 12:38
python
数据分析与挖掘
python |
爬虫笔记
- 学习路线
总体学习路径:1、学习Python包并实现基本的爬虫过程2、了解非结构化数据的存储3、学习scrapy,搭建工程化爬虫4、学习数据库知识,应对大规模数据存储与提取5、掌握各种技巧,应对特殊网站的反爬措施6、分布式爬虫,实现大规模并发采集,提升效率·目标驱动·在一开始的时候,尽量不要系统地去啃一些东西,找一个实际的项目(开始可以从豆瓣、小猪这种简单的入手),直接开始就好。·高效的姿势就是从实际的项目
weixin_30425949
·
2020-07-12 06:22
爬虫笔记
之JS检测浏览器开发者工具是否打开
在某些情况下我们需要检测当前用户是否打开了浏览器开发者工具,比如前端爬虫检测,如果检测到用户打开了控制台就认为是潜在的爬虫用户,再通过其它策略对其进行处理。本篇文章主要讲述几种前端JS检测开发者工具是否打开的方法。一、重写toString()对于一些浏览器,比如Chrome、FireFox,如果控制台输出的是对象,则保留对象的引用,每次打开开发者工具的时候都会重新调用一下对象的toString()
weixin_30375247
·
2020-07-12 05:49
python |
爬虫笔记
- (八)Scrapy框架基础
一、简介Scrapy是一个基于Twisted的异步处理框架,是针对爬虫过程中的网站数据爬取、结构性数据提取而编写的应用框架。可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。1.1安装pip3installScrapy1.2框架介绍组成:·Engine引擎,处理整个系统的数据流处理、触发事务·Item项目,定义爬取结果的数据结构·Scheduler调度器·Downloader下载器·
weixin_30287169
·
2020-07-12 05:13
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他