E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Python爬虫实战
python爬虫实战
---网易云音乐评论抓取
本文主要是提取网易云音乐中歌曲的评论时间、评论者昵称、评论内容,并把数据写进csv文件里面,读取文件里面存储的评论内容,根据指定的背景图制作词云,抓取目标https://music.163.com/#/song?id=1299557768,2018年八月最热新歌TOP50中的Animal歌曲。引言网易云大厂一般都对自己的数据做了很好的加密,一般直接爬取都爬取不到数据,这也是爬取当中一个很头疼的事情
唐·吉坷德
·
2020-06-28 19:55
爬虫
requests
词云
python
wordcloud
csv
python爬虫实战
--爬取猫眼专业版-实时票房
小白级别的爬虫入门最近闲来无事,发现了猫眼专业版-实时票房,可以看到在猫眼上映电影的票房数据,便验证自己之前学的python爬虫,爬取数据,做成.svg文件。爬虫开始之前我们先来看看猫眼专业版-实时票房这个网页,看看我们要爬取的数据,分析网页的结构和查看源码。(1)网页链接:https://piaofang.maoyan.com/dashboard(2)爬取的数据:红框框里面的数据就是我们想要的(
唐·吉坷德
·
2020-06-28 19:55
python
爬虫
Python爬虫实战
笔记_1-1
认识html。动手做了一个简单的页面。事实证明,只要元素用的好看,网页就可以很好看。ScreenShot2016-06-26at8.33.12PM.png代码TheblahhomesiteotherTheBeachstretchingfromSoltatoM1jets©Mugglecoding总结:HTML5引入了不少新标签比如nav,后面爬网页的时候可以留意一下,看看现在的新写法。keepgoi
Sugeei
·
2020-06-28 13:53
Python爬虫实战
(6)-爬取QQ空间好友说说并生成词云(超详细)
前言先看效果图:TXT文件:如果想生成特定图片样式的词云图,可以直接访问下面这篇文章学一下:https://mp.weixin.qq.com/s/FUwQ4jZu6KMkjRvEG3UfGw前几天我们陆陆续续的讲了Python如何生成词云以及Selenium的安装使用,今天我们综合一下这些知识,写一篇爬虫实战文章,带大家爬取QQ空间好友说说写人本地txt文件,并生成词云。大家一定很感兴趣吧?下面开
weixin_33894640
·
2020-06-28 07:13
Python爬虫实战
(4)-带你用Python爬取妹子图片
###前言最近很忙,很久没有更新了,在这里和大家说声抱歉。今天继续讲一下爬虫实战,用Python爬取妹子图片。本文用到的知识点:-requests-xpath语法-OS模块实现创建文件以及写入文件###爬取图片先看效果图:本文爬取的网站是豆瓣美女,网址:https://www.dbmeinv.com/###代码1.获取网站的网页数据2.获取图片URL列表3.依次写入本地文件下面是整体的代码,爬取了
weixin_33755649
·
2020-06-28 04:28
Python爬虫实战
案例:爬取爱奇艺VIP视频
一、实战背景爱奇艺的VIP视频只有会员能看,普通用户只能看前6分钟。比如加勒比海盗5的URL:http://www.iqiyi.com/v_19rr7qhfg0.html#vfrm=19-9-0-1我们怎么免费看VIP视频呢?一个简单的方法,就是通过旋风视频VIP解析网站。URL:http://api.xfsub.com/这个网站为我们提供了免费的视频解析,它的通用解析方式是:http://api
weixin_30663391
·
2020-06-27 23:30
Python使用Scrapy框架爬取数据存入CSV文件(
Python爬虫实战
4)
1.Scrapy框架Scrapy是python下实现爬虫功能的框架,能够将数据解析、数据处理、数据存储合为一体功能的爬虫框架。2.Scrapy安装1.安装依赖包yuminstallgcclibffi-develpython-developenssl-devel-yyuminstalllibxslt-devel-y2.安装scrapypipinstallscrapypipinstalltwisted
weixin_30451709
·
2020-06-27 20:57
Python多线程爬虫与多种数据存储方式实现(
Python爬虫实战
2)
1.多进程爬虫对于数据量较大的爬虫,对数据的处理要求较高时,可以采用python多进程或多线程的机制完成,多进程是指分配多个CPU处理程序,同一时刻只有一个CPU在工作,多线程是指进程内部有多个类似"子进程"同时在协同工作。python中有多种多个模块可完成多进程和多线程的工作,此处此用multiprocessing模块完成多线程爬虫,测试过程中发现,由于站点具有反爬虫机制,当url地址和进程数目
weixin_30371469
·
2020-06-27 18:49
【图文详解】
python爬虫实战
——5分钟做个图片自动下载器
python爬虫实战
——图片自动下载器之前介绍了那么多基本知识【Python爬虫】入门知识,(没看的先去看!!)大家也估计手痒了。
weixin_30352645
·
2020-06-27 18:14
[Scrapy]爬取糗事百科段子
1.
Python爬虫实战
一之爬取糗事百科段子(http://cuiqingcai.com/990.html)2.在工作目录创建myprojectscrapystartprojectmyproject3.
HQ麟
·
2020-06-27 09:03
python
Python爬虫实战
--使用python爬取网站数据
1、获取url:输入想要爬取的网站url。2、发送请求:使用python的requests库获取url并发送请求。3、提取数据:使用正则表达式提取想要获取的数据。4、保存数据:得到想要的数据后,可存放到文件中或数据库。上代码实例:importrequestsimportreurl=”网站Url”Headers={“user-Agent”:””}html=Requests.get(url,heade
qff1987
·
2020-06-27 07:30
Python爬虫实战
——签名软件设计(一)python POST模拟网页按钮点击
Python爬虫实战
(windows)关于本文:上一篇文章介绍了如何使用python爬虫进行网页图片等素材的抓取。
唉吱吱吱吱吱
·
2020-06-27 04:18
python爬虫
gui界面
Python爬虫实战
项目第一节课学习笔记
第一次没看懂,不知所以然,专门学了一天HTML和CSS样式,才知道是怎么一回事,建议后来的学生还是先去了解HTML和CSS,不然完全把老师的代码抄一遍没有意义显示成果第一节课作业效果.png我的代码:TheblahHomeSiteOtherTheBeachWhenIwrotethefollowingpages,orratherthebulkofthem,Ilivedalone,inthewoods
Davy_yu
·
2020-06-27 00:34
Python爬虫实战
之爬取糗事百科段子
Python爬虫实战
之爬取糗事百科段子完整代码地址:
Python爬虫实战
之爬取糗事百科段子程序代码详解:Spider1-qiushibaike.py:爬取糗事百科的8小时最新页的段子。
zhisheng_blog
·
2020-06-26 21:10
python
爬虫
Python相关文章
Python爬虫实战
之使用Scrapy爬起点网的完本小说
一.概述本篇的目的是用scrapy来爬取起点小说网的完本小说,使用的环境ubuntu,至于scrapy的安装就自行百度了.二.创建项目scrapystartprojectname通过终端进入到你创建项目的目录下输入上面的命令就可以完成项目的创建.name是项目名字.三.item的编写我这里定义的item中的title用来存书名,desc用来存书的内容.importscrapyclassTutori
Swornf、时年
·
2020-06-26 20:02
Python
python爬虫实战
(六) 天猫(淘宝)评论爬取与分析实战
目录一、天猫(淘宝)爬取地址对比二、防爬技巧三、数据分析一、天猫(淘宝)爬取地址对比天猫评论抓包json数据如下,在list_detail_rate中,一页二十个用户信息:淘宝评论抓包的json数据如下,同样是一页二十个,不过是在feedRateList中两者的爬取过程基本相同,在此以天猫为例,爬取的内容是口罩的评论。二、防爬技巧1.请求头一定设置完全!!先前,因为请求头设置的参数不完全,导致爬到
皖渝
·
2020-06-26 09:42
python爬虫实战
python爬虫实战
(三) 免登录微博超话爬虫+数据可视化
微博爬虫可以不借助selenium,直接用Chrome下的手机端模式打开,找到其封装的json数据,即可爬取,具体步骤如下。分析过程以东野圭吾超话为例,网址为微博超话。进入页面后,使用Chrome浏览器的检查功能,打开手机端模式如下:刷新界面,进行抓包,可发现数据的封装地址。接下来,我们分析一下翻页原理,向下滑动界面,对比两者的URL不难发现,只有since_id不一样。那就找到第一条url的js
皖渝
·
2020-06-26 09:41
python爬虫实战
python
可视化
json
数据分析
爬取豆瓣读书-用户信息页链接(
Python爬虫实战
)
接着上一篇博客(爬取豆瓣读书-用户所有阅读书籍名称、日期和书籍链接),进行对用户信息页链接抓取,采用BeautifulSoup框架我的上一篇博客传送门这篇博客主要是获取大量的用户介绍网页链接,这样结合上一篇博客,就可以获取大量用户的读书信息,供分析豆瓣读书中用户兴趣的相关研究者使用。废话不多说,直接上代码!!!importrequestsfrombs4importBeautifulSoupimpo
shaomingmin
·
2020-06-26 08:53
Python爬虫
天眼查反爬的曲线救国道路-爬取红盾网企业信息(
Python爬虫实战
)
先在这里给出红盾网抓取企业信息代码,有时间再去研究如果对天眼查进行企业信息抓取,后续更新…importrequestsimporttimefromlxmlimportetreeheaders={'user-agent':'Mozilla/5.0(WindowsNT10.0;WOW64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/70.0.3538.25Saf
shaomingmin
·
2020-06-26 08:53
Python爬虫
【含代码】
Python爬虫实战
:爬取全站小说排行榜
喜欢看小说的骚年们都知道,总是有一些小说让人耳目一新,不管是仙侠还是玄幻,前面更了几十章就成功圈了一大波粉丝,成功攀上飙升榜,热门榜等各种榜,扔几个栗子出来:新笔趣阁是广大书友最值得收藏的网络小说阅读网,网站收录了当前......我就不打广告了(其他满足下文条件的网站也行,之前已经有做过简单爬取章节的先例了,但效果不太理想,有很多不需要的成分被留下了,来链接:http://python.jobbo
大数据公社
·
2020-06-26 08:36
python爬虫实战
笔记---selenium爬取QQ空间说说并存至本地
关于selenium和PhantomJS的使用,见
python爬虫实战
笔记---selenium爬取QQ空间说说并存至本地(上)以下,正式开始对QQ空间进行分析和爬取站点分析:此版本的QQ空间,是以笔者自己的
少年粪土
·
2020-06-26 06:06
爬虫
python
Python爬虫实战
:手把手教你爬取农产品数据(附代码)
前言文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。爬虫的网站:万邦国际集团。其成立于2010年,总部位于河南省郑州市,以“立足三农、保障民生、服务全国”为宗旨,业务涵盖综合性农产品冷链物流、高效生态农业开发、生鲜连锁超市、跨境电子商务、进出口贸易等农业全产业链。荣获重点龙头企业、全国农产品“综合十强市场”、“星创天地”、全国“万
其实还好啦
·
2020-06-26 04:27
Python爬虫实战
教程:爬取网易新闻
前言本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。作者:Amauri此文属于入门级级别的爬虫,老司机们就不用看了。本次主要是爬取网易新闻,包括新闻标题、作者、来源、发布时间、新闻正文。首先我们打开163的网站,我们随意选择一个分类,这里我选的分类是国内新闻。然后鼠标右键点击查看源代码,发现源代码中并没有页面正中的新闻列表。这说
编程小六
·
2020-06-26 00:28
Python学习
python:第七章 文件与异常1学习题目
python爬虫实战
:下载百度文库文档入门总结:python入门:有关字符串的操作代码总结python入门:有关math包以及内置函数的数值操作代码总结Python练习:python:第二章字符串和数值程序作业
wja_626
·
2020-06-26 00:49
python基础学习
【
python爬虫实战
】爬取豆瓣影评数据
概述:爬取豆瓣影评数据步骤:1、获取网页请求2、解析获取的网页3、提速数据4、保存文件源代码:#1、导入需要的库importurllib.requestfrombs4importBeautifulSoup#随机数的库importrandom#时间库importtime#表格库importcsv#2、分多个浏览器访问豆瓣网,防止访问多页时被拒绝#每个浏览器在请求数据的时候,请求头是不一样#计算机命名
lomtom
·
2020-06-25 22:00
python
#
爬虫
python爬虫实战
二、多页爬取全篇小说并分章节保存本地
多页爬取全篇小说并分章节保存本地有需要爬取一些文章来满足自己开发的实际需要,以下以爬取经典小说《西游记》为例,共计101回。在开始之前我们需要导入我们需要的库:①beautifulsoup4②requests③lxml根据实际需要导入自己需要的库,也可以不用以上的库,自己熟悉哪种解析库,便优先选取哪种。本次爬取的网站为诗词名句网中的西游记小说总代码如下:frombs4importBeautiful
LeeChoy.
·
2020-06-25 21:05
Python
Python爬虫
python爬虫实战
爬取一比分网的球员数据存入MySQL数据库
#代码比较粗糙只能一次性获得一个球队最近大名单的球员数据,要获取一个联赛的还要写一个迭代,懒就没写了,当时爬了欧洲五大顶级联赛的数据,是为了tableau可视化爬取的数据importpymysqlfromurllib.parseimporturlencodeimportrequestsfromlxmlimportetreeconn=pymysql.connect(host='localhost',
叔叔有着糖
·
2020-06-25 15:11
python
Python爬虫实战
(1)猫眼电影Top100
Python爬虫实战
(1)猫眼电影Top1001.网页分析2.代码3.输出结果利用BeautifulSoup和和requests库实现猫眼电影Top100的抓取运行平台:WindowsPython版本:
Zlzzz.
·
2020-06-25 13:14
Python爬虫
Python爬虫实战
(3)古诗文网
Python爬虫实战
(3)古诗文网网页分析代码注意事项输出结果利用BeautifulSoup和和requests库实现古诗文网的古诗抓取运行平台:WindowsPython版本:Python3.8IDE
Zlzzz.
·
2020-06-25 13:14
Python爬虫
Python爬虫实战
篇 | “花式扫【五福】”,人人都能用的一键下载海量图片
ZFB一年一度的【集齐五福,拼手气分5亿】活动火热进行中1月24日22:18开奖2020年新增了【全家福】卡,帮还全家花呗大奖,最高能还48888元集齐五福就能参加亿级大项目了,心动不如行动今天和大家分享一下,如何一键下载海量图片,花式扫【五福】,喜欢哪张扫那种,当然工作中也是经常用到的,实测“一分钟1000张左右”。获取方法:公众号回复【图片下载】即可。得到的文件包括:exe文件,人人都可以直接
Python家庭
·
2020-06-25 08:18
Python爬虫
Python爬虫实战
--(二)解析网页中的元素
使用requests发送请求自己写selector根据属性值筛选指定内容一对多关系的筛选爬取分页模拟手机端访问来抓取图片总结上一篇我们解析了本地的网页,而这一篇我们去解析真实的网络环境中的网页。目标:用Request+Beautifulsoup库爬取Tripadvisor网站的内容。Tripadvisor的网址:https://www.tripadvisor.cn/Attractions-g607
丶夏日雨
·
2020-06-25 00:31
Python爬虫
Python爬虫实战
案例: 腾讯视频真实视频地址解析
本文章主要是教大家如何解析腾讯视频的真实视频地址,话不多说直接上代码:1importrequests2importjson3importre4headers={'user-agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64;rv:69.0)Gecko/20100101Firefox/69.0'}5defqq_video(url):6appver='3.2.19.
Python编程KK
·
2020-06-24 14:34
Python | 爬虫抓取影评生成词云
在大数据领域词云也不是啥新鲜事了,记得若干年前微博也有生成词云的功能,我的微博最大的关键字好像是“吃”来着……本文是参考
Python爬虫实战
(1):分析豆瓣中最新电影的影评改写而来,python版本为2.7
madaokuma
·
2020-06-24 13:44
python
Python爬虫实战
--斗鱼直播爬虫
前言:稍微总结一下前面我们所学到的内容吧!在前面的实战学习中,我们学会如何使用requests来获取网页源码,并从中提取出我们所需要的数据,那接下来,我们也将进一步学会使用selenium获取网页,分析网页,和提取数据。目标站点分析目标URL:https://www.douyu.com/directory/all明确内容:本次爬虫实战里,我们将要爬取斗鱼网站上面所有的房间信息,并提取我们的目标数据
雾里看花_lhh
·
2020-06-24 12:08
Python爬虫实战
python学习
selenium实战
python爬取糗事百科
转载:静觅»
Python爬虫实战
一之爬取糗事百科段子#!
luoyu_bie
·
2020-06-24 10:28
python爬虫
Python爬虫学习手册
like:128-Python爬取落网音乐like:127-【图文详解】
python爬虫实战
——5分钟做个图片自动下载器like:97-用Python写一个简单的微博爬虫like:87-爬虫抓取拉勾网职位需求关键词
l550725541
·
2020-06-24 02:36
学习资料
Python爬虫实战
——蚂蜂窝国内目的地全抓取
上一篇文章爬的是豆瓣电影,是属于静态页面的,而且很有规律的,做起来比较容易。这次的蚂蜂窝国内目的主要有三点比较困难的地方1.不是静态页面,要通过post请求才能获得需要的信息,通过刷新网页可以看到发送了什么请求,或者也可以用网络监听器2.返回的响应是json形式的文件,不能直接用lxml去解析,要通过json模块来进行转化3.缺失信息的情况比较多,需要多种判断源码#!/usr/bin/python
kelvinLLL
·
2020-06-24 00:36
爬虫
python
Python 爬虫实战:分析豆瓣中最新电影的影评
Python爬虫实战
:分析豆瓣中最新电影的影评接触python时间不久,做些小项目来练练手。前几天看了《战狼2》,发现它在最新上映的电影里面是排行第一的,如下图所示。准备把豆瓣上对它的影评做一个分析。
明镜止水321
·
2020-06-23 22:35
Python
项目实战
python
豆瓣
爬虫
数据
Python爬虫实战
(一)
这是我做的一个Html测试页面:页面效果如下所示:html代码如下所示TitleHomeSiteOtherArticleTheblahThisisadangerouslydeliciouscake.TheblahIt'salwaystaconightsomewhere!TheblahOmeletteyouinonalittlesecret —get请求
文章目录一、爬虫任务二、任务分析二、脚本三、运行结果一、爬虫任务在百度上搜索“小明”,将搜索结果的前三页保存到本地二、任务分析发送的请求是get请求,请求的url如下:http://www.baidu.com/s?wd=小明第1页http://www.baidu.com/s?wd=小明&pn=10#第2页http://www.baidu.com/s?wd=小明&pn=20#第3页整体任务是一个
龟的小号
·
2020-06-23 14:33
爬虫
Python爬虫实战
之爬取网站全部图片(一)
一.获得图片地址和图片名称1.进入网址之后按F12打开开发人员工具点击elemnts2.点击下图的小箭头选择主图中的任意一个图片那我们这里点击第一个图片3.显示控制台为了验证xpath是否正确4.通过xpath获得a的href和title.(请放大看)我们看到他提示的是有10个我们回到网站中看一下在主页上数一下他确实是10个也就是说我们获得的href和title是没有任何问题的那么留着为我们后面使
爱学习的小肥猪
·
2020-06-23 13:51
python爬虫实战
——猫眼电影案例
python爬虫实战
——猫眼电影案例·背景 笔者上一篇文章《基于猫眼票房数据的可视化分析》中爬取了猫眼实时票房数据,用于展示近三年电影票房概况。
AJ-Gordon
·
2020-06-23 11:17
爬虫
Python爬虫实战
之12306抢票开源
今天就和大家一起来讨论一下python实现12306余票查询(pycharm+python3.7),一起来感受一下python爬虫的简单实践我们说先在浏览器中打开开发者工具(F12),尝试一次余票的查询,通过开发者工具查看发出请求的包余票查询界面可以看到红框框中的URL就是我们向12306服务器发出的请求,那么具体是什么呢?我们来看看https://kyfw.12306.cn/otn/leftTi
嗨学编程
·
2020-06-23 07:58
Python
干货 |
Python爬虫实战
(中):数据可视化-教你做出漂亮的图表
上一期我们利用Python+百度地图POI抓取了一些高校之间的距离数据,传送门:干货|
Python爬虫实战
:两点间的真实行车时间与路况分析(上)不知道上一期的爬取数据的内容大家都品尝的怎么样了呢。
infinitor
·
2020-06-22 04:25
算法
Python
java
算法
Python
java
C++
[简单的
python爬虫实战
] ,在torrentkittyzw获取磁力链接
需求分析:有些时候,想到网上找点小电影,但是又不想上网站上看,想下载下来慢慢品味。出于这种需求下,做了这么一个小工具。先上网上找提供磁力链接的网站,这里选择的是torrentkittyzw。引入要使用的库:importrequestsfrombs4importBeautifulSoupimportcsv#利用csv文件保存数据构造网址:defCreateURL(): url=r"http://
M_C_ing
·
2020-06-22 01:23
Python
爬虫
python爬虫实战
(一)做个图片自动下载器
制作爬虫的基本步骤环境pyton3.7顺便通过这个小例子,可以掌握一些有关制作爬虫的基本的步骤。一般来说,制作一个爬虫需要分以下几个步骤:分析需求分析网页源代码,配合F12(没有F12那么乱的网页源代码,你想看死我?)编写正则表达式正式编写python爬虫代码效果:恩,让我输入关键词,让我想想,输入什么好呢?好像有点暴露爱好了。好了,差不多就是这么个东西。需求分析"我想要图片,我又不想上网搜“"最
CodeSmellCleaner
·
2020-06-21 20:33
python
【
Python爬虫实战
】2020最新无错误,头条爬取图片实战,Ajax异步加载,附有源码
头条搜索关键词,爬取相关图片头条的爬取设计Ajax数据的爬取。导入包:importrequestsimporttimeimportosimportrefromhashlibimportmd5fromurllib.parseimporturlencodefrommultiprocessing.poolimportPool分析打开Chrome/Safrai中的检查—网络,在头条官网上进行搜索,例如:天
Blank_spaces
·
2020-06-21 17:02
爬虫
Python爬虫从入门到放弃 07 |
Python爬虫实战
--下载盗墓笔记全集
此博客仅为我业余记录文章所用,发布到此,仅供网友阅读参考,如有侵权,请通知我,我会删掉。本文章纯野生,无任何借鉴他人文章及抄袭等。坚持原创!!前言你好。这里是Python爬虫从入门到放弃系列文章。我是SunriseCai。由于某些不可抗因素,本篇文章删除了,有好的网站,可以在下方留言,我将会补上它。代码自取:https://github.com/SunriseCai/spiderCode/tree
SunriseCai
·
2020-06-21 13:02
Python爬虫实战
抓包分析视频评论
本文介绍了抓包分析工具Fiddler的使用,以及用这个工具来辅助分析抓取腾讯视频评论数据的实战。系列文章Python3基础教程最全总结Python3进阶教程最全总结一文掌握Python基础知识一文掌握Python列表/元组/字典/集合一文掌握Python函数用法Python面向对象之类与对象详解Python面向对象之装饰器与封装详解Python面向对象之继承和多态详解Python异常处理和模块详解
datamonday
·
2020-06-21 12:48
Python
Python爬虫实战
之(四)| 模拟登录京东商城
作者:xiaoyu微信公众号:Python数据科学知乎:Python数据分析师解读爬虫中HTTP的秘密(基础篇)解读爬虫中HTTP的秘密(高阶篇)前两篇和大家分享了爬虫中http的一些概念和使用方法,基础篇我们主要介绍了http的请求头,高级篇我们主要介绍了cookie和session(具体可以点击上面链接进行回顾)。但其实在爬虫中还有很多关于http的内容需要了解,例如token,oauth等。
weixin_33859231
·
2020-06-21 10:50
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他