E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nlp自然语言处理
百度AI利用
NLP自然语言处理
技术发力智能写作/贪心学院
百度AI利用
NLP自然语言处理
技术发力智能写作/贪心学院自动写作:自动写作技术能够让机器自主的完成文章写作。当前计算机已经能够自动的撰写新闻快讯、热点组稿、春联等类型的文章。百度自动写作的财经新闻
贪心学院
·
2019-11-30 15:50
标题:DKhadoop大数据处理平台监控数据介绍
Ha
nlp自然语言处理
技术也荣膺了“2018中国数据星技术”奖。对这份榜单感兴趣的可以找一下看看。
本宫没空8
·
2019-11-03 04:23
NLP自然语言处理
的开发环境搭建
NLP的开发环境搭建主要分为以下几步:Python安装NLTK系统安装Python3.5下载安装下载链接:https://www.python.org/downloads/release/python-354/安装步骤:双击下载好的python3.5的安装包,如下图;选择默认安装还是自定义安装,一般默认安装就好,直接跳到步骤5,自定义的接着看步骤3,PS:AddPython3.5toPATH勾选上
村雨1943
·
2019-09-28 09:00
Atitit
nlp自然语言处理
类库(java python nodejs c#net) 目录 1.1. Python snownlp 1 1.2. NLP.js一个nodejs/javascri
Atitit
nlp自然语言处理
类库(javapythonnodejsc#net)目录1.1.Pythonsnownlp11.2.NLP.js一个nodejs/javascript自然语言处理库-JavaScript
attilax
·
2019-09-27 12:37
NLP自然语言处理
的开发环境搭建
NLP的开发环境搭建主要分为以下几步:Python安装NLTK系统安装Python3.5下载安装下载链接:https://www.python.org/downlo...安装步骤:双击下载好的python3.5的安装包,如下图;选择默认安装还是自定义安装,一般默认安装就好,直接跳到步骤5,自定义的接着看步骤3,PS:AddPython3.5toPATH勾选上,免去再去配置环境变量的麻烦;选择一些需
cunyu1943
·
2019-09-27 00:00
自然语言处理
自然语言处理(NLP)的一般处理流程!
1.什么是
NLP自然语言处理
(NaturalLanguageProcessing)是人工智能(AI)的一个子领域。自然语言处理是研究在人与人交互中以及在人与计算机交互中的语言问题的一门学科。
mantch
·
2019-08-20 19:00
使用 Seq2Seq 实现中英文翻译
1.介绍1.1Deep
NLP自然语言处理
(NaturalLanguageProcessing,NLP)是计算机科学、人工智能和语言学领域交叉的分支学科,主要让计算机处理或理解自然语言,如机器翻译,问答系统等
MomodelAI
·
2019-08-03 23:25
使用 Seq2Seq 实现中英文翻译
1.介绍1.1Deep
NLP自然语言处理
(NaturalLanguageProcessing,NLP)是计算机科学、人工智能和语言学领域交叉的分支学科,主要让计算机处理或理解自然语言,如机器翻译,问答系统等
Momodel
·
2019-08-03 00:00
python
机器学习
人工智能
ha
nlp自然语言处理
包的人名识别代码解析
阅读更多HanLP发射矩阵词典nr.txt中收录单字姓氏393个。袁义达在《中国的三大姓氏是如何统计出来的》文献中指出:当代中国100个常见姓氏中,集中了全国人口的87%,根据这一数据我们只保留nr.txt中的100个常见词语的姓氏角色,其他词语去掉其姓氏角色状态。过滤后,nr.txt中具有姓氏角色的单字共计97个。列于下表:丁万乔于任何余侯傅冯刘卢史叶吕吴周唐夏姚姜孔孙孟宋尹崔常康廖张彭徐戴方易
adnb34g
·
2019-08-02 09:00
ha
nlp自然语言处理
包的人名识别代码解析
HanLP发射矩阵词典nr.txt中收录单字姓氏393个。袁义达在《中国的三大姓氏是如何统计出来的》文献中指出:当代中国100个常见姓氏中,集中了全国人口的87%,根据这一数据我们只保留nr.txt中的100个常见词语的姓氏角色,其他词语去掉其姓氏角色状态。过滤后,nr.txt中具有姓氏角色的单字共计97个。列于下表:丁万乔于任何余侯傅冯刘卢史叶吕吴周唐夏姚姜孔孙孟宋尹崔常康廖张彭徐戴方易曹曾朱李
左手中的倒影
·
2019-08-02 09:46
ha
nlp自然语言处理
包的人名识别代码解析
HanLP发射矩阵词典nr.txt中收录单字姓氏393个。袁义达在《中国的三大姓氏是如何统计出来的》文献中指出:当代中国100个常见姓氏中,集中了全国人口的87%,根据这一数据我们只保留nr.txt中的100个常见词语的姓氏角色,其他词语去掉其姓氏角色状态。过滤后,nr.txt中具有姓氏角色的单字共计97个。列于下表:丁万乔于任何余侯傅冯刘卢史叶吕吴周唐夏姚姜孔孙孟宋尹崔常康廖张彭徐戴方易曹曾朱李
adnb34g
·
2019-08-02 09:36
hanlp
人名识别
自然语言处理
ha
nlp自然语言处理
包的人名识别代码解析
原文链接:https://zhuanlan.zhihu.com/p/75057531HanLP发射矩阵词典nr.txt中收录单字姓氏393个。袁义达在《中国的三大姓氏是如何统计出来的》文献中指出:当代中国100个常见姓氏中,集中了全国人口的87%,根据这一数据我们只保留nr.txt中的100个常见词语的姓氏角色,其他词语去掉其姓氏角色状态。过滤后,nr.txt中具有姓氏角色的单字共计97个。列于下
adnb34g
·
2019-08-02 09:52
自然语言处理
HanLP-基于HMM-Viterbi的人名识别原理介绍
阅读更多Ha
nlp自然语言处理
包中的基于HMM-Viterbi处理人名识别的内容大概在年初的有分享过这类的文章,时间稍微久了一点,有点忘记了。看了baiziyu分享的这篇比我之前分享的要简单明了的多。
adnb34g
·
2019-07-24 10:00
HanLP-基于HMM-Viterbi的人名识别原理介绍
Ha
nlp自然语言处理
包中的基于HMM-Viterbi处理人名识别的内容大概在年初的有分享过这类的文章,时间稍微久了一点,有点忘记了。看了baiziyu分享的这篇比我之前分享的要简单明了的多。
adnb34g
·
2019-07-24 09:09
hanlp
人名识别
自然语言处理
XLNet再次超越BERT,技术发展太快,如何才能跟得上节奏?
2019年贪心学院的《
NLP自然语言处理
训练营》作为业界的标杆,已培养出大量的NLP算法工程师,均已走上相应的工作岗位,而我们期待着他们将为2019年的中国NLP技术带去新鲜血液和希望。
Paper_weekly
·
2019-06-23 13:52
NLP自然语言处理
中英文分词工具集锦与基本使用介绍
阅读更多一、中文分词工具(1)Jieba(2)snowNLP分词工具(3)thulac分词工具(4)pynlpir分词工具(5)StanfordCoreNLP分词工具1.fromstanfordcorenlpimportStanfordCoreNLP2.withStanfordCoreNLP(r'E:\Users\EternalSun\PycharmProjects\1\venv\Lib\stan
adnb34g
·
2019-05-31 11:00
NLP自然语言处理
中英文分词工具集锦与基本使用介绍
一、中文分词工具(1)Jieba(2)snowNLP分词工具(3)thulac分词工具(4)pynlpir分词工具(5)StanfordCoreNLP分词工具1.fromstanfordcorenlpimportStanfordCoreNLP2.withStanfordCoreNLP(r'E:\Users\EternalSun\PycharmProjects\1\venv\Lib\stanford
adnb34g
·
2019-05-31 09:58
jieba
snowNLP分词工具
hanlp
自然语言处理
NLP自然语言处理
:jieba中文处理入门与进阶(官方文档解读)
jieba就是非常好用的中文工具,是以分词起家的,但是功能比分词要强大很多。官方介绍:https://github.com/455125158/jiebaimportjiebaimportjieba.posseg#词性标注importjieba.analyse#关键词提取目录1.基本分词函数与用法1.1添加用户自定义词典2关键词提取2.1基于TF-IDF算法的关键词抽取2.2关于TF-IDF算法的
陈宸-研究僧
·
2019-05-24 19:08
NLP自然语言处理
Atitit nlp 自然语言处理attilax总结 目录 1.1. 主要范畴 1 1.2. 研究难点 2 2. Ati涉及的领域(文档 tts 分词 抽取 摘要 检索) 2 3. Atit
Atitit
nlp自然语言处理
attilax总结目录1.1.主要范畴11.2.研究难点22.Ati涉及的领域(文档tts分词抽取摘要检索)23.AtititNLP---信息检索概论方面的书籍目录33.1
attilax
·
2019-05-05 06:30
Ha
nlp自然语言处理
工具之词法分析器
阅读更多本章是接前两篇《分词工具Hanlp基于感知机的中文分词框架》和《基于结构化感知机的词性标注与命名实体识别框架》的。本系统将同时进行中文分词、词性标注与命名实体识别3个任务的子系统称为“词法分析器”。加载对应的类为PerceptronLexicalAnalyzer,其构造方法为递增的3个模型地址:lpublicPerceptronLexicalAnalyzer(StringcwsModelF
adnb34g
·
2019-04-10 10:00
Ha
nlp自然语言处理
工具之词法分析器
本章是接前两篇《分词工具Hanlp基于感知机的中文分词框架》和《基于结构化感知机的词性标注与命名实体识别框架》的。本系统将同时进行中文分词、词性标注与命名实体识别3个任务的子系统称为“词法分析器”。加载对应的类为PerceptronLexicalAnalyzer,其构造方法为递增的3个模型地址:publicPerceptronLexicalAnalyzer(StringcwsModelFile)t
adnb34g
·
2019-04-10 09:30
自然语言处理
NLP自然语言处理
中英文分词工具集锦与基本使用
目录NLP分词工具集锦分词实例用文件一、中文分词工具(1)Jieba(2)snowNLP分词工具(3)thulac分词工具(4)pynlpir分词工具(5)StanfordCoreNLP分词工具(6)Hanlp分词工具二、英文分词工具1.NLTK:2.SpaCy:3.StanfordCoreNLP:NLP分词工具集锦分词实例用文件Chinese=open("Chinese.txt",'r').re
Eternal_Sun625
·
2019-03-20 14:31
Python
NLP
Ha
nlp自然语言处理
中的词典格式说明
阅读更多使用过hanlp的都知道hanlp中有许多词典,它们的格式都是非常相似的,形式都是文本文档,随时可以修改。本篇文章详细介绍了hanlp中的词典格式,以满足用户自定义的需要。基本格式词典分为词频词性词典和词频词典。1、词频词性词典(如CoreNatureDictionary.txt)(1)每一行代表一个单词,格式遵从[单词][词性A][A的频次][词性B][B的频次]...。(2)支持省略词
adnb34g
·
2019-03-15 11:00
Ha
nlp自然语言处理
中的词典格式说明
使用过hanlp的都知道hanlp中有许多词典,它们的格式都是非常相似的,形式都是文本文档,随时可以修改。本篇文章详细介绍了hanlp中的词典格式,以满足用户自定义的需要。基本格式词典分为词频词性词典和词频词典。1、词频词性词典(如CoreNatureDictionary.txt)(1)每一行代表一个单词,格式遵从[单词][词性A][A的频次][词性B][B的频次]...。(2)支持省略词性和频次
adnb34g
·
2019-03-15 10:02
hanlp
词典格式
自然语言处理工具
自然语言处理
Hanlp分词1.7版本在Spark中分布式使用记录
阅读更多新发布1.7.0版本的ha
nlp自然语言处理
工具包差不多已经有半年时间了,最近也是一直在整理这个新版本hanlp分词工具的相关内容。
adnb34g
·
2019-03-11 15:00
spark
Hanlp分词1.7版本在Spark中分布式使用记录
阅读更多新发布1.7.0版本的ha
nlp自然语言处理
工具包差不多已经有半年时间了,最近也是一直在整理这个新版本hanlp分词工具的相关内容。
adnb34g
·
2019-03-11 15:00
spark
如何编译运行Ha
nLP自然语言处理
包
阅读更多master分支对于master分支,编译方法如下:gitclonehttps://github.com/hankcs/HanLP.gitmvninstall-DskipTests·由于目前一些test不够规范,使用了硬编码路径下的资源,所以暂时跳过单元测试。·该方法不会将src/main/resources目录下的任何资源(包括hanlp.properties)打包进jar,如果需要打包
adnb34g
·
2019-03-06 11:00
如何编译运行Ha
nLP自然语言处理
包
master分支对于master分支,编译方法如下:gitclonehttps://github.com/hankcs/HanLP.gitmvninstall-DskipTests·由于目前一些test不够规范,使用了硬编码路径下的资源,所以暂时跳过单元测试。·该方法不会将src/main/resources目录下的任何资源(包括hanlp.properties)打包进jar,如果需要打包资源文件
adnb34g
·
2019-03-06 11:40
hanlp
自然语言
处理包
自然语言处理
NLP自然语言处理
中的hanlp分词实例
阅读更多本篇分享的依然是关于hanlp的分词使用,文章内容分享自gladosAI的博客,本篇文章中提出了一个问题,hanlp分词影响了实验判断结果。为何会如此,不妨一起学习一下gladosAI的这篇文章。学习内容在之前的实验中得到了不在词向量里的词与分词结果,结果有500多个词不在词向量里,解决方案就是重新分词,或再追加训练这些词到词向量里。但后者相对麻烦且目前样本量不大。我跟据词向量的作者[6]
adnb34g
·
2019-02-18 10:00
NLP
jieba分词
NLP自然语言处理
中的hanlp分词实例
本篇分享的依然是关于hanlp的分词使用,文章内容分享自gladosAI的博客,本篇文章中提出了一个问题,hanlp分词影响了实验判断结果。为何会如此,不妨一起学习一下gladosAI的这篇文章。学习内容在之前的实验中得到了不在词向量里的词与分词结果,结果有500多个词不在词向量里,解决方案就是重新分词,或再追加训练这些词到词向量里。但后者相对麻烦且目前样本量不大。我跟据词向量的作者[6]所使用的
adnb34g
·
2019-02-18 08:16
NLP
hanlp分词
jieba分词
自然语言处理
Pyha
nlp自然语言处理
中的新词识别
阅读更多Pyha
nlp自然语言处理
中的新词识别新词发现本“新词发现”模块基于信息熵和互信息两种算法,可以在无语料的情况下提取一段长文本中的词语,并支持过滤掉系统中已存在的“旧词”,得到新词列表。
adnb34g
·
2019-02-15 15:00
Pyha
nlp自然语言处理
中的新词识别
新词发现本“新词发现”模块基于信息熵和互信息两种算法,可以在无语料的情况下提取一段长文本中的词语,并支持过滤掉系统中已存在的“旧词”,得到新词列表。调用方法静态方法一句话静态调用接口已经封装到HanLP中:/***提取词语**@paramtext大文本*@paramsize需要提取词语的数量*@return一个词语列表*/publicstaticListextractWords(Stringtex
adnb34g
·
2019-02-15 14:06
pyhanlp
新词识别
自然语言处理
Pyha
nlp自然语言处理
中的新词识别
新词发现本“新词发现”模块基于信息熵和互信息两种算法,可以在无语料的情况下提取一段长文本中的词语,并支持过滤掉系统中已存在的“旧词”,得到新词列表。调用方法静态方法一句话静态调用接口已经封装到HanLP中:/***提取词语**@paramtext大文本*@paramsize需要提取词语的数量*@return一个词语列表*/publicstaticListextractWords(Stringtex
adnb34g
·
2019-02-15 14:06
自然语言处理
新词识别
hanlp
中文自然语言处理工具HanLP源码包的下载使用记录
阅读更多这篇文章主要分享的是ha
nlp自然语言处理
源码的下载,数据集的下载,以及将让源代码中的demo能够跑通。Hanlp安装包的下载以及安装其实之前就已经有过分享了。
adnb34g
·
2019-02-15 10:00
中文自然语言处理工具HanLP源码包的下载使用记录
这篇文章主要分享的是ha
nlp自然语言处理
源码的下载,数据集的下载,以及将让源代码中的demo能够跑通。Hanlp安装包的下载以及安装其实之前就已经有过分享了。
adnb34g
·
2019-02-15 09:10
自然语言处理
hanlp下载
自然语言处理
机器学习(10)-
NLP自然语言处理
大量餐馆评论
1.NLP是什么自然语言处理用于对文本的分类用于对中英文的互相翻译用于打字时候的自动纠错垃圾邮件过滤…1.1本次的目标这次学习是1000个英文的对一餐馆的评价,以及手动分类的结果,看一下是正面还是负面的评价。用NLP算法自动辨别评价的好坏,当在拿到一个评价时,就可以自动进行好坏的分类了。这次要做的就是对评论就行分类,完成以后可以拓展到文本文章英文报道等进行应用。1.2观察数据打开评论的tsv文件(
小龙虾虾
·
2019-01-14 17:27
机器学习(派神)
03 特征工程 - 特征转换 - 分词、Jieba分词
数值型数据),在这个过程中主要包括但不限于以下几种数据的处理:•文本数据转换为数值型数据•缺省值填充•定性特征属性哑编码•定量特征属性二值化•特征标准化与归一化分词分词是指将文本数据转换为一个一个的单词,是
NLP
白尔摩斯
·
2019-01-02 18:39
[
NLP自然语言处理
]谷歌BERT模型深度解析
出处https://blog.csdn.net/qq_39521554/article/details/83062188BERT模型代码已经发布,可以在我的github:NLP-BERT--Python3.6-pytorch中下载,请记得start哦目录一、前言二、如何理解BERT模型三、BERT模型解析论文的核心:详解BERT模型架构关键创新:预训练任务实验结果四、BERT模型的影响对BERT模
Thorrrrrrrrrr
·
2018-12-22 17:43
机器学习
深度学习
神经网络
NLP
NLP自然语言处理
常用的Python库 及安装方法
注意:以下pip命令都是在Anacondaprompt中运行的。因为使用anaconda来安装pyhon库时,它会自动解决各种依赖问题,方便快捷1、NLTKNaturalLanguageToolkit,自然语言处理工具包,在NLP领域中,最常使用的一个Python库。安装:pipinstallnltk2、Gensim可以用来从文档中自劢提取语义主题。它包含了很多非监督学习算法如:TF/IDF,潜在
NgCafai
·
2018-12-14 14:31
NLP
自然语言处理、人工智能、机器学习、深度学习和神经网络之间的介绍
1.如何快速入门
NLP自然语言处理
概述http://www.duozhishidai.com/article-11742-1.
duozhishidai
·
2018-12-12 20:24
人工智能
NLP自然语言处理
学习笔记(一)Word Embedding词嵌入
NLP自然语言处理
学习笔记(一)WordEmbedding词嵌入一、wordembedding的概念二、wordembedding的使用三、wordembedding的性质四、词嵌入矩阵五、学习词嵌入矩阵本文是根据吴恩达教授的教学视频来整理的学习笔记
AngelaOrange
·
2018-12-08 15:32
NLP自然语言处理
配置Ha
nlp自然语言处理
进阶
阅读更多中文分词中文分词中有众多分词工具,如结巴、hanlp、盘古分词器、庖丁解牛分词等;其中庖丁解牛分词仅仅支持java,分词是HanLP最基础的功能,HanLP实现了许多种分词算法,每个分词器都支持特定的配置。接下来我将介绍如何配置Hanlp来开启自然语言处理之旅,每个工具包都是一个非常强大的算法集合,所以小编以后将花一些时间去看看里面源码如何。下载jar、property和data文件下载j
adnb34g
·
2018-12-07 11:00
hanlp
linux
配置Ha
nlp自然语言处理
进阶
阅读更多中文分词中文分词中有众多分词工具,如结巴、hanlp、盘古分词器、庖丁解牛分词等;其中庖丁解牛分词仅仅支持java,分词是HanLP最基础的功能,HanLP实现了许多种分词算法,每个分词器都支持特定的配置。接下来我将介绍如何配置Hanlp来开启自然语言处理之旅,每个工具包都是一个非常强大的算法集合,所以小编以后将花一些时间去看看里面源码如何。下载jar、property和data文件下载j
adnb34g
·
2018-12-07 11:00
hanlp
linux
配置Ha
nlp自然语言处理
进阶
阅读更多中文分词中文分词中有众多分词工具,如结巴、hanlp、盘古分词器、庖丁解牛分词等;其中庖丁解牛分词仅仅支持java,分词是HanLP最基础的功能,HanLP实现了许多种分词算法,每个分词器都支持特定的配置。接下来我将介绍如何配置Hanlp来开启自然语言处理之旅,每个工具包都是一个非常强大的算法集合,所以小编以后将花一些时间去看看里面源码如何。下载jar、property和data文件下载j
adnb34g
·
2018-12-07 11:00
hanlp
linux
配置Ha
nlp自然语言处理
进阶
中文分词中文分词中有众多分词工具,如结巴、hanlp、盘古分词器、庖丁解牛分词等;其中庖丁解牛分词仅仅支持java,分词是HanLP最基础的功能,HanLP实现了许多种分词算法,每个分词器都支持特定的配置。接下来我将介绍如何配置Hanlp来开启自然语言处理之旅,每个工具包都是一个非常强大的算法集合,所以小编以后将花一些时间去看看里面源码如何。下载jar、property和data文件下载jar文件
adnb34g
·
2018-12-07 10:38
hanlp
linux
中文分词
自然语言处理
深度学习 (五)cbow、skip-gram of word2vec
介绍
NLP自然语言处理
即让计算机理解学会人类语言,让计算机像人一样能有分辨能力、语言交流能力,并为我们服务产生价值的一种研究方向,从发展历史来说经过了很多代人的努力,向我们的目标更近了一步,从传统的基于规则的语言逐步向基于统计的理论发展
李龙生
·
2018-11-14 07:51
机器学习
Ha
nLP自然语言处理
包开源
中文分词≠自然语言处理!中文分词只是第一步;HanLP从中文分词开始,覆盖词性标注、命名实体识别、句法分析、文本分类等常用任务,提供了丰富的API。不同于一些简陋的分词类库,HanLP精心优化了内部数据结构和IO接口,做到了毫秒级的冷启动、千万字符每秒的处理速度,而内存最低仅需120MB。无论是移动设备还是大型集群,都能获得良好的体验。不同于市面上的商业工具,HanLP提供训练模块,可以在用户的语
weixin_34119545
·
2018-11-07 14:29
Ha
nlp自然语言处理
工具的使用演练
rd.get(0));}3、短语提取方法签名:ListextractPhrase(Stringtxt,intphSum);返回:短语签名参数说明:txt:要提取短语的语句,phSum短语数量范例:给出一段文字,能代表文章的五个短语,第一个短语是算法工程师。程序清单3publicvoidtestExtractPhrase()throwsException{Stringtext="算法工程师\n"+"
lanlantian123
·
2018-11-02 16:23
[
NLP自然语言处理
]谷歌BERT模型深度解析
BERT模型代码已经发布,可以在我的github:NLP-BERT--Python3.6-pytorch中下载,请记得start哦目录一、前言二、如何理解BERT模型三、BERT模型解析论文的核心:详解BERT模型架构关键创新:预训练任务实验结果四、BERT模型的影响对BERT模型的观点参考文献一、前言最近谷歌搞了个大新闻,公司AI团队新发布的BERT模型,在机器阅读理解顶级水平测试SQuAD1.
qq_39521554
·
2018-10-15 17:18
Data
Science:深度学习
Data
Science:NLP相关
ha
nlp自然语言处理
包的基本使用--python
hanlp拥有:中文分词、命名实体识别、摘要关键字、依存句法分析、简繁拼音转换、智能推荐。这里主要介绍一下hanlp的中文分词、命名实体识别、依存句法分析,这里就不介绍具体的hanlp的安装了,百度教程很多,可以看这里:http://hanlp.com/里面也有相关的一些介绍。我以前还使用过jieba分词和LTP,综合来说,LTP是做的相对要好一点,特别是中文处理这一块,但是它的最大缺点是不开源,
adnb34g
·
2018-09-28 09:52
hanlp
python
自然语言处理
自然语言处理
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他