NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录

最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。

以下是整理的安装过程和注意事项。

希望能给大家提供些帮助。

目录

  • 一、Nlpir
      • 第一步:下载工具。
      • 第二步:下载后,解压,按如下顺序进入目录。
      • 第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。
  • 二、 Pyltp
      • 第一步:下载安装Pyltp。
      • 第二步:下载模型。
      • 第三步:使用基本组件。
  • 三、 Jieba
      • 第一步:pip安装,指令为
      • 第二步:基于python中jieba包的中文分词中详细使用。
  • 四、 Hanlp
      • 第一步:下载Hanlp 。
      • 第二步:在eclipse里导入项目。点开下图文件夹,即可使用Hanlp各个功能。
  • 五、 Snownlp
      • 第一步:安装。
      • 第二步:使用。

一、Nlpir

第一步:下载工具。

下载地址
NLPIR工具每七天要更新一次License, 去官网下载下面的文件覆盖源文件里的License文件。
NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录_第1张图片

第二步:下载后,解压,按如下顺序进入目录。

NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录_第2张图片
按自己电脑版本选择进入win32或win64。
NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录_第3张图片
打开NIPIR-Parser.exeNLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录_第4张图片

第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。

NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录_第5张图片

二、 Pyltp

pyltp 是 LTP 的 Python 封装,提供了分词,词性标注,命名实体识别,依存句法分析,语义角色标注的功能。(目前pyltp 暂不提供语义依存分析功能)。

第一步:下载安装Pyltp。

可参考:pyltp目录、pyltp在windows下的编译安装

注意:pyltp不支持python7及以上版本;要先下载好VC2015。
NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录_第6张图片

第二步:下载模型。

下载地址
注意:模型文件可放在随意位置,使用时指定绝对地址即可。
NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录_第7张图片

第三步:使用基本组件。

可参考:pyltp的使用教程

三、 Jieba

第一步:pip安装,指令为

pip install jieba -i https://pypi.douban.com/simple/
(使用清华镜像,超快)

可参考:jieba安装下载

第二步:基于python中jieba包的中文分词中详细使用。

可参考:jieba安装下载

四、 Hanlp

第一步:下载Hanlp 。

下载链接

第二步:在eclipse里导入项目。点开下图文件夹,即可使用Hanlp各个功能。

NLPIR、pyltp、jieba、hanlp、snownlp分词工具安装使用记录_第8张图片

五、 Snownlp

第一步:安装。

指令为 pip install snownlp

第二步:使用。

可参考:Py之SnowNLP:SnowNLP中文处理包的简介、安装、使用方法、代码实现之详细攻略

你可能感兴趣的:(知识提取,自然语言处理)