自然语言处理工具hanlp自定义词汇添加图解

阅读更多

 

过程分析

1.添加新词需要确定无缓存文件,否则无法使用成功,因为词典会优先加载缓存文件

2.再确认缓存文件不在时,打开本地词典按照格式添加自定义词汇。

3.调用分词函数重新生成缓存文件,这时会报一个找不到缓存文件的异常,不用管,因为加载词典进入内存是会优先加载缓存,缓存不在当然会报异常,然后加载词典生成缓存文件,最后处理字符进行分词就会发现新添加的词汇可以进行分词了。

操作过程图解:

1有缓存文件的情况下:

1  System.out.println(HanLP.segment("张三丰在一起我也不知道你好一个心眼儿啊,一半天欢迎使用HanLP汉语处理包!" +"接下来请从其他Demo中体验HanLP丰富的功能~"))

  2

3  //首次编译运行时,HanLP会自动构建词典缓存,请稍候……

4  //[/q, 三丰/nz, /p, 一起/s, /rr, /d, /d, 知道/v, 你好/vl, 一个心眼儿/nz, /y, /w, 一半天/nz, 欢迎/v, 使用/v, HanLP/nx, 汉语/gi, 处理/vn, /v, /w, 接下来/vl, /v, /p, 其他/rzv, Demo/nx, /f, 体验/v, HanLP/nx, 丰富/a, /ude1, 功能/n, ~/nx]

  5

  6

  1. 打开用户词典–添加 ‘张三丰在一起’ 为一个 nz词性的新词

     


    自然语言处理工具hanlp自定义词汇添加图解_第1张图片
     

     

    2.2 原始缓存文件下运行–会发现不成功,没有把 ‘张三丰在一起’ 分词一个nz词汇

    1  System.out.println(HanLP.segment("张三丰在一起我也不知道你好一个心眼儿啊,一半天欢迎使用HanLP汉语处理包!" +"接下来请从其他Demo中体验HanLP丰富的功能~"))

        2

    3  //首次编译运行时,HanLP会自动构建词典缓存,请稍候……

    4  //[/q, 三丰/nz, /p, 一起/s, /rr, /d, /d, 知道/v, 你好/vl, 一个心眼儿/nz, /y, /w, 一半天/nz, 欢迎/v, 使用/v, HanLP/nx, 汉语/gi, 处理/vn, /v, /w, 接下来/vl, /v, /p, 其他/rzv, Demo/nx, /f, 体验/v, HanLP/nx, 丰富/a, /ude1, 功能/n, ~/nx]

         5

     

    3.1 删除缓存文件 bin


    自然语言处理工具hanlp自定义词汇添加图解_第2张图片
     

     

    3.2 再次运行程序,此时会报错—无法找到缓存文件

    1  System.out.println(HanLP.segment("张三丰在一起我也不知道你好一个心眼儿啊,一半天欢迎使用HanLP汉语处理包!" +"接下来请从其他Demo中体验HanLP丰富的功能~"));

        2

    3  /**首次编译运行时,HanLP会自动构建词典缓存,请稍候……

    4  十月 19, 2018 6:12:49 下午 com.hankcs.hanlp.corpus.io.IOUtil readBytes

    5  WARNING: 读取D:/datacjy/hanlp/data/dictionary/custom/CustomDictionary.txt.bin时发生异常java.io.FileNotFoundException: D:\datacjy\hanlp\data\dictionary\custom\CustomDictionary.txt.bin (系统找不到指定的文件。)   找不到缓存文件

        6

        7

    8  [张三丰在一起/nz, /rr, /d, /d, 知道/v, 你好/vl, 一个心眼儿/nz, /y, /w, 一半天/nz, 欢迎/v, 使用/v, HanLP/nx, 汉语/gi, 处理/vn, /v, /w, 接下来/vl, /v, /p, 其他/rzv, Demo/nx, /f, 体验/v, HanLP/nx, 丰富/a, /ude1, 功能/n, ~/nx]

        9

    10  */  

     

 

  • 自然语言处理工具hanlp自定义词汇添加图解_第3张图片
  • 大小: 58.4 KB
  • 自然语言处理工具hanlp自定义词汇添加图解_第4张图片
  • 大小: 64.7 KB
  • 查看图片附件

你可能感兴趣的:(自然语言处理工具)