jieba分词源码解读一

从github上下载源代码后,打开 文件夹 jieba,找到__init__.py,结巴分词最主要的函数 cut 就定义在这个文件中。

这个函数的前半部分主要是根据用户指定的模式 用 正则表达式 将输入的文本 分块(block)。然后针对每一块进行分词,默认情况(精确模式)下使用的 块的分词函数叫 __cut_DAG 。

__cut_DAG 函数调用了 get_DAG(sentence),这是用来生成每一块(sentence)的有向无环图DAG。要生成DAG就必须有语料库的辅助了,所以在 同样在 文件夹 jieba 下,可以找到一个文件:dict.txt。语料库的有3列,第一列是词,第二列是词频,第三列是词性。在程序中初始化语料库的动作在函数  initialize(DICTIONARY) 中,它通过一个包装器 require_initialized 在 get_DAG 函数被调用的时候才执行。代码如下:

[python]  view plain  copy
  1. def require_initialized(fn):  
  2.  
  3.     @wraps(fn) #wraps的作用是保留被包装函数的一些属性,比如__doc__  
  4.     def wrapped(*args, **kwargs):  
  5.         global initialized  
  6.         if initialized:  
  7.             return fn(*args, **kwargs)  
  8.         else:  
  9.             initialize(DICTIONARY)  
  10.             return fn(*args, **kwargs)  
  11.   
  12.     return wrapped  

语料库加载后是要保存在 trie 树中的,让我们来看看作者是怎么实现中文的 trie 树的。

在 initialize 函数的最开头可以看到作者用with关键词优雅的获取了当前线程的RLock,with 的用法有点类似C#里的关键词using,详见:http://blog.csdn.net/largetalk/article/details/6910277

jieba 分词为了加快语料库的加载使用了缓存技术,它会将生成好的语料库数据结构用 marshal 序列化,然后存放在系统的临时目录(用到了 tempfile 库)下。如果找不到 缓存的 .cache 文件,调用 gen_trie 函数来生成 trie 树。该函数的代码如下:

[python]  view plain  copy
  1. def gen_trie(f_name):  
  2.     lfreq = {}  
  3.     trie = {}  
  4.     ltotal = 0.0  
  5.     with open(f_name, 'rb') as f:  
  6.         lineno = 0   
  7.         for line in f.read().rstrip().decode('utf-8').split('\n'):  
  8.             lineno += 1  
  9.             try:  
  10.                 word,freq,_ = line.split(' ')  
  11.                 freq = float(freq)  
  12.                 lfreq[word] = freq  
  13.                 ltotal+=freq  
  14.                 p = trie  
  15.                 for c in word:  
  16.                     if c not in p:  
  17.                         p[c] ={}  
  18.                     p = p[c]  
  19.                 p['']='' #ending flag  
  20.             except ValueError, e:  
  21.                 logger.debug('%s at line %s %s' % (f_name,  lineno, line))  
  22.                 raise ValueError, e  
  23.     return trie, lfreq,ltotal  

这段代码就是 trie 树的具体实现,发现 trie 树其实就是一个嵌套的 dict,根据我的测试,使用默认的 dict.txt 生成的 trie 树在第一层的节点数高达:11772,这是一个值得改进的地方。如果使用自己的语料库而且又非常庞大的话,可以使用trie森林这样的手段,以词语的首字为根节点得到一颗trie树,形成一个trie森林。

你可能感兴趣的:(jieba分词源码解读一)