中文分词在大数据横行的今天是越来越有用武之地了。它不仅被广泛用于专业的中文搜索引擎中,而且在关键词屏蔽、黑白名单以及文本相似度等方面也能大显身手。中文分词最简单也最常用的方式是基于字典查找的方式,通过遍历待分词字符串并在字典中进行查找匹配以达到分词的目的。本文即是采用这种方式。
在本文中,完全依赖于字典,因此需要准备好字典。一般面对不同的领域用不同的字典。比如面向医学的,则字典会添加许多医学术语方面的词。可以很容易的找到常用词的字典,比如搜狗输入法自带的字典等。
停止词不能用于成词。停止词主要包括无意义的字符(如的、地、得)或词。
本文由于只是简单的介绍和实现,所以定义好了简单的字典和停止词,如下代码所示:
<!DOCTYPE html> <html> <head> <meta charset="utf-8"> <title>简单的中文分词</title> <meta name="author" content="" /> <meta http-equiv="X-UA-Compatible" content="IE=7" /> <meta name="keywords" content="简单的中文分词" /> <meta name="description" content="简单的中文分词" /> </head> <body> <script type="text/javascript"> // 字典 var dict = { "家乡" : 1, "松花" : 1, "松花江" : 1, "那里" : 1, "四季" : 1, "四季迷人" : 1, "迷人" : 1, "花香" : 1 }; // 停止词 var stop = { "的" : 1 }; // 待分词的字符串 var words = "我的家乡在松花江边上,那里有四季迷人的花香。"; </script> </body> </html>
dict和stop之所以定义为Object,是因为这样可令查找的时间复杂度为常值O(1)。分词的过程有点像正则表达式的惰性匹配。先从words中读取第一个字符"我"并在dict中和stop中查找,如果是停止词,则丢掉已读取的,然后读取第二个字"的"。如果在dict中,则添加到结果集,然后继续读到下一个,再同样去stop和dict中查找,直到处理完成。代码如下:
<!DOCTYPE html> <html> <head> <meta charset="utf-8"> <title>简单的中文分词</title> <meta name="author" content="" /> <meta http-equiv="X-UA-Compatible" content="IE=7" /> <meta name="keywords" content="简单的中文分词" /> <meta name="description" content="简单的中文分词" /> </head> <body> <script type="text/javascript"> // 字典 var dict = { "家乡" : 1, "松花" : 1, "松花江" : 1, "那里" : 1, "四季" : 1, "四季迷人" : 1, "迷人" : 1, "花香" : 1 }; // 停止词 var stop = { "的" : 1 }; // 待分词的字符串 var words = "我的家乡在松花江边上,那里有四季迷人的花香。"; function splitWords(words) { var start = 0, end = words.length - 1, result = []; while (start != end) { var str = []; for (var i = start; i <= end; i++) { var s = words.substring(i, i + 1); // 如果是停止词,则跳过 if (s in stop) { break; } str.push(s); // 如果在字典中,则添加到分词结果集 if (str.join('') in dict) { result.push(str.join('')); } } start++; } return result; } console.group("Base 分词: "); console.log("待分词的字符串: ", words); console.log("分词结果: ", splitWords(words)); console.groupEnd(); </script> </body> </html>
但是想一下,在实际应用中,字典可能包含了足够多的词,而且字典中很多词是有共同前缀的。比如上述代码中的"松花"和"松花江"就有共同的前缀"松花",存储重复的前缀将导致字典占用大量的内存,而这部分其实是可以优化的。还记得我之前的一篇介绍Trie树的文章吗?如果您忘了,那请看:Python: Trie树实现字典排序 。事实上还是有不同之处的,因为之前只是针对26个字母的Trie树。对于需要支持中文的Trie树来说,如果直接用一个字符(这个字符可能是ASCII码字符,也可能是中文字符或其它多字节字符)来表示一个节点,则是不可取的。大家知道最常用的汉字有将近一万个,如果每一个节点都要用一个数组来保存将近一万个子节点,那就太吓人了。所以我这里选择Object的方式来保存,这样的好处是查找时间复杂度为O(1)。但即使这样,这个Object还将容纳将近一万个key,所以我这里将结合另外一种方案来实现。
JavaScript的内码是Unicode,它用1~2个字节来存储。如果我们将一个双字节转成UTF8的三个字节(嗯,是的。本文只考虑UTF8的单字节和三字节,因为双字节、四字节、五字节和六字节太少见了),单字节还是不变,以第一个字节为起始节点,那么节点的子节点数就变成了固定的256个,然后我们通过起始字节的大小可以知道这是一个单字节或三字节。这种方式有效的节约了内存。接下来是实现代码:
<!DOCTYPE html> <html> <head> <meta charset="utf-8"> <title>简单的中文分词</title> <meta name="author" content="" /> <meta http-equiv="X-UA-Compatible" content="IE=7" /> <meta name="keywords" content="简单的中文分词" /> <meta name="description" content="简单的中文分词" /> </head> <body> <script type="text/javascript"> // 字典 var dict = [ "家乡", "松花", "松花江", "那里", "四季", "四季迷人", "迷人", "花香", "hello", "kitty", "fine" ]; // 停止词 var stop = { "的" : 1 }; // 待分词的字符串 var words = "hello, kitty!我的家乡在松花江边上,那里有四季迷人的花香。fine~"; // Trie树 function Trie() { this.root = new Node(null); } Trie.prototype = { /** * 将Unicode转成UTF8的三字节 */ toBytes : function(word) { var result = []; for (var i = 0; i < word.length; i++) { var code = word.charCodeAt(i); // 单字节 if (code < 0x80) { result.push(code); } else { // 三字节 result = result.concat(this.toUTF8(code)); } } return result; }, toUTF8 : function(c) { // 1110xxxx 10xxxxxx 10xxxxxx // 1110xxxx var byte1 = 0xE0 | ((c >> 12) & 0x0F); // 10xxxxxx var byte2 = 0x80 | ((c >> 6) & 0x3F); // 10xxxxxx var byte3 = 0x80 | (c & 0x3F); return [byte1, byte2, byte3]; }, toUTF16 : function(b1, b2, b3) { // 1110xxxx 10xxxxxx 10xxxxxx var byte1 = (b1 << 4) | ((b2 >> 2) & 0x0F); var byte2 = ((b2 & 0x03) << 6) | (b3 & 0x3F); var utf16 = ((byte1 & 0x00FF) << 8) | byte2 return utf16; }, /** * 添加每个词到Trie树 */ add : function(word) { var node = this.root, bytes = this.toBytes(word), len = bytes.length; for (var i = 0; i < len; i++) { var c = bytes[i]; // 如果不存在则添加,否则不需要再保存了,因为共用前缀 if (!(c in node.childs)) { node.childs[c] = new Node(c); } node = node.childs[c]; } node.asWord(); // 成词边界 }, /** * 按字节在Trie树中搜索 */ search : function(bytes) { var node = this.root, len = bytes.length, result = []; var word = [], j = 0; for (var i = 0; i < len; i++) { var c = bytes[i], childs = node.childs; if (!(c in childs)) { return result; } if (c < 0x80) { word.push(String.fromCharCode(c)); } else { j++; if (j % 3 == 0) { var b1 = bytes[i - 2]; var b2 = bytes[i - 1]; var b3 = c; word.push(String.fromCharCode(this.toUTF16(b1, b2, b3))); } } // 如果是停止词,则退出 if (word.join('') in stop) { return result; } // 成词 var cnode = childs[c]; if (cnode.isWord()) { result.push(word.join('')); } node = cnode; } return result; }, /** * 分词 */ splitWords : function(words) { // 转换成单字节进行搜索 var bytes = this.toBytes(words); var start = 0, end = bytes.length - 1, result = []; while (start != end) { var word = []; for (var i = start; i <= end; i++) { var b = bytes[i]; // 逐个取出字节 word.push(b); var finds = this.search(word); if (finds !== false && finds.length > 0) { // 如果在字典中,则添加到分词结果集 result = result.concat(finds); break; } } start++; } return result; }, /** * 词始化整棵Trie树 */ init : function(dict) { for (var i = 0; i < dict.length; i++) { this.add(dict[i]); } } }; // 节点 function Node(_byte) { this.childs = {}; // 子节点集合 this._byte = _byte || null; // 此节点上存储的字节 this._isWord = false; // 边界保存,表示是否可以组成一个词 } Node.prototype = { isWord : function() { return this._isWord; }, asWord : function() { this._isWord = true; } }; var trie = new Trie(); trie.init(dict); var result = trie.splitWords(words); console.group("Trie 分词: "); console.log("待分词的字符串: ", words); console.log("分词结果: ", result); console.groupEnd(); </script> </body> </html>
各位看了输出结果后就会发现,这个分词是有问题的,因为明显少了"松花江"和"四季迷人"。拿"四季"和"四季迷人"来说,"四季"是"四季迷人"的前缀,在通过trie.isWrod()方法来判断是否成词时,一遇到"四季"就成功了,所以"四季迷人"没有机会得到判断,所以我们需要修改代码,在Node上加一个属性,表示已判断的次数。代码如下:
<!DOCTYPE html> <html> <head> <meta charset="utf-8"> <title>简单的中文分词</title> <meta name="author" content="" /> <meta http-equiv="X-UA-Compatible" content="IE=7" /> <meta name="keywords" content="简单的中文分词" /> <meta name="description" content="简单的中文分词" /> </head> <body> <script type="text/javascript"> // 字典 var dict = [ "家乡", "松花", "松花江", "那里", "四季", "四季迷人", "迷人", "花香", "hello", "kitty", "fine" ]; // 停止词 var stop = { "的" : 1 }; // 待分词的字符串 var words = "hello, kitty!我的家乡在松花江边上,那里有四季迷人的花香。fine~"; // Trie树 function Trie() { this.root = new Node(null); } Trie.prototype = { /** * 将Unicode转成UTF8的三字节 */ toBytes : function(word) { var result = []; for (var i = 0; i < word.length; i++) { var code = word.charCodeAt(i); // 单字节 if (code < 0x80) { result.push(code); } else { // 三字节 result = result.concat(this.toUTF8(code)); } } return result; }, toUTF8 : function(c) { // 1110xxxx 10xxxxxx 10xxxxxx // 1110xxxx var byte1 = 0xE0 | ((c >> 12) & 0x0F); // 10xxxxxx var byte2 = 0x80 | ((c >> 6) & 0x3F); // 10xxxxxx var byte3 = 0x80 | (c & 0x3F); return [byte1, byte2, byte3]; }, toUTF16 : function(b1, b2, b3) { // 1110xxxx 10xxxxxx 10xxxxxx var byte1 = (b1 << 4) | ((b2 >> 2) & 0x0F); var byte2 = ((b2 & 0x03) << 6) | (b3 & 0x3F); var utf16 = ((byte1 & 0x00FF) << 8) | byte2 return utf16; }, /** * 添加每个词到Trie树 */ add : function(word) { var node = this.root, bytes = this.toBytes(word), len = bytes.length; for (var i = 0; i < len; i++) { var c = bytes[i]; // 如果不存在则添加,否则不需要再保存了,因为共用前缀 if (!(c in node.childs)) { node.childs[c] = new Node(c); } node = node.childs[c]; } node.asWord(); // 成词边界 }, /** * 按字节在Trie树中搜索 */ search : function(bytes) { var node = this.root, len = bytes.length, result = []; var word = [], j = 0; for (var i = 0; i < len; i++) { var c = bytes[i], childs = node.childs; if (!(c in childs)) { return result; } if (c < 0x80) { word.push(String.fromCharCode(c)); } else { j++; if (j % 3 == 0) { var b1 = bytes[i - 2]; var b2 = bytes[i - 1]; var b3 = c; word.push(String.fromCharCode(this.toUTF16(b1, b2, b3))); } } // 如果是停止词,则退出 if (word.join('') in stop) { return result; } // 成词 var cnode = childs[c]; if (cnode.isWord()) { cnode.addCount(); // 用于计数判断 result.push(word.join('')); } node = cnode; } return result; }, /** * 分词 */ splitWords : function(words) { // 转换成单字节进行搜索 var bytes = this.toBytes(words); var start = 0, end = bytes.length - 1, result = []; while (start != end) { var word = []; for (var i = start; i <= end; i++) { var b = bytes[i]; // 逐个取出字节 word.push(b); var finds = this.search(word); if (finds !== false && finds.length > 0) { // 如果在字典中,则添加到分词结果集 result = result.concat(finds); } } start++; } return result; }, /** * 词始化整棵Trie树 */ init : function(dict) { for (var i = 0; i < dict.length; i++) { this.add(dict[i]); } } }; // 节点 function Node(_byte) { this.childs = {}; // 子节点集合 this._byte = _byte || null; // 此节点上存储的字节 this._isWord = false; // 边界保存,表示是否可以组成一个词 this._count = 0; } Node.prototype = { isWord : function() { return (this._isWord && (this._count == 0)); }, asWord : function() { this._isWord = true; }, addCount : function() { this._count++; }, getCount : function() { return this._count; } }; var trie = new Trie(); trie.init(dict); var result = trie.splitWords(words); console.group("Trie 分词: "); console.log("待分词的字符串: ", words); console.log("分词结果: ", result); console.groupEnd(); </script> </body> </html>
现在已经能正确的分词了,即使有相同的前缀也没有问题。我上面分词用到的Trie树称为标准Trie树,这种标准Trie树比较直观。对于需要存储中文的Trie树,也有很多是用数组的方式实现的,比如双数组Trie树(Double Array Trie,简称DAT)、三数组Trie树等,有兴趣的朋友可以去了解一下。
本文只是简单的实现了中文分词,还有很多不足的地方。比如没有考虑未登录词的自动成词,人名、岐义等等。但对于一般的如关键词屏蔽和计算文本相似度等应用已经足够了。