说明:本文转自 http://powman.org/archives/trie.html
前一段时间写了个微型输入法,使用map进行查找,发现效率不高。正好最近也在针对一个查找功能做优化,针对我的应用场景使用了Trie字典树。
Trie树属于树形结构,查询效率比红黑树和哈希表都要快。假设有这么一种应用场景:有若干个英文单词,需要快速查找某个单词是否存在于字典中。使用Trie时先从根节点开始查找,直至匹配到给出字符串的最后一个节点。在建立字典树结构时,预先把带有相同前缀的单词合并在同一节点,直至两个单词的某一个字母不同,则再从发生差异的节点中分叉一个子节点。
节点结构:
每个节点对应一个最大可储存字符数组。假设字典只存26个小写英文字母,那么每个节点下应该有一个长度为26的数组。换言说,可存的元素类型越多,单个节点占用内存越大。如果用字典树储存汉字,那么每个节点必须为数千个常用汉字开辟一个数组作为储存空间,占用的内存实在不是一个数量级。不过Trie树就是一种用空间换时间的数据结构,鱼和熊掌往往不可兼得。
建树细节:
查找细节:
循环取要插入字符串的首个字符,从根节点的孩子节点开始,匹配当前字符是否已有节点,有则继续循环,无则返回False. 直至匹配到最后一个字符则完成查找。
树结构图:
我们用apps, apply, apple, append, back, basic, backen几英文单词创建树形结构:
上图很容易看出,有相同前缀的英文单词,会合并在同一个节点,Trie树顺着一个个节点进行检索,直至找到最后一个节点。代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
|
#include
struct
trie_node
{
static
const
int
letter_count = 26;
int
count;
bool
is_terminal;
char
letter;
trie_node* childs[letter_count];
trie_node()
: letter(0), count(1), is_terminal(
false
)
{
for
(
int
i = 0; i < letter_count; ++i)
childs[i] = NULL;
}
};
class
trie
{
public
:
trie()
: root_node_(NULL)
{
}
~trie()
{
delete_trie(root_node_);
}
public
:
trie_node* create()
{
trie_node* n =
new
trie_node();
return
n;
}
void
insert(
const
char
* str)
{
if
(!root_node_ || !str)
root_node_ = create();
trie_node* next_element_node = root_node_;
while
(*str != 0)
{
char
element_index = *str -
'a'
;
if
(!next_element_node->childs[element_index])
{
next_element_node->childs[element_index] = create();
}
else
{
next_element_node->childs[element_index]->count++;
}
next_element_node = next_element_node->childs[element_index];
next_element_node->letter = *str;
str++;
}
next_element_node->is_terminal =
true
;
}
bool
find_word_exists(
const
char
* str)
{
if
(!root_node_ || !str)
return
NULL;
trie_node* element_node = root_node_;
do
{
element_node = element_node->childs[*str -
'a'
];
if
(!element_node)
return
false
;
str++;
}
while
(*str != 0);
return
element_node->is_terminal;
}
void
delete_trie(trie_node* node)
{
if
(!node)
return
;
for
(
int
i = 0; i < trie_node::letter_count; i++)
{
if
(node->childs[i] != NULL)
delete_trie(node->childs[i]);
}
delete
node;
}
private
:
trie_node* root_node_;
};
|
为了测试三者效率,我使用了一份大约有20万个英文词汇,大小约2.2MB的字典文件分别向Trie、红黑树和哈希表进行插入、查询两种操作对比,并做了时间计算。
测试环境:
操作系统 | CentOS 64-bit |
CPU | Intel(R) Core(TM) i7-2600K |
编译环境 | g++ 4.4.7 |
测试代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
|
#include
#include
#include
#include
#include
#include
int
main(
int
argc,
char
* argv[])
{
std::set
std::unordered_map
trie t;
long
time_sp = 0, time_sp_rbtree = 0, time_sp_hash_map = 0;
std::ifstream stream_in(
"./dict.txt"
, std::ios::in);
if
(stream_in.is_open())
{
int
count = 0;
int
lineLength = 1024;
char
* buffer =
new
char
[lineLength];
while
(stream_in.getline(buffer, lineLength))
{
count++;
timeval trie_tv_start, trie_tv_end, rbtree_tv_start, rbtree_tv_end, hashmap_tv_start, hashmap_tv_end;
gettimeofday(&trie_tv_start, NULL);
long
trie_start = ((
long
)trie_tv_start.tv_sec) * 1000 + (
long
)trie_tv_start.tv_usec / 1000;
t.insert(buffer);
gettimeofday(&trie_tv_end, NULL);
time_sp += (((
long
)trie_tv_end.tv_sec) * 1000 + (
long
)trie_tv_end.tv_usec / 1000) - trie_start;
gettimeofday(&rbtree_tv_start, NULL);
long
rbtree_start = ((
long
)rbtree_tv_start.tv_sec) * 1000 + (
long
)rbtree_tv_start.tv_usec / 1000;
rbtree_dict.insert(buffer);
gettimeofday(&rbtree_tv_end, NULL);
time_sp_rbtree += (((
long
)rbtree_tv_end.tv_sec) * 1000 + (
long
)rbtree_tv_end.tv_usec / 1000) - rbtree_start;
gettimeofday(&hashmap_tv_start, NULL);
long
hashmap_start = ((
long
)hashmap_tv_start.tv_sec) * 1000 + (
long
)hashmap_tv_start.tv_usec / 1000;
hash_map_dict.insert(std::make_pair(buffer, buffer));
gettimeofday(&hashmap_tv_end, NULL);
time_sp_hash_map += (((
long
)hashmap_tv_end.tv_sec) * 1000 + (
long
)hashmap_tv_end.tv_usec / 1000) - hashmap_start;
}
}
std::cout <<
"Build dictionary : \n"
" Trie : "
<< time_sp <<
" ms.\n"
<<
" Rbtree : "
<< time_sp_rbtree <<
" ms.\n"
<<
" HashTable : "
<< time_sp_hash_map <<
" ms."
<< std::endl;
const
char
* keyword =
"zygomaticoauricularis"
;
timeval trie_find_tv_start, trie_find_tv_end, rbtree_find_tv_start, rbtree_find_tv_end, hashmap_find_tv_start, hashmap_find_tv_end;
gettimeofday(&trie_find_tv_start, NULL);
std::string status;
long
trie_start = ((
long
)trie_find_tv_start.tv_sec) * 1000 + (
long
)trie_find_tv_start.tv_usec / 1000;
for
(
int
i = 0; i < 10000; i++)
{
status = t.find_word_exists(keyword) ==
true
?
"true"
:
"false"
;
}
gettimeofday(&trie_find_tv_end, NULL);
long
trie_end_time = (((
long
)trie_find_tv_end.tv_sec) * 1000 + (
long
)trie_find_tv_end.tv_usec / 1000) - trie_start;
gettimeofday(&rbtree_find_tv_start, NULL);
long
rbtree_start = ((
long
)rbtree_find_tv_start.tv_sec) * 1000 + (
long
)rbtree_find_tv_start.tv_usec / 1000;
for
(
int
i = 0; i < 10000; i++)
{
rbtree_dict.find(keyword);
}
gettimeofday(&rbtree_find_tv_end, NULL);
long
rbtree_end_time = (((
long
)rbtree_find_tv_end.tv_sec) * 1000 + (
long
)rbtree_find_tv_end.tv_usec / 1000) - rbtree_start;
gettimeofday(&hashmap_find_tv_start, NULL);
long
hashtable_start = ((
long
)hashmap_find_tv_start.tv_sec) * 1000 + (
long
)hashmap_find_tv_start.tv_usec / 1000;
for
(
int
i = 0; i < 10000; i++)
{
hash_map_dict.find(keyword);
}
gettimeofday(&hashmap_find_tv_end, NULL);
long
hashtable_end_time = (((
long
)hashmap_find_tv_end.tv_sec) * 1000 + (
long
)hashmap_find_tv_end.tv_usec / 1000) - hashtable_start;
std::cout <<
"Word <'"
<< keyword <<
"'> search result : "
<< status <<
", elapsed time : \n"
" Trie : "
<< trie_end_time <<
" ms.\n"
<<
" Rbtree : "
<< rbtree_end_time <<
" ms.\n"
<<
" HashTable : "
<< hashtable_end_time <<
" ms."
<< std::endl;
return
0;
}
|
测试结果如下:
建表(耗时/ms) | 查询(耗时/ms) | |
Trie(字典树) | 143ms | 0ms |
std::set(红黑树) | 235ms | 14ms |
std::unordered_map(哈希表) | 188ms | 8ms |
从测试数据看来,结果无论是建树还是查询,Trie都仅仅是略胜红黑树和哈希表,但也可以看出Trie树这种非常简单的数据结构在这方面的效率足以和红黑树以及哈希表持平甚至略占优势。但并不能因此表明Trie是一种超越红黑树和哈希表的数据结构,它只是更加适合这种以公共前缀进行查询的场合。不过对于上面测试代码,仍然有失公平,比如说在哈希表建表时仍然会把hash key的消耗计算在内。但有趣的是,在VS2012环境下编译并一样在关闭编译器优化的情况下,Windows下的测试数据却普遍比在gcc编译的要慢好几倍甚至好几十倍,这是为什么呢?