这里将用c#写一个关于词频统计的命令行程序。
预计时间分配:输入处理3h、词条排序打印2h、测试3h。
实际时间分配:输入处理1h、词条排序打印2h、测试3h、程序改进优化6h。
下面将讲解程序的完成过程:
A word: a string with at least 3 English alphabet letters, then followed by optional alphanumerical characters. Words are separated by delimiters. If a string contains non-alphanumerical characters, it’s not a word. Word is case insensitive, i.e. “file”, “FILE” and “File” are considered the same word.
“file123” is a word, and “123file” is NOT a word.
- Alphabetic letters: A-Z, a-z.
- Alphanumerical characters: A-Z, a-z, 0-9.
- Delimiter: space, non-alphanumerical letters.
- Each line has this format
所以我使用正则表达式来进行单词的匹配。
1 private static string matchpattern = @"\b[A-Za-z]{3,}[A-Za-z0-9]*|_\b[A-Za-z]{3,}[A-Za-z0-9]*";//单词正则表达式匹配模式
上式就满足了我的单次匹配模式,正则表达式的完整语法在这里就不再赘述,请读者自行百度。
*需要注意这里\b提供了匹配时单次前必须是非字母、非数字字符,以免123file中的file被匹配,但是这个词显然在当前定义下不符合。
之后使用Regex.Matches(source, matchpattern)方法,能够返回一个匹配类型match的数组以便后面操作。
1 private static Dictionary<string, wordnode> vocabcount = new Dictionary<string, wordnode>(); 2 //private static Dictionary<string, string> vocabword = new Dictionary<string, string>();
其中vocabcout将存储我们程序中所扫描的单次基数,以及在字母相同的多个单词中选择后存储的ASCII最小的单词。
*这里注释掉的vocabword字典,是我第一版代码的数据结构,我在最开始因为要存储计数和ASCII最小的单词,所以开了两个索引都为词条的lowcase的数据表来进行分别存储计数和单词,但是这样非常消耗内存,同时在遍历表的同时增加了算法复杂度,在之后的代码优化后进行了改进。
wordnode是我自己定义的一个结构,代码如下:
1 class wordnode 2 { 3 public int count{get;set;} 4 public string word {get; set;} 5 public wordnode(int num,string word) 6 { 7 this.count=num; 8 this.word=word; 9 } 10 }
可以看到wordnode内具有count和word两种属性。这样就能存储我们所需要的数据。
1 private void runsta() 2 { 3 4 Regex reg=new Regex(matchpattern); 5 if (option != 0) 6 { 7 Match m = reg.Match(source, 0); 8 while (m.Success) 9 { 10 match_process(m.ToString()); 11 m = reg.Match(source, m.Index + m.ToString().IndexOf(' ')); 12 } 13 } 14 else 15 { 16 foreach (Match m in reg.Matches(source)) 17 match_process(m.ToString()); 18 } 19 20 }
这里的第一个分支用于支持要进行连续的2-3个单词的识别,通过调整识别索引来进行识别不同的位置后的单词。
注意这里的match_process()函树是对一个词条进行处理的函数:
private void match_process(string tempword) { //foreach (Match m in Regex.Matches(source, matchpattern)) string lowerword = tempword.ToLower(); if (vocabcount.ContainsKey(lowerword)) { vocabcount[lowerword].count += 1; string temp = vocabcount[lowerword].word; if (temp.CompareTo(tempword) < 0) vocabcount[lowerword].word = tempword; } else { vocabcount.Add(lowerword, new wordnode(1, tempword)); } }
代码简单易读,这里就完成对统计数据的存储。
我们需要对用户输入的文件夹路径进行递归遍历,于是递归代码如下:
1 /* public bool recursiverun(string path) 2 { 3 if (File.Exists(path)) 4 { 5 process_eacchfile(path); 6 } 7 8 else if (Directory.Exists(path)) 9 { 10 string[] filelist = Directory.GetFiles(path); 11 string[] dirlist = Directory.GetDirectories(path); 12 if(filelist.Length!=0) 13 foreach(string onefile in filelist) 14 { 15 foreach (string ext in oneext) 16 { 17 if(onefile.EndsWith(ext)) 18 process_eacchfile(onefile); 19 } 20 } 21 if(dirlist.Length!=0) 22 foreach(string onedir in dirlist) 23 { 24 recursiverun(onedir); 25 } 26 } 27 else 28 return false; 29 return true; 30 }*/
*这里是我的第一版本的文件系统遍历的代码,代码对文件树进行深度遍历,在遍历同时进行文件处理,不仅因为递归算法内存和复杂度开销甚大,同是对各个临界值和条件的控制让算法非常脆弱,所以我在进行算法改进后换成了的以下的代码:
1 String[] files = (Directory.EnumerateFiles(path, "*.*", SearchOption.AllDirectories)).Where(s => s.EndsWith(".txt") || s.EndsWith(".cpp") || s.EndsWith(".h") || s.EndsWith(".cs")).ToArray();
这段代码易用准确,将遍历部分和处理部分分割开来,减少内存开销和算法复杂度。
以上,我们就将单词的匹配、单词数据的处理、文件系统的遍历功能完成了。此外,对于每个文件的可读有效性,路径有效性的函数在此就不再赘述。
1 var item = vocabcount.OrderByDescending(r => r.Value.count).ThenBy(r => r.Value.word); 2 //List<KeyValuePair<string, wordnode>> myList = new List<KeyValuePair<string, wordnode>>(vocabcount); 3 //myList.Sort(delegate(KeyValuePair<string, wordnode> s1, KeyValuePair<string, wordnode> s2) 4 //{ 5 6 // return s1.Value.word.CompareTo(s2.Value.word); 7 8 // });
这里列举了两种效果相同的算法,都会将字典项先按计数降序再按字典序升序排列。
*这里发现c#本身的compareto算法比较输出与ASCII比较相反,所以我在存储单词的时候取了反,在这里直接按着字典序排列,就有可能一些大写字母单词排在小写的后面,但这就是c#的字典序,所以我不选择去修改它了。核心代码就是以上,所以关于输出的函数在这里不做赘述。
3.1测试单词识别:
file123 fie 123file
3.1测试结果:
<fie>:1
<file123>:1
3.2测试文本或文件树为空:
void
3.2测试结果:
void
3.3测试单词大小写识别和存储问题:
file File
3.3测试结果:
<File>:2
3.3测试单词排序:
FILE file ASD asd asD ASC asc ASc
3.3测试结果:
<ASC>:3
<ASD>:3
<FILE>:2
3.4测试连续两个单词的识别:
how are you are you
3.4测试结果:
<are you>:2
<how are>:1
<you are>:1
3.5测试连续三个单词的识别;
how are you doing ine these days
3.5测试结果:
<are you doing>:1
<doing ine these>:1
<how are you>:1
<ine these days>:1
<you doing ine>:1
3.6测试文件选择:
3.6测试结果:
只有txt、h、cpp、cs的文件可以被阅读
3.7测试路径无效的情况
3.7测试结果:
控制台显示不存在此文件或文件夹,请重新输入
3.8测试分隔符:
horweefa[]youw
3.8测试结果:
<horweefa>:1
<youw>:1
3.9测试连续两个单词的排序:
how are you are you
3.9测试结果:
<are you>:2
<how are>:1
<you are>:1
3.10测试大文件:
见最后一张性能截图,结果正确性能如下。
这里是内存分析的图。
这里是时间分析的图,因为递归和处理算法的分离,使得递归过程更快速,程序的瓶颈在处理过程和存储数据结构上,之前使用sorteddictionary非常慢,我将数据结构改为dictionary,速度提升了一个数量级。如果需要继续提高数据结构的效率可能可以参考trie树,这里不做赘述,不过经过分析我觉得应该没有什么较大的区别。
这次项目让我学会了熟练的使用正则表达式、LINQ、dictionary等语法,更会通过code analysis去分析代码的内存消耗和算法瓶颈,让我受益匪浅,而且写blog将自己的思路写下来,能够在社区里与他人交流,是一种全新的学习方式,希望在这里的印记能够为他人提供方便。