1.说明
学习自然语言处理,一定会参考NLTK,主要是学习它的思路,从设计地角度看看能做什么.其本质就是把语言看成字符串,字符串组,字符串集,寻找其间规律.
NLTK是多语言支持的,但目前网上的例程几乎没有用NLTK处理中文的,其实可以做。比如标注功能,它自身提供了带标注的中文语库(繁体语料库sinica_treebank).下面来看看怎样通过数据训练来实现中文词性自动标注.
可以利用它来标注中本,也可以寻找和验证一些隐性的规律.
2.相关知识
1)词性标注
词汇按它们的词性(parts-of-speech,POS)分类以及相应的标注它们的过程,词性包括:名词、动词、形容词,副词等.
2)中文字符的显示
Python内部编码是unicode,所以输出中文常常像这样"\u4eba\u5de5",用print函数输出时,将自动转换成本地字符集,也可以使用encode(‘utf-8’)函数转换.
3)数据集,训练集,评估
有监督的机器学习一般都是把数据分成两个部分,一部分用于训练,一部分用于测试,还可以通过不同分组交叉验证. Nltk提供了evaluate()函数评估标注效果.
4)默认标注(Default Tagger)
事先对语料库做了统计(利用nltk.FreqDist()),出现最多的是名词.
在这里,默认标注为名词
5)正则表达式标注(Regexp Tagger)
用匹配模式分配标记给标识符.在英文处理中,常用此方式识别各种形态(时态,后缀等),中文识别中也可以使用它来识别标点,数字等.
6)一元标注(Unigram Tagger)
一元标注基于一个简单的统计算法:对每个标识符分配这个独特的标识符最有可能的标记.
在这里就是分配给具体单词,它最常出现的词性.
7)多元标注(N-gram Tagger)
多元标注使用训练集来确定对每个上下文哪个词性标记最有可能。上下文指当前词和它前面n-1个标识符的词性标记.
在这里,就是找一些规律,比如: XX常出现在名词之前, YY常出现在动词之后.通过某个词以及它之前那个词的词性来判断它的词性.这就是二元标注.同理,可以生成三元甚至多元标注.词的距离越远影响越小,也更占用资源,一般二元到三元就够了.
8)组合标注
更精确的算法在很多时候落后于具有更广覆盖范围的算法(比如满足三元标的词可能非常少),所以有时我们组合多个标注器,
在这里,组合bigram标注器、unigram标注器和一个默认标注器
3.代码
#encoding=utf-8
importnltk
fromnltk.corpus import sinica_treebank#带标注的中文语料库
#用print输出本地字符格式
defdump_result(result):
for item in result:
print item[0],",",item[1],
#等标注的词,以空格分词(分词问题不在此讨论)
raw = '讓人工智能能夠更有效地甄別虛假和低俗內容並控制其傳播是當前業界和學界要重點研究的問題'.decode('utf-8')
tokens= nltk.word_tokenize(raw)
sinica_treebank_tagged_sents= sinica_treebank.tagged_sents()#以句为单位标
size =int(len(sinica_treebank_tagged_sents) * 0.9)
train_sents= sinica_treebank_tagged_sents[:size]#90%数据作为训练集
test_sents= sinica_treebank_tagged_sents[size:]#10%数据作为测试集
t0 =nltk.DefaultTagger('Nab')#词性的默认值为名词
t1 =nltk.UnigramTagger(train_sents, backoff=t0)#一元标注
t2 =nltk.BigramTagger(train_sents, backoff=t1)#多元(二元)标注
dump_result(t2.tag(tokens))
printt2.evaluate(test_sents)#根据带标注的文本,评估标注器的正确率
4.主要思想
词性标注的主要思想是提炼最容易出现的可能性(在不同层次:所有词,具体词,词间关系),它是一套统计方法,也是分类器的一个应用.
NLTK的词性标注只是抛砖引玉,使用同样方法,还也可以实现标注词义(一词多义的消歧),字音(多音字)等等.
通过它来看看自然语言的处理方法,有了自己的工具,也能更灵活地使用这个功能,目前还很简陋,下面来看看怎么改进它.
5.改进
1)缺少训练数据
训练数据不足,或者一些标注本身的问题,需要改进和增加训练数据.错误分类可以通过大量数据的校正,同时也需考虑语境,选择不同训练集.
上例中的sinica_treebank语料库自带1万个句子, 10万左右的词,文本也比较单一,执行以上程序后可以看到,准确率在75%左右.
想要训练出更理想的标注器,需要更多带标注的数据(有监督学习).数据从哪儿来呢?其实也简单,可以用现有靠谱的分词工具(比如:在线的”语言云”,离线的”结巴”)的标注结果去训练你自己的标注器.
2)有一些词本身就是特例,就如同”海豚不是鱼类”
统计归类本身无法处理,除了统计的方案,还可以添加一一对应的词与标注的映射表来解决此类问题.
3)新词/不常用词
未被训练过的词,可以用一些特殊标记加入字典,在数据积累到一定数量时总结其规律.
N元标注再抽象一个层次是发现词性间的规律,比如"名词前是形容词的可能性比较大",借此来处理不能识别的"新词".
也可以通过WordNet等字典查看具体词的词性.有一些词虽然很少出现,但词义和词性比较单一.对多义词,可以选择其最常用的词性.
4)特殊规则
有些专业领域会有一些特殊的习惯用法,也可以通过它制定一些规则.通过正则表达式标注器实现.
5)语义,形态…
更深层次的语义分析
6.参考
1)Categorizing and Tagging Words
http://www.nltk.org/book_1ed/ch05.html
2)结巴词性标注
http://www.mamicode.com/info-detail-562618.html