这个学期开了一门课程叫自然语言处理(NLP),这是第一缘由,通过学习,慢慢的发现python的第三方库的强大之处,所以对这门课程学习比较认真,对很多次实验都进行了实践,期间也遇到了不少问题,因为以前都是搞JAVA的,所以遇到问题到解决问题还是花了点时间的,所以想将这个思考过程写出来,一方面可以通过笔记让我对NPL有关操作有更深的理解,另一方面也希望可以将自己学习过程中遇到的一些问题点出来,避免大家多次入坑,浪费宝贵时间!
txt=open("《红楼梦》完整版.txt",“r”,encoding=“utf-8”)
words=jieba.lcut(txt.read())
counts={}
for word in words:
counts[word]=counts.get(word,0)+1
item=list(counts.items())
item.sort(key=lambda x:x[1],reverse=True)
for i in range(20):
print("{0:<10}{1:>5}".format(item[i][0],item[i][1]))
import jieba
txt=open("《红楼梦》完整版.txt","r",encoding="utf-8")
words=jieba.lcut(txt.read())
counts={} #新建一个字典
for word in words:
counts[word]=counts.get(word,0)+1
item=list(counts.items())
item.sort(key=lambda x:x[1],reverse=True)
for i in range(20):
print("{0:<10}{1:>5}".format(item[i][0],item[i][1]))