使用NLTK时出现Resource [93mpunkt[0m not found.

今天刚学习NLP时,在使用NLTK的

import nltk

>>> text = "welcome reader.I hope you find it interesting.please do reply."
>>> from nltk.tokenize import sent_tokenize

>>> sent_tokenize(text)

进行分词的时候出现如下的错误:

使用NLTK时出现Resource [93mpunkt[0m not found._第1张图片

原因在于缺少一个模块

解决办法:输入

>>> nltk.download()

出现如下界面,点击下载模块punkt

使用NLTK时出现Resource [93mpunkt[0m not found._第2张图片

下载完punkt之后,word_tokenize可以分词成功了,如图:


你可能感兴趣的:(本科混乱摸鱼学习经历,NLP,NLTK,机器学习)