nltk.download('punkt') False

下面是使用NLTK进行分词,然后去除stop_words的操作,但是运行的时候,提示需要下载punkt。

from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize

example_sent = "This is a sample sentence, showing off the stop words filtration."

stop_words = set(stopwords.words('english'))

word_tokens = word_tokenize(example_sent)

filtered_sentence = [w for w in word_tokens if not w in stop_words]

filtered_sentence = []

for w in word_tokens:
    if w not in stop_words:
        filtered_sentence.append(w)

print(word_tokens)
print(filtered_sentence)

Our output here:



['This', 'is', 'a', 'sample', 'sentence', ',', 'showing', 'off', 'the', 'stop', 'words', 'filtration', '.']
['This', 'sample', 'sentence', ',', 'showing', 'stop', 'words', 'filtration', '.']

可是下载一直显示False,尝试了好几次之后,确定不是断网的问题。
nltk.download('punkt') False_第1张图片
换了别人的机子,就好了。。。。
我想要在我这台机子就将目录复制到对应的失败的目录:
nltk.download('punkt') False_第2张图片
然后就成功了。。。。
最后给出百度盘的下载链接,以防以后下载不下来。
punkt.zip密码:mema

你可能感兴趣的:(NLP,python,NLP)